-
1. Einleitung
-
2. Rechtliche Einsatzbedingungen für den Einsatz von KI-Anwendungen im Recht
-
3. Ethische Einsatzbedingungen für den Einsatz von KI-Anwendungen im Recht
-
3.1. Informationsethische Einsatzkriterien
-
3.2. Gutachten der Datenethikkommission des dt. BMJ
-
-
4. Rahmenbedingungen für den Einsatz von KI-Anwendungen im Recht
-
4.1. Scope (Anwendungsbereich)
-
4.2. Safety Kernel (Begrenzung des Gefahrenpotentials)
-
4.3. Data (Inhalt, Quelle und Umfang der Trainingsdaten)
-
4.4. Model (Aufbereitung der Daten, Grenzen des Modells)
-
4.5. Transparency (Nachvollziehbare Begründung)
-
4.6. Integration (Organisatorische Einbindung des Systems)
-
4.7. Don’t trust Updates (Updates sind wie Neuentwicklungen zu testen)
-
-
5. Standardisierungsmöglichkeiten
-
5.1. Nutzbare Standards
-
5.1.1. IEC 82079-1-2019 Nutzungsinformation für Produkte und Systeme
-
5.1.2. ISO/IEC 27005 Risikomanagement
-
5.1.3. ISO/IEC 27001 Informationssicherheits-Managementsystem
-
5.1.4. ISO 9241 Ergonomics of Human System Interaction
-
-
5.2. Standardisierungsmethodik
-
5.2.1. Getrennte Bewertung der KI-Anwendung und des geplanten Einsatzzwecks
-
5.2.2. Semiquantifizierte Kriterien
-
-
-
6. Zusammenfassung
-
7. Literatur
Robolaw
DOI: 10.38023/64a687ac-82cb-4d2e-9c23-e174a36f792a
Metanormen – Voraussetzungen für den Einsatz von Künstlicher Intelligenz im Recht
Category:
Articles
Field of law:
Artificial Intelligence & Law
Collection:
Conference proceedings IRIS 2020
Citation: Peter Ebenhoch / Felix Gantner, Metanormen – Voraussetzungen für den Einsatz von Künstlicher Intelligenz im Recht , in: Jusletter IT 27. Mai 2020
Das Rechtssystem besteht aus Regeln, über deren Einsatz, Anwendung und Abänderung es selbst bestimmt. Der unreflektierte Einsatz von künstlicher Intelligenz als «Black» bzw. «Gray Box» droht, die Autonomie und damit die Grundlagen des Rechts zu untergraben. Es werden Regeln und technische Standards vorgestellt, die die benötigte Qualitätssicherung und damit die Autonomie des Rechts sicherstellen können.