Metanormen – Voraussetzungen für den Einsatz von Künstlicher Intelligenz im Recht
Das Rechtssystem besteht aus Regeln, über deren Einsatz, Anwendung und Abänderung es selbst bestimmt. Der unreflektierte Einsatz von künstlicher Intelligenz als «Black» bzw. «Gray Box» droht, die Autonomie und damit die Grundlagen des Rechts zu untergraben. Es werden Regeln und technische Standards vorgestellt, die die benötigte Qualitätssicherung und damit die Autonomie des Rechts sicherstellen können.
Inhaltsverzeichnis
- 1. Einleitung
- 2. Rechtliche Einsatzbedingungen für den Einsatz von KI-Anwendungen im Recht
- 3. Ethische Einsatzbedingungen für den Einsatz von KI-Anwendungen im Recht
- 3.1. Informationsethische Einsatzkriterien
- 3.2. Gutachten der Datenethikkommission des dt. BMJ
- 4. Rahmenbedingungen für den Einsatz von KI-Anwendungen im Recht
- 4.1. Scope (Anwendungsbereich)
- 4.2. Safety Kernel (Begrenzung des Gefahrenpotentials)
- 4.3. Data (Inhalt, Quelle und Umfang der Trainingsdaten)
- 4.4. Model (Aufbereitung der Daten, Grenzen des Modells)
- 4.5. Transparency (Nachvollziehbare Begründung)
- 4.6. Integration (Organisatorische Einbindung des Systems)
- 4.7. Don’t trust Updates (Updates sind wie Neuentwicklungen zu testen)
- 5. Standardisierungsmöglichkeiten
- 5.1. Nutzbare Standards
- 5.1.1. IEC 82079-1-2019 Nutzungsinformation für Produkte und Systeme
- 5.1.2. ISO/IEC 27005 Risikomanagement
- 5.1.3. ISO/IEC 27001 Informationssicherheits-Managementsystem
- 5.1.4. ISO 9241 Ergonomics of Human System Interaction
- 5.2. Standardisierungsmethodik
- 5.2.1. Getrennte Bewertung der KI-Anwendung und des geplanten Einsatzzwecks
- 5.2.2. Semiquantifizierte Kriterien
- 6. Zusammenfassung
- 7. Literatur
Loggen Sie sich bitte ein, um den ganzen Text zu lesen.
Es gibt noch keine Kommentare
Ihr Kommentar zu diesem Beitrag
AbonnentInnen dieser Zeitschrift können sich an der Diskussion beteiligen. Bitte loggen Sie sich ein, um Kommentare verfassen zu können.
0 Kommentare