KI: Privacy Impact Assessment als Mittel zur Risikominimierung?
Künstliche Intelligenz (KI) setzt Datenschutz voraus – ein Plädoyer für die effiziente Nutzung der Datenschutzfolgeabschätzung bei der Entwicklung von künstlicher Intelligenz. Der folgende Beitrag befasst sich mit verschiedenen Aspekten künstlicher Intelligenz: Nach einer Einleitung zu Kritik, Mythen und öffentlicher Meinung zu KI-Projekten (I), werden sodann einige gravierende datenbasierte Risiken für Unternehmen und Betroffene erläutert (II). Schließlich wird dargelegt, wie Datenschutz als Best Practice letztlich der Risikominimierung dient und worin die Chancen der europäischen Gesetzgebung für Unternehmen und Betroffene liegen (III).
Inhaltsverzeichnis
- I. Öffentliche Kritik, Mythen und Meinungsmache zu Big-Data-Analysen?
- II. Muss eine neue Risikobewertung bei KI vorgenommen werden?
- III. Typische Big-Data-Risiken
- 1. Risiko: Aufhebung der Pseudonymisierung oder gar der Anonymisierung
- 2. Risiko: nicht gesicherte Entscheidungsgrundlage
- 3. Risiko: Vertrauensverlust
- 4. Risiko: fehlende Datenqualität
- IV. Datenschutz als Mittel der Risikominimierung
- 1. Privacy Impact Assessment, Art. 35 DSGVO
- 2. Leitlinien Privacy Impact Assessment der Art. 29-Gruppe
- a. Vorbereitungsphase
- b. Bewertungsphase
- c. Umsetzungsphase
- V. Fazit
Loggen Sie sich bitte ein, um den ganzen Text zu lesen.
Es gibt noch keine Kommentare
Ihr Kommentar zu diesem Beitrag
AbonnentInnen dieser Zeitschrift können sich an der Diskussion beteiligen. Bitte loggen Sie sich ein, um Kommentare verfassen zu können.
0 Kommentare