Datenschutz und KI: Worauf in der Praxis zu achten ist
Artificial intelligence (AI) systems require data – a lot of data. This has in the last years raised an increasing number of questions concerning all aspects of data protection and privacy in connection with AI: Can existing personal data be used for training AI systems and if so, under which conditions? Who is the controller, who the processor in such a setup – or can one party be both? What is the relevance of a «machine bias» in terms of data protection and is it possible to force an AI to reveal the personal data with which it has been trained? This article discusses these and other questions, provides practical answers and highlights both overestimated and underestimated privacy risks when using AI.
Inhaltsverzeichnis
- 1. Worüber wir wirklich sprechen
- 2. Her mit dem Datenfutter!
- 3. Die trickreiche gemeinsame Verantwortlichkeit
- 4. Die Sache mit der Verantwortlichkeit
- 5. Höhere Anforderungen an eine KI?
- 6. Risiken prüfen ohne Beurteilungskriterien
- 7. Die KI-Regulierung, die wir schon haben
- 8. Die Sache mit der Transparenz
- 9. Datensicherheit als unterschätzte Herausforderung
- 10. KI-Modelle als Personendaten
- 11. Datenlecks als konkretes Risiko
- 12. Fazit
Loggen Sie sich bitte ein, um den ganzen Text zu lesen.
There are no comments yet
Ihr Kommentar zu diesem Beitrag
AbonnentInnen dieser Zeitschrift können sich an der Diskussion beteiligen. Bitte loggen Sie sich ein, um Kommentare verfassen zu können.
No comments