Ins Gefängnis wegen ChatGPT?
Neben der Unzuverlässigkeit hat generative künstliche Intelligenz jedoch ein weiteres Problem, das im datenschutzaffinen Deutschland noch schwerer wiegt. Und dieses Problem hängt eng damit zusammen, wie generative KI trainiert wird. Wie bereits geschrieben, wird jeder abgesetzte Prompt von der künstlichen Intelligenz für das eigene Training verwendet. Aus technischer Sicht ist das sinnvoll, da so das zugrunde liegende Deep Learning System (s. Kasten „Arten von künstlicher Intelligenz“) sich selbst kontinuierlich verbessern kann. Über die Zeit werden die Ergebnisse immer besser und brauchbarer.
Harmlos ist das, solange man beispielsweise, ganz generell, nach der Wechselwirkung zweier Arzneimittel fragt. Dabei werden zwar auch schon personenbezogene Daten übertragen, wie die IP-Adresse des Computers, der den Prompt schickt. Wobei man hier sogar noch von dem stillschweigenden Einverständnis des Users ausgehen kann, der den Prompt geschrieben hat.
Kritischer wird es, wenn der Prompt darüber hinaus weitere personenbezogene Daten enthält. So könnte man zum Beispiel von der generativen künstlichen Intelligenz wissen wollen, was ein 49 Jahre alter Mann tun kann, der unter Atemnot leidet, obwohl er sein Asthmaspray wie verordnet einnimmt. Mit diesen Angaben ist man schon mittendrin im Anwendungsbereich des Datenschutzrechts. Auch wenn hier noch keine konkrete natürliche Person identifiziert wurde, so ist sie doch identifizierbarer geworden: Alter, Geschlecht, Krankheitsbild mit sich verschlechternden Symptomen und eine regionale Eingrenzung über die IP-Adresse des Computers. All das engt den Kreis der möglicherweise gemeinten Personen ein.
0 Kommentare
Das Kommentieren ist aktuell nicht möglich.