Wissenschaft

Unkorrigierbare Fehler: Österreichische Datenschützer knöpfen sich ChatGPT vor

img
ChatGPT Logo Bild: AFP

Datenschützer in Österreich haben eine Beschwerde gegen den ChatGPT-Entwickler Open AI eingereicht, da das KI-Programm 'falsche Informationen über Personen' erfinde. 'ChatGPT halluziniert und nicht mal OpenAI kann es stoppen'.

Datenschützer in Österreich haben eine Beschwerde gegen den ChatGPT-Entwickler OpenAI eingereicht, da das KI-Programm "falsche Informationen über Personen" erfinde und selbst die Entwicklerfirma dies nicht korrigieren könne. "ChatGPT halluziniert und nicht mal OpenAI kann es stoppen", kritisierte die in Wien ansässige Datenschutzorganisation NOYB (None of your business - deutsch: Geht Sie nichts an) am Montag. NOYB zufolge ist sich das Unternehmen aus den USA des Problems bewusst. 

"Das Unternehmen gibt offen zu, falsche Informationen auf ChatGPT nicht korrigieren zu können", erklärte NOYB. "Das Unternehmen weiß nicht einmal, woher die Daten stammen oder welche Daten ChatGPT über einzelne Personen speichert."

Dies sei inakzeptabel, da es die europäische Datenschutz-Grundverordnung (DSGVO) verletzte. "Das Erfinden falscher Informationen ist schon für sich genommen höchst problematisch", erklärte Maartje de Graaf, Datenschutzjuristin bei NOYB. Wenn ein System keine genauen und transparenten Ergebnisse liefern könne, dürfe es "nicht zur Erstellung von Personendaten verwendet werden", forderte sie. "Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt."

Die DSGVO schreibt vor, dass persönliche Daten "sachlich richtig" sein müssen; in der Datenschutz-Grundverordnung ist dies in Artikel 5 verankert. Laut Artikel 16 der DSGVO gibt es außerdem ein Recht auf die Berichtigung falscher personenbezogener Daten - und die Möglichkeit, gegebenenfalls eine Löschung zu verlangen. 

Im konkreten Fall der Beschwerde gegen OpenAI geht es laut NOYB um eine von der Organisation nicht näher bezeichnete "Person des öffentlichen Lebens". Bei dieser habe ChatGPT auf die Frage nach dem Geburtstag "wiederholt mit falschen Informationen" geantwortet, anstatt mitzuteilen, dass die dafür notwendigen Daten fehlten.

Dennoch habe OpenAI den Antrag des Beschwerdeführers auf Berichtigung oder Löschung abgelehnt, da eine Korrektur der Daten nicht möglich sei, erklärte NOYB. Der ChatGPT-Entwickler erklärte demnach, es sei zwar möglich, Daten bei bestimmten Anfragen zu blockieren - etwa den Namen des Beschwerdeführers. Dies funktioniere jedoch nicht, ohne alle Informationen über den Beschwerdeführer zu filtern.

OpenAI habe es außerdem versäumt, angemessen auf das Auskunftsersuchen des Beschwerdeführers zu reagieren, kritisierte NOYB weiter. Mit der eingereichten Beschwerde werde nun die österreichische Datenschutzbehörde (DSB) zu einer Untersuchung der Datenverarbeitungspraktiken von OpenAI aufgefordert - und "zur Verhängung eines Bußgeldes", um die zukünftige Einhaltung der Vorschriften sicherzustellen. Es sei davon auszugehen, dass dieser Fall im Rahmen der EU-Zusammenarbeit behandelt werde, erklärte die Organisation.

NOYB wurde vom österreichischen Datenschutzaktivisten Max Schrems mitgegründet, der sich bereits seit Jahren für mehr Datenschutz einsetzt. 2011 reichte er mit der Studentengruppe Europe-versus-Facebook Beschwerden gegen das Online-Netzwerk ein und verlangte die Herausgabe aller über ihn gespeicherten Informationen. 2015 klagte Schrems gegen das damalige Datenschutzabkommen zwischen der EU und den USA zur Weitergabe persönlicher Daten an US-Digitalkonzerne. 

ChatGPT von OpenAI sorgt seit November 2022 für Furore: Das Programm ist in der Lage, mithilfe von Künstlicher Intelligenz (KI) in Sekundenschnelle aus kurzen Eingabeaufforderungen komplexe Texte unterschiedlichster Gattung zu generieren, wobei der Chatbot die wahrscheinlichsten Wörter vorhersagt, die als Antwort auf die jeweilige Frage vorkommen könnten.

ChatGPT machte die Möglichkeiten der sogenannten generativen KI damit schlagartig einem großen Publikum bewusst. Zugleich wuchsen aber die Befürchtungen mit Blick auf mögliche Gefahren der Technologie. Italien blockierte die Anwendung im März 2023 vorübergehend, während die französische Regulierungsbehörde nach einer Reihe von Beschwerden eine Untersuchung einleitete.

STARTSEITE