OpenAI: Neue Datenschutz-Beschwerde wegen KI-Halluzinationen

🧨 NYOB hat eine neue Beschwerde gegen OpenAI wegen KI-Halluzinationen eingereicht.

Die vom Österreicher Max Schrems initiierte Datenschutzorganisation NOYB (noyb.eu) hat am 20. März 2025 eine neue Datenschutzbeschwerde gegen OpenAI bei der norwegischen Datenschutzbehörde „Datatilsynet“ eingereicht. In der Beschwerde geht es um einen besonders schweren Fall von KI-Halluzinationen: ChatGPT hatte einen norwegischen Nutzer fälschlicherweise als verurteilten Kindermörder dargestellt.

Einem Bericht von NOYB zufolge hat ChatGPT eine beunruhigende und völlig falsche Geschichte über einen norwegischen Nutzer erfunden. Auf die Frage nach der Person behauptete ChatGPT, diese sei in den 1990er Jahren wegen Mordes an einem Kind verurteilt worden – eine völlige frei erfundene Tatsache, die nichts mit der Wirklichkeit zu tun hat.

Diese – bereits von AI Modellen bekannte – technische Panne (sog. Halluzination) kann zu einer ernsthaften Bedrohung des Rufs von Einzelpersonen (oder Unternehmen) führen. Als die betroffene Person die Löschung dieser falschen Informationen gemäß der Datenschutz-Grundverordnung beantragte (Datengenauigkeit ist ein wichtiger Grundsatz gemäß Artikel 5 Absatz 1 Buchstabe d der Datenschutz-Grundverordnung), wurde der Antrag seitens OpenAI abgelehnt. Angeblich mit der Begründung, dass die ausgegebene Antwort oder die Daten nicht wie andere Daten in bekannten IT Systemen „gespeichert“ werden. Dies veranlasste NOYB, eine formelle Beschwerde bei der norwegischen Datenschutzbehörde einzureichen, mit dem Argument, dass solche Halluzinationen sehr wohl eine Verarbeitung personenbezogener Daten darstellen und den Rechten und dem Schutz der DSGVO unterliegen.

Dieser Fall zeigt erneut ein grundlegendes Spannungsverhältnis zwischen der Funktionsweise von KI-Modellen und den bestehenden Datenschutzregelungen auf. Nach der Datenschutz-Grundverordnung haben Personen das Recht, die Löschung „falscher“ personenbezogener Daten zu verlangen. KI-Unternehmen oder -Anbieter könnten sich jedoch auf den Standpunkt stellen, dass sie dem nicht nachkommen können, weil „halluzinierte“ Ausgabedaten nicht „gespeichert“ werden. Daher könne sie als Ergebnis von Benutzereingaben auch nicht im herkömmlichen Sinne bearbeitet oder gelöscht werden .

Konflikt: KI-generierte Ausgabedaten, die reale Personen betreffen, vs. Datenschutzgrundsätze und -rechte (wie das Recht auf Löschung falscher personenbezogener Daten).

Bei der Integration von KI in unser tägliches Leben und im beruflichen Umfeld, müssen wir uns mit folgenden Fragen beschäftigen:

  1. Wie schützen wir Personen vor KI-generierten Unwahrheiten und ermöglichen ihre Rechte umzusetzen?
  2. Welche Verantwortung treffen KI-Unternehmen, wenn ihre Systeme „schädliche“ Fehlinformationen erzeugen?
  3. Welche Überprüfungs-/Richtigstellungsprozesse sollten implementiert werden, bevor auf KI-generierte Informationen reagiert wird?
  4. Wie kann der KI-Anbieter bzw. -Anwender die ausgegebenen Daten „kontrollieren“ und dem Einzelnen die Ausübung seines Rechts auf Löschung/Korrektur ermöglichen?

Für diejenigen, die mit KI-Systemen arbeiten oder diese implementieren, ist dieser Fall eine eindringliche Erinnerung daran, dass angemessene Leitplanken, menschliche Aufsicht sowie technische und organisatorische Prozesse berücksichtigt und implementiert werden sollten.

#KI #Ethik #KIHalluzinationen #TechEthik #DSGVO # GDPR #AI #VerantwortungsvolleKI #OpenAI #Datenrichtigkeit #Datenschutz #DigitaleVerantwortung

en_GBEN