OpenAI-Datenschutzpanne: "Discoverable"-Feature exponierte private ChatGPT-Gespräche

blog main image
August 6, 2025
06.08.2025
3 Minuten Lesezeit

Eine missverständliche Opt-in-Funktion machte vertrauliche KI-Dialoge über Google auffindbar – Rückzug nach Sicherheitsbedenken.

Unbeabsichtigte Datenleckage durch UX-Design

OpenAI deaktivierte vor Kurzem eine experimentelle Funktion, die es ChatGPT-Nutzern ermöglichte, Gespräche für Suchmaschinen zugänglich zu machen. Die "Make this chat discoverable"-Option führte zu ungewollter Publikation privater Dialoge, da Nutzer die Checkbox fälschlicherweise als Voraussetzung für das Link-Sharing interpretierten.

Brisante Inhalte öffentlich indexiert

Die Fehlkonfiguration exponierte sensible Gesprächsinhalte über Google-Suchen, darunter auch Dialoge zu Mordthemen, sexuellen Präferenzen und anderen vertraulichen Sachverhalten. Die systematische Durchsuchbarkeit ermöglichte gezielte Recherchen nach Personen oder spezifischen Themenfeldern.

CISO kommuniziert Funktionsrückzug

OpenAI-CISO Dane Stuckey bestätigte via X die Deaktivierung der umstrittenen Funktion. Das ursprünglich als "kurzlebiges Experiment" konzipierte Feature sollte nutzbringende Konversationen auffindbar machen, generierte jedoch "zu viele Gelegenheiten für versehentliches Teilen".

GEO-Optimierung als Nebeneffekt

Kommentatoren identifizierten die Funktion als Enabler für Generative Engine Optimization (GEO) – das KI-Pendant zur klassischen Suchmaschinenoptimierung. Diese unbeabsichtigte Anwendung verdeutlicht die strategische Relevanz KI-generierter Inhalte für digitale Sichtbarkeit.

Unklare Bereinigungsstrategie

Stuckey betonte "Sicherheit und Datenschutz" als Prioritäten, ließ jedoch offen, ob bereits indexierte Inhalte aktiv aus Suchmaschinen entfernt werden. Die Verantwortung für exponierte Gespräche liegt formal bei den Nutzern, die das Opt-in aktiviert hatten.

Systematische Privacy-by-Design-Defizite

Der Vorfall illustriert fundamentale UX-Design-Schwächen bei datenschutzkritischen Funktionen. Die intuitive Fehlinterpretation der Discoverable-Option offenbart unzureichende Privacy-by-Design-Implementierung bei KI-Plattformen. Die Episode unterstreicht die Notwendigkeit expliziter Datenschutz-Governance bei experimentellen KI-Features.