Private Chats im Netz: Der ChatGPT-Vorfall und sichere KI-Nutzung
Data Privacy von Robin Aukschlat

Datenschutzvorfall bei ChatGPT: Tausende geteilte Chats waren kurzzeitig per Google-Suche auffindbar. Ungewollt haben zahlreiche Personen sensible Informationen wie den vollständigen Namen, E-Mail-Adressen, Telefonnummern und Kontodaten der Öffentlichkeit zugänglich gemacht. Die Situation zeigt, dass unbedachte Nutzung von KI-Tools auch erhebliche Risiken mit sich bringt, insbesondere für den Datenschutz.
Persönliche Chats von ChatGPT in den Google-Suchergebnissen
Von Nutzern geteilte ChatGPT-Konversationen tauchten kürzlich in den Google-Suchergebnissen auf. Es wurde nicht nur entdeckt, dass gezielt danach in Google gesucht werden konnte, sondern auch, dass diese Funktion bereits bekannt war. Obwohl die Funktion ursprünglich dazu gedacht war, nützliche Gespräche leichter auffindbar zu machen und diese per Link mit Freunden oder Kollegen zuteilen , führte das "kurzlebige Experiment" dazu, dass Tausende von persönlichen Chats, teilweise mit sensiblen Daten wie Namen, Lebensläufen und vertraulichen Arbeitsinhalten, von Google öffentlich einsehbar waren. Dies war besonders problematisch, da viele Nutzer nicht damit rechneten, dass ihre vermeintlich semi-privaten Chats plötzlich der Öffentlichkeit zur Verfügung stehen würden. Laut OpenAI musste hier der User zwar eine aktive Auswahl treffen, jedoch fällt es angesichts der sensiblen Daten, die in den indizierten Chats auftauchten (von persönlichen Informationen bis hin zu beruflichen Details) schwer zu glauben, dass Nutzer diese Inhalte immer bewusst und willentlich teilen wollten, geschweige denn der Öffentlichkeit anvertrauen wollten. Hier scheint eher ein Missverständnis oder eine übersehene Einstellung der Auslöser gewesen zu sein, als eine absichtliche Veröffentlichung.
OpenAIs Reaktion: Problem gelöst – aber die Lektion bleibt
OpenAI, das Unternehmen hinter ChatGPT, reagierte schnell auf die aufkommenden Datenschutzbedenken. Die Funktion wurde sofort deaktiviert. OpenAI arbeitet zudem aktiv mit Google und anderen Suchmaschinen zusammen, um bereits indexierte Inhalte zu entfernen und eine zukünftige Offenlegung zu verhindern. Das Unternehmen betonte, dass Sicherheit und Datenschutz von größter Bedeutung seien und räumte ein, dass die Funktion zu viele Möglichkeiten für versehentliches Teilen bot.
Die anhaltende Gefahr: Vorsicht ist geboten
Auch wenn dieses spezielle Problem nun weitgehendst behoben ist, bleibt die Kernbotschaft bestehen: Der sorglose Umgang mit KI-Tools kann weiterhin erhebliche Risiken bergen:
- Unbeabsichtigte Offenlegung: Wie anhand des Vorfalls zu erkennen ist, können Funktionen, die für einen höheren Komfort gedacht sind, zu einer unbeabsichtigten Offenlegung von Daten führen. Sensible Informationen, die in einen Chatbot eingegeben werden, könnten dementsprechend durch Sharing-Funktionen, unbeachtete Einstellungen oder sogar Systemfehler öffentlich werden.
- Datensicherheit und Vertraulichkeit: Unternehmen und Einzelpersonen, die KIs wie Chatbots für interne Brainstormings, Marketingtexte oder andere vertrauliche Zwecke nutzen, könnten ohne entsprechende Vorsichtsmaßnahmen wertvolles geistiges Eigentum oder schützenswerte Informationen an Wettbewerber oder die Öffentlichkeit preisgeben.
- Prompt Injection und Manipulation: Über die bloße Offenlegung hinaus können schlecht abgesicherte KI-Systeme anfällig für sogenannte "Prompt Injections" sein, bei denen böswillige Akteure die KI manipulieren, um unerwünschte Aktionen auszuführen oder Informationen preiszugeben. Hierbei könnten beispielsweise Daten von Usern preisgegeben werden, welche die KI normalerweise unter Verschluss halten würde.
- Fehlende Kontrolle über Datenfluss: Viele User sind sich nicht vollständig darüber im Klaren, wie ihre eingegebenen Daten verarbeitet, gespeichert und möglicherweise für das Training von KI-Modellen verwendet werden. Dies kann zum Verlust der Kontrolle über persönliche oder geschäftliche Informationen führen.
Bedachte KI-Nutzung ist die Lösung
Um sich vor diesen Risiken zu schützen, ist ein bewusster und informierter Umgang mit KI-Tools unerlässlich:
- Vorsicht bei der Eingabe sensibler Daten: Geben Sie niemals Informationen, die vertraulich, persönlich oder geschäftskritisch sind, in einen KI-Chatbot ein. Dies sollten Sie nur tun, wenn Sie sich absolut sicher sind, dass die Plattform über entsprechende Sicherheits- und Datenschutzvorkehrungen verfügt und Sie deren Funktionsweise vollständig verstehen. Ein Beispiel hierfür ist eine lokal gehostete KI Ihres Unternehmens.
- Einstellungen überprüfen: Machen Sie sich mit den Datenschutz- und Freigabeeinstellungen jedes KI-Tools, das Sie verwenden, vertraut. Es wird dringend empfohlen, sämtliche Optionen zu deaktivieren, die den Datenschutz und die Informationssicherheit beeinträchtigen könnten und nicht unbedingt notwendig sind. Dazu gehören insbesondere Funktionen, die eine unbeabsichtigte Veröffentlichung Ihrer Konversationen ermöglichen könnten. Privacy by Default sollte das Motto sein.
- Alte Links überprüfen und löschen: Falls Sie in der Vergangenheit ChatGPT-Chats geteilt haben, überprüfen Sie Ihr Dashboard für geteilte Links und löschen Sie alle, die sensible Informationen enthalten könnten. Bei Google können Sie zusätzlich die Entfernung veralteter Inhalte beantragen, um die De-Indexierung zu beschleunigen.
- Aufklärung im Team: Wenn Sie KI-Tools in einem geschäftlichen Umfeld nutzen, schulen Sie Ihre Teams über die potenziellen Datenschutzimplikationen und die Best Practices für eine sichere Nutzung.
- Transparenz und Vertrauen: Bevor Sie eine KI-Plattform umfassend nutzen, informieren Sie sich über deren Datenschutzrichtlinien und wie diese mit Ihren Daten umgeht.
- KI-Beauftragter: Etablieren Sie einen KI-Beauftragten in Ihrem Unternehmen, der für Ihre Benutzer als Ansprechpartner fungiert und die eingesetzten KI-Systeme bewertet. Gerne stellen wir diesen KI-Beauftragten / KI-Manager für Sie und etablieren hiermit eine solide und rechtskonforme Nutzung innerhalb Ihres Unternehmens.
Der Fall der indexierten ChatGPT-Chats ist eine wertvolle Erinnerung daran, dass digitale Bequemlichkeit oft einen hohen Preis hat. Zwar können KI-Technologien unser (Arbeits-) Leben in vielerlei Hinsicht bereichern, doch fordert ihr verantwortungsvoller Einsatz ein hohes Maß an Bewusstsein und Vorsicht. Auch wenn es so erscheinen mag, KI-Chats sind kein privater, geschützter Raum. Informieren Sie sich, seien Sie skeptisch und schützen Sie Ihre Daten – im digitalen Zeitalter ist das wichtiger denn je.