Private Chats im Netz: Der ChatGPT-Vorfall und sichere KI-Nutzung

Data Privacy von Robin Aukschlat

DSK Orientierungshilfe zu KI-Gesetz
sumitbiswas1/shutterstock.com

Datenschutzvorfall bei ChatGPT: Tausende geteilte Chats waren kurzzeitig per Google-Suche auffindbar. Ungewollt haben zahlreiche Personen sensible Informationen wie den vollständigen Namen, E-Mail-Adressen, Telefonnummern und Kontodaten der Öffentlichkeit zugänglich gemacht. Die Situation zeigt, dass unbedachte Nutzung von KI-Tools auch erhebliche Risiken mit sich bringt, insbesondere für den Datenschutz.

Persönliche Chats von ChatGPT in den Google-Suchergebnissen

Von Nutzern geteilte ChatGPT-Konversationen tauchten kürzlich in den Google-Suchergebnissen auf. Es wurde nicht nur entdeckt, dass gezielt danach in Google gesucht werden konnte, sondern auch, dass diese Funktion bereits bekannt war. Obwohl die Funktion ursprünglich dazu gedacht war, nützliche Gespräche leichter auffindbar zu machen und diese per Link mit Freunden oder Kollegen zuteilen , führte das "kurzlebige Experiment" dazu, dass Tausende von persönlichen Chats, teilweise mit sensiblen Daten wie Namen, Lebensläufen und vertraulichen Arbeitsinhalten, von Google öffentlich einsehbar waren. Dies war besonders problematisch, da viele Nutzer nicht damit rechneten, dass ihre vermeintlich semi-privaten Chats plötzlich der Öffentlichkeit zur Verfügung stehen würden. Laut OpenAI musste hier der User zwar eine aktive Auswahl treffen, jedoch fällt es angesichts der sensiblen Daten, die in den indizierten Chats auftauchten (von persönlichen Informationen bis hin zu beruflichen Details) schwer zu glauben, dass Nutzer diese Inhalte immer bewusst und willentlich teilen wollten, geschweige denn der Öffentlichkeit anvertrauen wollten. Hier scheint eher ein Missverständnis oder eine übersehene Einstellung der Auslöser gewesen zu sein, als eine absichtliche Veröffentlichung.

OpenAIs Reaktion: Problem gelöst – aber die Lektion bleibt

OpenAI, das Unternehmen hinter ChatGPT, reagierte schnell auf die aufkommenden Datenschutzbedenken. Die Funktion wurde sofort deaktiviert. OpenAI arbeitet zudem aktiv mit Google und anderen Suchmaschinen zusammen, um bereits indexierte Inhalte zu entfernen und eine zukünftige Offenlegung zu verhindern. Das Unternehmen betonte, dass Sicherheit und Datenschutz von größter Bedeutung seien und räumte ein, dass die Funktion zu viele Möglichkeiten für versehentliches Teilen bot.

Die anhaltende Gefahr: Vorsicht ist geboten

Auch wenn dieses spezielle Problem nun weitgehendst behoben ist, bleibt die Kernbotschaft bestehen: Der sorglose Umgang mit KI-Tools kann weiterhin erhebliche Risiken bergen:

  • Unbeabsichtigte Offenlegung: Wie anhand des Vorfalls zu erkennen ist, können Funktionen, die für einen höheren Komfort gedacht sind, zu einer unbeabsichtigten Offenlegung von Daten führen. Sensible Informationen, die in einen Chatbot eingegeben werden, könnten dementsprechend durch Sharing-Funktionen, unbeachtete Einstellungen oder sogar Systemfehler öffentlich werden.
  • Datensicherheit und Vertraulichkeit: Unternehmen und Einzelpersonen, die KIs wie Chatbots für interne Brainstormings, Marketingtexte oder andere vertrauliche Zwecke nutzen, könnten ohne entsprechende Vorsichtsmaßnahmen wertvolles geistiges Eigentum oder schützenswerte Informationen an Wettbewerber oder die Öffentlichkeit preisgeben.
  • Prompt Injection und Manipulation: Über die bloße Offenlegung hinaus können schlecht abgesicherte KI-Systeme anfällig für sogenannte "Prompt Injections" sein, bei denen böswillige Akteure die KI manipulieren, um unerwünschte Aktionen auszuführen oder Informationen preiszugeben. Hierbei könnten beispielsweise Daten von Usern preisgegeben werden, welche die KI normalerweise unter Verschluss halten würde.
  • Fehlende Kontrolle über Datenfluss: Viele User sind sich nicht vollständig darüber im Klaren, wie ihre eingegebenen Daten verarbeitet, gespeichert und möglicherweise für das Training von KI-Modellen verwendet werden. Dies kann zum Verlust der Kontrolle über persönliche oder geschäftliche Informationen führen.

Bedachte KI-Nutzung ist die Lösung

Um sich vor diesen Risiken zu schützen, ist ein bewusster und informierter Umgang mit KI-Tools unerlässlich:

  • Vorsicht bei der Eingabe sensibler Daten: Geben Sie niemals Informationen, die vertraulich, persönlich oder geschäftskritisch sind, in einen KI-Chatbot ein. Dies sollten Sie nur tun, wenn Sie sich absolut sicher sind, dass die Plattform über entsprechende Sicherheits- und Datenschutzvorkehrungen verfügt und Sie deren Funktionsweise vollständig verstehen. Ein Beispiel hierfür ist eine lokal gehostete KI Ihres Unternehmens.
  • Einstellungen überprüfen: Machen Sie sich mit den Datenschutz- und Freigabeeinstellungen jedes KI-Tools, das Sie verwenden, vertraut. Es wird dringend empfohlen, sämtliche Optionen zu deaktivieren, die den Datenschutz und die Informationssicherheit beeinträchtigen könnten und nicht unbedingt notwendig sind. Dazu gehören insbesondere Funktionen, die eine unbeabsichtigte Veröffentlichung Ihrer Konversationen ermöglichen könnten. Privacy by Default sollte das Motto sein.
  • Alte Links überprüfen und löschen: Falls Sie in der Vergangenheit ChatGPT-Chats geteilt haben, überprüfen Sie Ihr Dashboard für geteilte Links und löschen Sie alle, die sensible Informationen enthalten könnten. Bei Google können Sie zusätzlich die Entfernung veralteter Inhalte beantragen, um die De-Indexierung zu beschleunigen.
  • Aufklärung im Team: Wenn Sie KI-Tools in einem geschäftlichen Umfeld nutzen, schulen Sie Ihre Teams über die potenziellen Datenschutzimplikationen und die Best Practices für eine sichere Nutzung.
  • Transparenz und Vertrauen: Bevor Sie eine KI-Plattform umfassend nutzen, informieren Sie sich über deren Datenschutzrichtlinien und wie diese mit Ihren Daten umgeht.
  • KI-Beauftragter: Etablieren Sie einen KI-Beauftragten in Ihrem Unternehmen, der für Ihre Benutzer als Ansprechpartner fungiert und die eingesetzten KI-Systeme bewertet. Gerne stellen wir diesen KI-Beauftragten / KI-Manager für Sie und etablieren hiermit eine solide und rechtskonforme Nutzung innerhalb Ihres Unternehmens.

Der Fall der indexierten ChatGPT-Chats ist eine wertvolle Erinnerung daran, dass digitale Bequemlichkeit oft einen hohen Preis hat. Zwar können KI-Technologien unser (Arbeits-) Leben in vielerlei Hinsicht bereichern, doch fordert ihr verantwortungsvoller Einsatz ein hohes Maß an Bewusstsein und Vorsicht. Auch wenn es so erscheinen mag, KI-Chats sind kein privater, geschützter Raum. Informieren Sie sich, seien Sie skeptisch und schützen Sie Ihre Daten – im digitalen Zeitalter ist das wichtiger denn je.

Kontaktieren Sie uns

Sie sind Ihrer digitalen Souveränität bereits einen großen Schritt näher gekommen.

Wir freuen uns über Ihr Interesse und auf Ihre Fragen.

Unsere Kontaktdaten: +49 711 / 489083 - 0

Was ist die Summe aus 5 und 7?
Diese Anfrage ist für Sie unverbindlich und keine Zahlungsmittel sind notwendig.
eteslogo4

Autoren

Markus Espenhain

Unser Geschäfts­führer und Gründer ist für die Strategie und den Kontakt zu Kunden & Partnern verantwortlich. Im Blog stellt er Ihnen neue Partnerschaften und Unternehmens-News vor.

Markus Espenhain

Ioannis Dimas

Datenschutz und Informationssicherheit sind seine Herzensangelegenheit. Er berät Unternehmen zu diesen Themen und kann viel dazu berichten.

Ioannis Dimas

Chantal Nußbaum

In den Bereichen Datenschutz und Informationssicherheit liegt ihr Schwerpunkt. Durch Fortbildungen ist sie immer auf dem neusten Stand der Gesetze.

Chantal Nußbaum

Simon Jung

Planung, Realisierung, Wartung und Support sämtlicher Systeme Ihrer individuellen IT-Infrastruktur ist das Fachgebiet seines Teams.

Simon Jung

Christian Gleich

Sein Schwerpunkt liegt in dem Kontakt zu Kunden. Durch seine tägliche Arbeit mit unserem gesamten Produktportfolio landen Neuigkeiten immer zuerst bei ihm.

Christian Gleich