Wie auch immer man zu ChatGPT steht, es gibt keinen Zweifel daran, dass der Chatbot hier ist, um zu bleiben. Die Frage, die wir uns stellen müssen, hat sich bereits von “Was kann man mit ChatGPT machen” zu “Was sollte man mit ChatGPT machen” gewandelt. So weit sind wir schon

Die meisten Menschen haben so gut wie keine Vorstellung von den möglichen Gefahren, die mit der Nutzung von Chatbots wie ChatGPT einhergehen, und den möglichen Datenschutzverletzungen, denen die Nutzer ausgesetzt sind. Um ehrlich zu sein, könnte ChatGPT früher oder später zu einem Sicherheitsalbtraum werden.

Grafik: BlueWillow

Zum Beispiel gab es bei ChatGPT Anfang des Jahres einen Fehler, der es sowohl zahlenden Abonnenten als auch kostenlosen Benutzern unmöglich machte, sich anzumelden oder den Bot zu benutzen. Kurz darauf veröffentlichte OpenAI einen Artikel, in dem man erklärte, dass ein weiterer Fehler dazu geführt hatte, dass Benutzer die Chat-Titel in der Historie anderer Benutzer sehen konnten.

Obwohl dieses Problem schnell behoben wurde, gab OpenAI auch zu, dass derselbe Fehler “möglicherweise zur unbeabsichtigten Sichtbarkeit von zahlungsbezogenen Informationen von 1,2% der aktiven ChatGPT Plus-Abonnenten während eines bestimmten Zeitraums von neun Stunden” geführt haben könnte. Die unglaublichen Fähigkeiten von ChatGPT werfen nun die grundsätzliche Frage auf: Teilen wir zu viel mit der KI?

Der beste Tipp hierzu lautet: Man sollte ChatGPT genauso nutzen wie Facebook oder Twitter. Wenn man nicht möchte, dass die Öffentlichkeit liest, was man (in ChatGPT) sagt oder eingibt, sollte man diese Informationen nicht (mit dem Bot) teilen – oder mit jedem anderen Chatbot, um genau zu sein.

Der freundliche und hilfreiche Charakter von Chatbots wie Google Bard und Bing AI mag verführerisch sein, aber man sollte sich nicht täuschen lassen. Wenn man sich zum Beispiel nicht explizit abmeldet, werden alle Ihre Informationen für das Training des Chatbots verwendet – oder können sogar von OpenAI-Mitarbeitern eingesehen. So ist der Stand aktuel.