The 404 Media Podcast: Google Is Exposing Peoples’ ChatGPT Secrets
Investigative Tech-Podcast-Folge über versehentlich öffentliche ChatGPT-Gespräche und Wikipedias Kampf gegen KI-Slop.
The 404 Media Podcast
40 min read2781 min audioDie 404-Media-Podcast-Folge behandelt zwei Hauptthemen: Fast 100.000 ChatGPT-Gespräche seien versehentlich über Google auffindbar gewesen, da die Freigabe-Funktion öffentliche URLs erzeuge, die von Suchmaschinen indexiert würden. Betroffen seien sensible Daten wie Vertragsdetails, Gehaltsprojektionen und persönliche Beziehungsprobleme. Als zweites Thema diskutiert Emanuel Mayberg die neue "Speedy Deletion"-Richtlinie der Wikipedia-Community, mit der offensichtliches KI-generiertes Material sofort gelöscht werden könne – etwa Artikel, die LLM-Phrasen wie "as per my last knowledge update" enthielten oder nicht existierende Quellen zitierten. Die Maßnahme diene dazu, die ohnehin überlasteten ehrenamtlichen Editoren zu entlasten und signalisiere eine klare Abgrenzung zu Plattformen wie Meta oder Instagram, die KI-Inhalte unkritisch zuließen.
### Tether werde für illegale Aktivitäten genutzt
Es gebe eine ganze Industrie, die ChatGPT-Gespräche systematisch nach brisanten Inhalten durchsuche. Der OSINT-Experte Henkven S habe gezielt nach Stichworten wie "my SSN", "acquisition" oder "avoid detection" gesucht und dabei vertrauliche Finanzdaten sowie NDA-Material gefunden.
### Wikipedia setze auf schnelle Löschung von KI-Müll
Die Wikipedia-Community habe beschlossen, künftig Artikel sofort zu entfernen, wenn sie eindeutige KI-Merkmale aufwiesen – etwa Phrasen, die ein LLM an seinen Nutzer richte, oder zitierte Quellen, die ins Leere führten. Dies gelte jedoch nur für offensichtliche Fälle; bei Zweifeln bleibe die siebentägige Diskussionsfrist bestehen.
### Persönliche Daten landeten öffentlich im Netz
In den freigegebenen Chats fänden sich laut Joseph Cox nicht nur harmlose Bitte um "LinkedIn-Posts", sondern auch intime Details wie: „Why is she not looking at my stories?“ – ein Nutzer habe sich an ChatGPT über seine Ex-Freundin gewandt und erhalte Beziehungsratschläge, die nun öffentlich einsehbar seien.
### OpenAI reagiere mit Stilllegung der Share-Funktion
OpenAI habe nach Berichten von Fast Company und 404 Media die betroffenen URLs aus Google entfernt und die Option, Gespräche zu teilen, vorläufig deaktiviert. Ein Sprecher äußere sich nicht dazu, ob das gefundene NDA tatsächlich von OpenAI stamme.
### KI-generierte Fälschungen als politisches Werkzeug
Ein Interviewter habe zugegeben, ein komplett erfundenes Schloss in der Türkei auf Wikipedia veröffentlicht zu haben, um die Plattform zu diskreditieren. Solche Aktionen zeigten, dass KI nicht nur "Slop" erzeuge, sondern gezielt zur Desinformation genutzt werde.
## Einordnung
Die 404-Media-Folge präsentiert sich als investigativer Tech-Podcast mit journalistischem Anspruch: Die vier Gründer:innen – Joseph Cox, Sam Cole, Emanuel Mayberg und Jason Koebler – berichten aus eigener Recherche und liefern Quellenangaben sowie Stellungnahmen der Betroffenen. Die Diskussionskultur bleibt locker, verzichtet aber auf rechtspopulistische oder esoterische Narrative. Stattdessen wird deutlich, wie sehr selbst etablierte Plattformen wie ChatGPT oder Wikipedia mit unbeabsichtigten Datenlecks und KI-Missbrauch kämpfen. Die Perspektive der Nutzer:innen, die ihre intimsten Gedanken einem Algorithmus anvertrauen, fehlt zwar weitgehend, doch die Berichterstattung bleibt sachlich und warnt vor übereilten Freigabe-Funktionen. Die Episode liefert eine nüchterne Bestandsaufnahme ohne Panikmache – und zeigt, wie Communities wie Wikipedia pragmatische Lösungen gegen KI-Flut entwickeln können. Hörwarnung: Wer sensible Daten in KI-Tools eingibt, sollte sich der Risiken bewusst sein – und die Share-Funktion vorerst meiden.