Der KI-Podcast: Wie sicher sind meine KI-Chats?
Der ARD-Podcast erklärt, warum ChatGPT-Chats weniger privat sind als gedacht und persönliche Daten aus KI-Training doch rekonstruierbar bleiben.
Der KI-Podcast
44 min read2321 min audioMarie Kilg und Fritz Espenlaub vom ARD-Podcast "Der KI-Podcast" diskutieren die komplexen Datenschutzfragen im KI-Zeitalter. Der Anlass seien die kontroversen Änderungen von Meta, das seit kurzem Instagram- und Facebook-Posts standardmäßig für KI-Training verwende, falls Nutzer:innen nicht widersprechen. Die Diskussion umfasst auch andere Beispiele wie Microsofts Screenshot-Funktion auf neuen Laptops und die Verwendung von Chat-Verläufen durch KI-Anbieter.
### Trainingsdaten seien möglicherweise doch rückverfolgbar
Eine zentrale Erkenntnis betrifft die Widerlegung der "Tomatensaft-im-Atlantik"-Metapher. Während Espenlaub zunächst argumentiert, persönliche Daten würden nach dem Training in der enormen Datenmenge untergehen, präsentiert Kilg neue Forschungsergebnisse: "Es ist nicht ausgeschlossen, dass trotzdem dann nochmal jemand eine Zeit später hingeht und sagt, okay, jetzt gib mir aber die Sachen, die Kreditkartennummern von Fritz Espenlaub." Die mathematische Rekonstruktion einzelner Trainingsdaten sei prinzipiell möglich.
### Chats seien nicht wirklich privat
Die Hosts erläutern, dass Chat-Verläufe mit KI-Systemen umfangreich gespeichert würden. Kilg erklärt: "Die Firmen sagen nicht ganz genau, was sie damit machen, aber wie ich das lese, was man da rausziehen kann, die speichern auf jeden Fall alle deine Chats eins zu eins und sie speichern dazu auch deine ganzen Metadaten." Selbst das "Löschen" von Chats bringe aktuell nichts, da ein US-Gericht OpenAI verpflichtet habe, alle Chats für ein laufendes Verfahren aufzubewahren.
### KI ermögliche präzise Persönlichkeitsanalysen
Eine ETH-Zürich-Studie habe gezeigt, dass Sprachmodelle aus anonymen Reddit-Posts mit bis zu 95%iger Genauigkeit persönliche Attribute wie Wohnort, Einkommen und Geschlecht ableiten könnten. Diese Fähigkeit erweitere die Möglichkeiten zur Überwachung erheblich und mache selbst scheinbar anonyme Online-Aktivitäten identifizierbar.
### Datenlöschung funktioniere oft nicht
Bei OpenAI dauere es bis zu 30 Tage, bis gelöschte Chats tatsächlich von den Servern entfernt würden. Zudem hätten US-Gerichte angeordnet, dass OpenAI alle Chats, auch temporäre, für laufende Rechtsstreitigkeiten aufbewahren müsse. Das "Löschen" biete daher aktuell keine echte Sicherheit.
### Serverstandorte bestimmten Datenschutzniveau
Die geografische Lage der Server entscheide über die geltenden Datenschutzgesetze. Während europäische Server unter die DSGVO fallen, unterlägen US-Server amerikanischen Gesetzen. Am Beispiel DeepSeek zeigen die Hosts, dass chinesische Server besondere Datenschutzbedenken aufwerfen, weshalb Berlin das Modell aus deutschen App-Stores verbannen wolle.
## Einordnung
Die Folge behandelt ein hochrelevantes Thema mit journalistischer Sorgfalt und bietet eine ausgewogene Analyse der Datenschutzproblematik im KI-Zeitalter. Besonders wertvoll ist die Aufklärung gängiger Missverständnisse: Die weitverbreitete Annahme, persönliche Daten würden in der Masse der Trainingsdaten "untergehen", wird durch aktuelle Forschung widerlegt. Die Hosts kombinieren technische Expertise mit verständlichen Metaphern und liefern konkrete Handlungsempfehlungen.
Stilistisch überzeugt die Folge durch ihren sachlichen, aber zugänglichen Ton. Die Diskussion bleibt wissenschaftlich fundiert, ohne belehrend zu wirken. Kritikwürdig ist allerdings die teilweise unkritische Haltung gegenüber Datensammlung: Die Argumentation, dass Datennutzung für bessere KI-Produkte "gut" sei, blendet strukturelle Machtfragen aus. Die Hosts reproduzieren hier teilweise den Silicon-Valley-Diskurs, der Privacy-Bedenken als notwendigen "Trade-off" für Innovation darstellt.
Die Analyse bleibt außerdem weitgehend auf individuelle Verhaltensänderungen fokussiert, während systemische Machtstrukturen und die oligopolistische Marktposition der Tech-Konzerne unterbelichtet bleiben. Die Frage, ob Bürger:innen überhaupt eine echte Wahl haben, wird nicht ausreichend problematisiert.
Dennoch bietet die Folge wichtige Aufklärung über konkrete Risiken und praktische Schutzmaßnahmen. Hörer:innen erhalten fundierte Informationen, um informierte Entscheidungen über ihre Datennutzung zu treffen.