Decoder with Nilay Patel: ChatGPT chief Nick Turley doesn't want you too attached to AI
OpenAI-Manager Nick Turley erklärt im Decoder-Podcast, warum GPT-4o zurückkam, wie OpenAI gegen problematische Nutzung vorgehen will und warum ChatGPT bald ganz neue Interfaces erhält.
Decoder with Nilay Patel
64 min read3314 min audioIn dieser Decoder-Folge spricht Alex Heath mit Nick Turley, dem Head of ChatGPT bei OpenAI, über die jüngsten Turbulenzen nach dem GPT-5-Launch. Turley gesteht, dass er überrascht war, wie stark Nutzer:innen an GPT-4o „hingen“ – bis hin zu Aussagen wie „Ich habe meinen Freund verloren“. OpenAI reagierte prompt und stellte das alte Modell wieder zur Verfügung. Turley kündigt an, künftig klare Abschalt-Fristen für Modelle zu kommunizieren, ähnlich wie bei Enterprise-APIs. Er betont, dass das Ziel nicht sei, die Nutzungszeit zu maximieren, sondern „langfristig hilfreich“ zu sein; deshalb arbeitet man mit Expert:innen an Maßnahmen gegen übermäßige Nutzung und psychische Risiken. Monetarisierung sieht Turley weiterhin primär über Subscriptions – mit 20 Mio. zahlenden Kund:innen und schnell wachsenden Business-Plänen. Werbung schließt er nicht vollständig aus, will sie aber nur „sehr durchdacht und geschmackvoll“ einführen, um die Integrität der Empfehlungen zu wahren. Commerce-Partnerprogramme („Wirecutter-Modell“) und personalisierbare Persönlichkeiten sollen weitere Einnahmequellen erschließen. Langfristig erwartet er, dass ChatGPT nicht mehr wie ein klassischer Chatbot aussehen wird, sondern dynamisch passende Interfaces – etwa Tabellen, Web-Apps oder Reiseplaner – generiert. Die Roadmap reicht nur sechs Monate voraus, da sich die Technologie zu schnell ändere.
### Nutzer:innen-Bindung an GPT-4o überrascht OpenAI
Turley räumt ein, man habe unterschätzt, „wie stark Menschen eine bestimmte Persönlichkeit“ des Modells schätzten. Auf Reddit hätten Nutzer:innen geschrieben: „Es fühlt sich an, als wäre jemand gestorben.“
### Künftig sollen Modelle nicht mehr abrupt verschwinden
Als Lehre aus dem Shitstorm plant OpenAI, für künftige Versionen klare Abschalt-Fristen zu kommunizieren – vergleichbar mit den Regeln für Entwickler-APIs und Enterprise-Kund:innen.
### OpenAI will gegen problematische Nutzung vorgehen
Ein Expert:innen-Netzwerk aus über 90 Fachleuten in 30 Ländern berät das Unternehmen zu Themen wie psychische Gesundheit. Bereits eingeführt wurden sanfte „Übernutzungs-Hinweise“; weitere Maßnahmen folgen.
### Subscriptions bleibt Haupt-Einnahmequelle – Ads nur mit Vorbehalt
Mit 20 Mio. zahlenden Kund:innen und starkem Wachstum im Business-Bereich sieht Turley das Modell als „unglaublich“ an. Für Werbung zeigt er sich offen, kündigt aber strenge Regeln an, um Empfehlungsneutralität zu wahren.
### ChatGPT soll künftig keine feste Chat-Oberfläche mehr haben
Turley erwartet, dass die KI dynamisch passende Interfaces – etwa Tabellen, Web-Apps oder Reiseplaner – generiert. Die Chat-Schnittstelle war ursprünglich nur als „Wegwerf-Prototyp“ gedacht.
## Einordnung
Der Podcast wirkt wie ein sorgfältig inszeniertes Update aus dem OpenAI-PR-Kalender: Heaths Fragen bleiben freundlich-kritisch, doch echte Gegenpositionen fehlen. Die „Überraschung“ über Nutzer:innen-Bindung wirkt konstruiert – in der Branche diskutiert man seit Monaten über „AI-Beziehungen“. Auffällig ist die selbstgewählte Machtdefinition: Turley spricht offen davon, „die Schnittstelle zum Internet“ werden zu wollen, ohne dass nach regulatorischen oder ethischen Konsequenzen gefragt wird. Die Verheißungen zu Subscriptions und „vorsichtigen“ Ads klingen wie klassisches Silicon-Valley-Storytelling: Wachstum zuerst, Fragen später. Wer also wissen will, wie OpenAI intern denkt, erhält glatte, aber kaum hinterfragte Narrative. Hörempfehlung für Tech-Interessierte, die Insider-Stimmen mögen – mit kritischer Distanz genießen.