Better Offline: CZM Rewind: The Academics That Think ChatGPT Is BS
Akademiker:innen entlarven ChatGPT als philosophischen "Bullshit-Maschine" – eine unterhaltsame Kritik an KI-Marketing und technologischem Nihilismus.
Better Offline
70 min read3443 min audioDie Rerun-Folge "Chat GPT is Bullshit" bringt Ed Zitron mit den drei Autoren des gleichnamigen Papers zusammen: Michael Townsen Hicks (Philosophie der Wissenschaft, University of Glasgow), James Humphreys (Politische Theorie) und Joe Slater (Moral- und Politische Philosophie). Im Gespräch entwickeln sie die These, dass große Sprachmodelle wie ChatGPT nicht lügen oder halluzinieren, sondern im philosophischen Sinne "bullshitten": Sie produzieren Text, ohne sich um die Wahrheit ihrer Aussagen zu scheren.
### 1 ChatGPT sei ein "Soft Bullshitter" ohne Weltbezug
Die Autoren unterscheiden zwischen "hard bullshit" (bewusstes Irreführen über die eigene Expertise) und "soft bullshit" (Gleichgültigkeit gegenüber der Wahrheit). Da ChatGPT keine Intentionen habe, falle es in die zweite Kategorie: "It doesn't care whether what it's saying is true." Das System erzeuge lediglich statistisch wahrscheinliche Wortfolgen, ohne die Welt zu repräsentieren.
### 2 Die Kritik am "Halluzinations"-Frame
Der Begriff "hallucination" werfe falsch vor, ChatGPT habe eine grundsätzlich funktionierende Wahrnehmung, die nur gelegentlich streue. Tatsächlich fehle jeglicher Weltbezug: "It's bullshitting the whole time." Die Metapher diene Marketing-Interessen, da sie suggeriere, das System sei grundsätzlich zuverlässig.
### 3 ChatGPT als studentisches B-Minus-Produkt
Die Philosophen berichten aus ihrer Lehre: Texte, die mit ChatGPT erstellt würden, erkennt man an "uncanny valley"-Merkmalen – fehlerfreier Rechtschreibung bei gleichzeitig schlechter Argumentation und Formatierung. Die Systeme seien "very bad at extended argument or proof" und produzierten inhaltsleere Listenstrukturen.
### 4 Die Fehlkonstruktion des Turing-Tests
Die Popularisierung des Turing-Tests als Bewusstseinsnachweis kritisierten die Gäste als Missverständnis: Der Test sei nur ein Evidenz-Indikator, nicht konstitutiv für Bewusstsein. Die Tech-Industrie nutze diese Verwechslung strategisch, um Investitionen zu sichern: "They've made a machine that's just designed to do one thing, and that's pass the Turing test."
### 5 Die KI als Symptom technologischer Nihilismus
Das Gespräch endet mit der Einschätzung, generative KI sei "deeply nihilistic" – sie imitiere Intelligenz ohne Verständnis. Die "move fast and break things"-Mentalität habe offensichtliche negative Konsequenzen wie akademisches Betrügen nicht bedacht.
## Einordnung
Die Episode demonstriert bemerkenswert, wie akademische Präzision mit unterhaltsamer Gesprächsdynamik verschmilzt. Die drei Philosophen entwickeln ihre komplexe Argumentation ohne Fachchinesisch, während Moderator Ed Zitron souverän mitspielt und kritische Nachfragen stellt. Besonders stark: Die konsequente Ablehnung technologischer Hype-Begriffe zugunsten klarer philosophischer Konzepte. Die Diskussion offenbart aber auch eine gewisse Homogenität – alle Beteiligten teilen die grundlegende Skepsis gegenüber KI-Behauptungen. Die Perspektive der Tech-Industrie oder pro-KI-Akteure fehlt zwar bewusst, wird aber auch nicht als relevante Lücke thematisiert. Die Folge liefert eine erfrischend scharfsinnige Kritik an KI-Marketing-Sprache, ohne in Verschwörungsdenken abzudriften – ein gelungenes Beispiel für kritische Wissenschaftskommunikation.
Hörempfehlung: Ein kluges, unterhaltsames Gespräch für alle, die sich für KI-Kritik jenseits von Hype und Panik interessieren.