Der KI-Podcast: Wann macht KI Fehler – und wann wir?
Die ARD-Folge erklärt strukturiert, warum KI halluziniert, wie Reasoning-Modelle helfen und warum richtiges Prompting entscheidend ist – mit Selbstversuch und politischem Spaßtest.
Der KI-Podcast
52 min read2825 min audioDer ARD-Podcast „KI – Die Stunde Null“ widmet sich in der aktuellen Folge den Fehlern von KI-Modellen, sogenannten Halluzinationen. Die Moderator:innen Fritz Espenlaub und Gregor Schmalzried erklären zunächst vier Fehlerkategorien: klassische Halluzinationen bei fehlenden Daten, veraltete oder falsch zugeordnete Informationen, Fehler beim Nachschlagen im Internet und falsche Ausgangsdaten. Sie zeigen, dass Fehler zwar seltener geworden sind, aber weiterhin systemisch auftreten – etwa wenn KI-Modelle sich selbst falsch einschätzen oder Online-Quellen falsch interpretieren. Als Gegenmaßnahmen empfehlen sie moderne „Reasoning-Modelle“ (z. B. GPT-5 Thinking), gezieltes Prompt-Engineering, das Nutzen mehrerer Modelle und ein gesundes Maß an Skepsis. Eine witzige Selbststudie zeigt zudem, dass unterschiedliche Chatbots beim Online-Polittest der „Zeit“ sehr unterschiedliche politische Profile entwickeln – wobei sich Grok als „Turbokommunist“ positioniert. Insgesamt wird KI nicht als perfektes Orakel, sondern als fehleranfälliger Assistent porträtiert, dessen Stärken und Schwächen man kennen muss.
### 1. KI-Fehler sind systemisch und vielfältig
Die Moderation unterteilt KI-Fehler in vier Haupttypen: klassische Halluzinationen, veraltete/falsche Trainingsdaten, Fehler beim Nachschlagen (Grounding) und falsche Ausgangsinformationen im Internet. Ein selbst erfundenes „Alkibiades-Verfahren in der Rechtsmedizin“ wird von verschiedenen Chatbots unterschiedlich, aber gleichermaßen plausibel erfunden: „Claude war davon überzeugt, dass es sich um die Altersbestimmung von Blutspuren handelt.“
### 2. Moderne Modelle machen weniger Fehler, aber nicht null
Seit GPT-3.5 habe sich die Fehlerquote deutlich gesenkt. Aktuelle „Reasoning-Modelle“ wie GPT-5 Thinking würden beim wissenschaftlichen Erstellen von Literaturlisten oder multiplen Rechenaufgaben deutlich besser abschneiden, doch auch sie würden gelegentlich z. B. das Eigene Modell oder aktuelle Daten falsch einordnen.
### 3. Grounding funktioniert nur, wenn Online-Quellen korrekt sind
KI-Modelle mit Internetzugriff könnten Halluzinationen vermeiden, indem sie Informationen live recherchieren. Problematisch sei, dass sie (laut EBU-Studie) Quellen häufig falsch zuordnen: „Die Chatbots haben dann in sehr vielen Fällen eben nicht korrekt das wiedergegeben, was in einem ARD-Artikel zu dem Thema stand.“
### 4. Falsches Internet-Wissen führt zu falschen Antworten
Auch wenn KI korrekt recherchiere, könne das Ergebnis falsch sein, weil die Ausgangsdaten falsch sind. Ein YouTuber habe es geschafft, Googles KI von einem nicht existenten „Twerk-Button“ in GTA 6 zu überzeugen, indem er das Gerücht in Foren verbreitete; die KI übernahm es später als Fakt.
### 5. Präzise Prompts und Mehrfach-Checks sind essentiell
Die Formulierung eines Prompts bestimme, ob das Modell brainstorme oder faktenbasiert antworte. „Je nachdem, wie wir eine Anfrage formulieren, können sich die Ergebnisse fundamental ändern.“ Als beste Praxis gelte: aktuelle Modelle nutzen, mehrere Modelle parallel befragen, Ergebnisse mit Google abgleichen, der KI Auswege erlauben („Wenn du nichts findest, sage bitte, dass du keine Informationen hast“).
### 6. Fehler sind nicht nur ein technisches, sondern ein Bildungsproblem
Die Episode betont, dass mit zunehmender Verbreitung von KI „KI-Kompetenz“ auch bedeute, die Grenzen der Modelle zu erkennen. Kritisches Denken, so die These, sei analog zur Wikipedia-Debatte vor 20 Jahren nun gefragt, um sich in einem Umfeld unverlässlicher Informationen zurechtzufinden.
## Einordnung
Die Folge ist journalistisch klar strukturiert: konkrete Alltagsbeispiele wechseln mit Studienergebnissen, Expertenzitaten und unterhaltsamen Selbstversuchen. Die Moderator:innen bleiben sachlich, verzichten auf Technik-Hype und vermitteln einen realistischen Umgang mit KI-Fehlern. Besonders gelungen ist die Systematisierung der Fehlerquellen sowie die praxisnahen Empfehlungen (Prompting, Mehrfach-Checks, Reasoning-Modelle). Kritisch bleibt, dass wirtschaftliche oder politische Interessen, die an der Verbreitung fragwürdiger KI-Anwendungen mitverdienen, kaum thematisiert werden; auch fehlt eine Perspektive, wie Menschen ohne technisches Vorwissen oder finanzielle Mittel (Paywall-Modelle) adäquat mit KI-Fehlern umgehen sollen. Insgesamt bietet die Episode eine informative, aber eben technikzentrierte Sichtweise – wer eine gesellschaftlich breitere oder industrie-kritische Diskussion erwartet, wird sie hier nicht gefunden haben. Hörempfehlung für alle, die verstehen wollen, warum KI manchmal Unsinn erzählt und wie man es besser macht.