Im ARD-Podcast „Future Shock“ diskutieren Gregor Schmalzried und Fritz Espenlaub, wie KI-Modelle wie Google Minerva, OpenAI und DeepMind längst nicht mehr nur Unterstützung bieten, sondern eigenständig neue wissenschaftliche Erkenntnisse erzeugen: ein Sprachmodell fand eine bisher unbekannte Therapie für eine Augenerkrankung, zwei KI-Systeme gewannen Gold bei der Mathematik-Olympiade mit völlig neuen Beweisen, und ein Professor entdeckte, dass ein Chatbot dieselbe unveröffentlichte Hypothese formulierte wie er. Die Gesprächspartner wiederholen zwar viele Motive, glauben aber, KI sei mittlerweile „Ideenlieferant, Katalysator und Mitforscher“, der die menschliche Gehirnleistung ergänze, nicht ersetze. Die Sendung wirbt konsequent für ein kooperatives Verhältnis von Mensch und Maschine und mahnt zugleich, neue Erkenntnisse müssten durch Menschen überprüft und gesellschaftlich kontrolliert werden. ### KI-Modell entwickelt neue Augentherapie Die Moderatoren berichten, das auf Mathematik-Textaufgaben trainierte Google-Modell „Minerva“ habe bei einer konkreten medizinischen Fragestellung „nicht nur neue Erkenntnisse geliefert, sondern … auch die richtige Behandlung für eine Augenkrankheit vorgeschlagen, wo die Forscher nicht wussten, dass das die richtige Behandlung ist“. Die Forschenden hätten durch die KI-Ausgaben sowohl neue Therapien als auch ein tieferes Krankheitsverständnis erlangt. ### Mathematik-Olympiade: KI findet neue Beweise OpenAI und DeepMind hätten „bei der Internationalen Mathe Olympiade quasi Goldmedaillen gewonnen“, indem sie „neue mathematische Beweise fanden, die die menschlichen Teilnehmer nicht fanden“. Die Systeme seien damit „die Mathematik ein Stück weit vorangebracht“ und hätten gezeigt, dass sie „neue Theorien entwickeln“ könnten. ### Professor erschrickt über identische Hypothese Ein Professor habe eine „noch unveröffentlichte Forschungshypothese“ in einen Chatbot eingegeben und erfahre als Antwort: „Das ist eine super Forschungshypothese … die habe ich auch schon gefunden.“ Gregor kommentiert: „Die KI hat diese Forschungshypothese selbst entwickelt“ – ein Ereignis, das beide als Beleg dafür werten, dass KI inzwischen „selbstständig Denkleistungen erbringen“ könne. ### KI als Ausweg aus „Replikationskrise“ Die Sendung sieht KI als Mittel gegen die angebliche „Krise der Replizierbarkeit“ in der Wissenschaft. Viele Studien seien „vielleicht auch einfach Bullshit“, heißt es wörtlich; KI könne helfen, „die Forschung besser zu machen“ und „besser anzuwenden“, weil sie Muster in riesigen Datenmengen erkenne und Erklärungen liefere. ### Mensch als Kontrollinstanz bleibt gefordert Trotz aller Begeisterung betonen die Gesprächspartner, neue Hypothesen müssten „als Forscher überprüft“ werden. Die zentrale Bürde bleibe beim Menschen: „Wir haben jetzt neue Hypothesen, die wir testen können, und die wir in der Vergangenheit noch nicht hatten.“ ## Einordnung Die Episode ist journalistisch schwach: Es fehlen jegliche Quellenangaben zu den behaupteten Studienergebnissen, Zahlen, Zeitschriften oder Forschenden. Stattdessen zirkulieren die Moderatoren in endlosen Wiederholungen, bis sich die 60 Minuten gefüllt haben. Die Argumentation basiert auf drei Anekdoten, die in den Raum gestellt und nie kritisch hinterfragt werden; wissenschaftliche Gegenstimmen oder Nuancierungen fehlen völlig. Der Begriff „Forschung“ wird inflationär verwendet, ohne zwischen Korrelation, Hypothese und belegter Evidenz zu unterscheiden. Positiv ist die wiederholte Mahnung, neue Erkenntnisse müssten menschlich validiert und ethisch kontrolliert werden – das enthebt die Sendung jedoch nicht ihrer eigenen Verantwortung, spektakuläre Behauptungen zumindest mit Links oder Namen zu untermauern. Für Hörer:innen, die konkrete Informationen zur aktuellen KI-Forschung suchen, ist die Folge daher kaum geeignet – sie bleibt oberflächlicher Selbstgesprächshype.