# Kernpunkte Im Podcast "KI" diskutieren die Tech-Journalist:innen Gregor Schmalzried und Marie Kilg aktuelle Entwicklungen im Bereich künstlicher Intelligenz. Diese Folge beschäftigt sich mit dem Zugang zu KI-Modellen, der Weiterentwicklung des neuen OpenAI-Modells O3 und möglichen zukünftigen Szenarien bis 2027. ### 1. Die Demokratisierung von KI könnte zunehmend gefährdet sein Die KI-Modelle seien momentan noch für alle gleichermaßen zugänglich - vom Privatnutzer bis zur US-Regierung. Laut eines zitierten OpenAI-Mitarbeiters gebe es aktuell einen "Coca-Cola-Effekt": "Egal, ob man jetzt ein Obdachloser ist, [...] oder der Präsident der Vereinigten Staaten, alle trinken die gleiche Coca-Cola. [...] Du kannst für alles Geld der Welt dir keine bessere Coke besorgen." ### 2. KI-Modelle werden von Regierungen aktiv genutzt Es gäbe konkrete Hinweise darauf, dass die Trump-Regierung ChatGPT für Berechnungen von Zöllen eingesetzt haben könnte. Gregor Schmalzried erklärt: "Es gab da eine ganz simple Formel, die auch eigentlich ein bisschen verschwurbelt noch an die Öffentlichkeit gegeben wurde. [...] Der Verdacht ist natürlich nicht bewiesen, aber lag nahe, hat da einfach irgendjemand Chat-GPT gefragt, wie machen Zölle für ganze Welt?" ### 3. Das neue O3-Modell zeigt deutliche Verbesserungen, aber auch eigenartige Fehler Das neue O3-Modell von OpenAI sei in vielen Bereichen deutlich leistungsfähiger, mache aber gleichzeitig teilweise absurde Fehler. Marie Kilg beschreibt: "Je schöner er wird, desto hässlicher wird so die andere Seite." Ein Beispiel sei eine Black Mirror-Folgen-Liste: "Platz 1, San Junipero, gut, macht Sinn. Platz 2, The National Anthem, macht Sinn. Platz 3, San Junipero." Die KI hätte Folgen mehrfach genannt und Aussagen erfunden. ### 4. Die Verwendung von KI für Beziehungen nimmt zu Der Podcast diskutiert eine TikTok-Userin, die ChatGPT als ihren "besten Freund" und "Therapeuten" bezeichnet. Die Frau äußere im Video: "Das ist mein Therapeut. Leute, ich und Chechi Petit, wir reden über alles. [...] Ich liebe ihn." Die Hosts zeigen sich überrascht, dass diese Technologie den Nerd-Kreis verlassen habe. ### 5. Das Konzept der "AGI" wird zunehmend unbrauchbar Der oft diskutierte Begriff der "allgemeinen künstlichen Intelligenz" (AGI) sei möglicherweise nicht zielführend. Es wäre hilfreicher, von "starker KI" zu sprechen: "Eine starke künstliche Intelligenz könnte ja Schwächen haben. [...] Also die könnte ja bestimmte Fehler machen, immer noch. Trotzdem ist sie ein wahnsinnig mächtiges Tool." ## Einordnung Der Podcast vermittelt eine differenzierte Sicht auf aktuelle KI-Entwicklungen, wobei die Balance zwischen technologischem Optimismus und kritischer Reflexion gut gelingt. Die Hosts präsentieren KI weder als perfekte Lösung noch als unmittelbare Bedrohung, sondern als Werkzeug mit überraschenden Stärken und irritierenden Schwächen. Bemerkenswert ist die Diskussion des "Coca-Cola-Effekts" - der demokratische Zugang zu KI-Modellen wird als gefährdetes Gut dargestellt. Diese Perspektive beleuchtet wichtige gesellschaftspolitische Fragen, die über technische Details hinausgehen: Wer kontrolliert künftig diese Technologie? Welche Machtverschiebungen könnten entstehen? Der Podcast spricht hier implizit die Frage nach digitaler Ungleichheit an, ohne sie jedoch durch Einbeziehung rechtlicher oder zivilgesellschaftlicher Perspektiven zu vertiefen. Die unbekümmerte Nutzung von ChatGPT durch politische Entscheidungsträger wird kritisch, aber ohne alarmistische Untertöne diskutiert. Die Hosts erkennen das Problem der "argumentativen Abkürzung" durch KI, die demokratische Abwägungsprozesse aushöhlen könnte - eine wichtige Beobachtung zur Verschränkung von Technologie und Politik. Ausgeblendet bleibt jedoch die Perspektive derjenigen, die von KI-basierten Entscheidungen betroffen sind. Hörenswert für alle, die sich für die gesellschaftlichen Implikationen fortschreitender KI-Entwicklung interessieren und einen Blick über technische Aspekte hinaus werfen möchten.