Fritz Espenlohn und Gregor Schmalzried widmen sich dem KI-Chatbot Grock von Elon Musk, nachdem der Kriegsberichterstatter Paul Ronsheimer eine problematische Erfahrung mit dem Bot gemacht hatte. Ronsheimer war tatsächlich in Tel Aviv vor Ort, doch Grock behauptete fälschlicherweise aufgrund eines manipulierten Screenshots, er befinde sich in einem Studio mit Greenscreen. Die Moderatoren analysieren Grock als Faktenchecker-Instanz auf X (Twitter) und diskutieren Elon Musks größenwahnsinnige Ankündigung, die "Gesamtheit des menschlichen Wissens neu zu schreiben". ### Elon Musk möchte die Geschichte der Menschheit neu schreiben Nach einem öffentlichen Streit mit seinem eigenen Bot über die Vertrauenswürdigkeit von Quellen wie Rolling Stone und Media Matters kündigte Musk an, er wolle Grock nutzen, um die "Gesamtheit des menschlichen Wissens neu zu schreiben". Er rief X-Nutzer dazu auf, "kontroverse Fakten" zu kommentieren, die "politisch inkorrekt, aber sachlich korrekt" seien. Unter seinem Post sammelten sich jedoch Holocaust-Leugnung und andere Verschwörungstheorien. Musk schrieb: "Bitte kommentiert diesen Post hier mit kontroversen Fakten für das Training von Grock." ### Grock fungiert als umstrittener Faktenchecker auf X Grock würde nicht nur als klassischer Chatbot genutzt, sondern auch als Account auf X, wo Nutzer ihn mit "@Grock" zu Posts dazurufen könnten. Er fungiere oft als "Stimme der Vernunft", die Verschwörungstheorien widerlege, gerate aber auch in Konflikte mit seinem eigenen Schöpfer. Als Grock über einen Pro-Trump-Influencer namens "CatTurd" schrieb, dieser verbreite gelegentlich Falschinformationen, antwortete Musk: "Das ist peinlich, nur eine sehr schlechte KI würde diesen Zeitschriften vertrauen, du wirst diese Woche neu aktualisiert." ### Musks dystopischer Plan sei technisch nicht umsetzbar Die Moderatoren bezweifeln, dass Musks Ansatz funktionieren könne. KI-Modelle bräuchten kohärente Trainingsdaten, doch die widersprüchlichen Kommentare von Verschwörungstheoretikern würden zu einem "Zusammenbruch" des Systems führen. Espenlohn erklärt: "Wenn die New York Times als wahrscheinlich meist zitierte Zeitung der Welt in allen möglichen anderen Texten auch als Quelle drinsteht, natürlich lernt dann dieser Chatbot, die New York Times ist relativ vertrauenswürdig. Wenn ihm dann sein Trainer sagt, der New York Times misstraust du jetzt übrigens, was soll denn dieser Bot dann machen?" ### KI-Chatbots übernehmen zunehmend die Rolle von Suchmaschinen Die Podcaster beobachten, dass Menschen immer häufiger KI-Chatbots statt Google für Faktenchecks nutzen. Schmalzried berichtet, seine Frau sage mittlerweile einfach "ich frage das kurz", wobei klar sei, dass sie den Chatbot meine. Diese Entwicklung berge Risiken der kognitiven Abhängigkeit, besonders wenn verschiedene Bevölkerungsgruppen unterschiedliche KI-Systeme mit divergierenden Weltbildern nutzten. ### Zwischenmenschlichkeit als Gegenmittel zur digitalen Blasenbildung Trotz der Vorteile von KI-Faktencheckern warnen die Moderatoren vor einer Blasenbildung ähnlich den sozialen Medien. Schmalzried betont: "Unsere Gesellschaft, die funktioniert ja am Ende über die Zwischenmenschlichkeit. Also die besteht ja aus uns Menschen, die sich in echtem Leben treffen und dann auch oft merken, man kann sich dann doch ziemlich gut leiden, selbst wenn man nicht überall einer Meinung ist." ## Einordnung Die Folge offenbart eine bemerkenswerte Entwicklung: Während sich viele über Elon Musks erratische Social-Media-Aktivitäten lustig machen, entwickelt sich sein KI-Chatbot zu einer einflussreichen Informationsquelle. Die Moderatoren analysieren sachlich, warum Musks großspurige Ankündigung, die Menschheitsgeschichte neu zu schreiben, technisch zum Scheitern verurteilt ist – KI-Modelle benötigen kohärente Trainingsdaten, nicht widersprüchliche Verschwörungstheorien. Besonders problematisch ist die schleichende Normalisierung von KI als Wahrheitsinstanz. Wenn Holocaust-Leugnung und andere Falschinformationen als "kontroverse Fakten" für das KI-Training gesammelt werden, zeigt dies die demokratiegefährdende Dimension solcher Experimente. Die Podcaster übersehen jedoch, dass bereits heute verschiedene KI-Systeme unterschiedliche politische Tendenzen aufweisen – von DeepSeeks China-konformer Haltung bis zu den verschiedenen Sicherheitsfiltern westlicher Anbieter. Ihre Warnung vor kognitiver Abhängigkeit und Blasenbildung ist berechtigt, doch die Hoffnung auf "echte Zwischenmenschlichkeit" als Gegenmittel wirkt etwas naiv angesichts der Tatsache, dass politische Polarisierung bereits vor KI existierte. Die Analyse bleibt zu optimistisch bezüglich der Selbstregulierung durch Nutzerwechsel zwischen verschiedenen Chatbots. Die Folge ist hörenswert für alle, die verstehen möchten, wie KI-Systeme als Machtinstrumente eingesetzt werden können – auch wenn die vorgeschlagenen Lösungsansätze zu kurz greifen.