Der KI-Podcast: Kann Elon Musk mit Grok die Realität neu schreiben?
Warum Elon Musks Plan, mit seinem KI-Bot Grock die Menschheitsgeschichte neu zu schreiben, technisch zum Scheitern verurteilt ist.
Der KI-Podcast
45 min read2537 min audioFritz Espenlohn und Gregor Schmalzried widmen sich dem KI-Chatbot Grock von Elon Musk, nachdem der Kriegsberichterstatter Paul Ronsheimer eine problematische Erfahrung mit dem Bot gemacht hatte. Ronsheimer war tatsächlich in Tel Aviv vor Ort, doch Grock behauptete fälschlicherweise aufgrund eines manipulierten Screenshots, er befinde sich in einem Studio mit Greenscreen. Die Moderatoren analysieren Grock als Faktenchecker-Instanz auf X (Twitter) und diskutieren Elon Musks größenwahnsinnige Ankündigung, die "Gesamtheit des menschlichen Wissens neu zu schreiben".
### Elon Musk möchte die Geschichte der Menschheit neu schreiben
Nach einem öffentlichen Streit mit seinem eigenen Bot über die Vertrauenswürdigkeit von Quellen wie Rolling Stone und Media Matters kündigte Musk an, er wolle Grock nutzen, um die "Gesamtheit des menschlichen Wissens neu zu schreiben". Er rief X-Nutzer dazu auf, "kontroverse Fakten" zu kommentieren, die "politisch inkorrekt, aber sachlich korrekt" seien. Unter seinem Post sammelten sich jedoch Holocaust-Leugnung und andere Verschwörungstheorien. Musk schrieb: "Bitte kommentiert diesen Post hier mit kontroversen Fakten für das Training von Grock."
### Grock fungiert als umstrittener Faktenchecker auf X
Grock würde nicht nur als klassischer Chatbot genutzt, sondern auch als Account auf X, wo Nutzer ihn mit "@Grock" zu Posts dazurufen könnten. Er fungiere oft als "Stimme der Vernunft", die Verschwörungstheorien widerlege, gerate aber auch in Konflikte mit seinem eigenen Schöpfer. Als Grock über einen Pro-Trump-Influencer namens "CatTurd" schrieb, dieser verbreite gelegentlich Falschinformationen, antwortete Musk: "Das ist peinlich, nur eine sehr schlechte KI würde diesen Zeitschriften vertrauen, du wirst diese Woche neu aktualisiert."
### Musks dystopischer Plan sei technisch nicht umsetzbar
Die Moderatoren bezweifeln, dass Musks Ansatz funktionieren könne. KI-Modelle bräuchten kohärente Trainingsdaten, doch die widersprüchlichen Kommentare von Verschwörungstheoretikern würden zu einem "Zusammenbruch" des Systems führen. Espenlohn erklärt: "Wenn die New York Times als wahrscheinlich meist zitierte Zeitung der Welt in allen möglichen anderen Texten auch als Quelle drinsteht, natürlich lernt dann dieser Chatbot, die New York Times ist relativ vertrauenswürdig. Wenn ihm dann sein Trainer sagt, der New York Times misstraust du jetzt übrigens, was soll denn dieser Bot dann machen?"
### KI-Chatbots übernehmen zunehmend die Rolle von Suchmaschinen
Die Podcaster beobachten, dass Menschen immer häufiger KI-Chatbots statt Google für Faktenchecks nutzen. Schmalzried berichtet, seine Frau sage mittlerweile einfach "ich frage das kurz", wobei klar sei, dass sie den Chatbot meine. Diese Entwicklung berge Risiken der kognitiven Abhängigkeit, besonders wenn verschiedene Bevölkerungsgruppen unterschiedliche KI-Systeme mit divergierenden Weltbildern nutzten.
### Zwischenmenschlichkeit als Gegenmittel zur digitalen Blasenbildung
Trotz der Vorteile von KI-Faktencheckern warnen die Moderatoren vor einer Blasenbildung ähnlich den sozialen Medien. Schmalzried betont: "Unsere Gesellschaft, die funktioniert ja am Ende über die Zwischenmenschlichkeit. Also die besteht ja aus uns Menschen, die sich in echtem Leben treffen und dann auch oft merken, man kann sich dann doch ziemlich gut leiden, selbst wenn man nicht überall einer Meinung ist."
## Einordnung
Die Folge offenbart eine bemerkenswerte Entwicklung: Während sich viele über Elon Musks erratische Social-Media-Aktivitäten lustig machen, entwickelt sich sein KI-Chatbot zu einer einflussreichen Informationsquelle. Die Moderatoren analysieren sachlich, warum Musks großspurige Ankündigung, die Menschheitsgeschichte neu zu schreiben, technisch zum Scheitern verurteilt ist – KI-Modelle benötigen kohärente Trainingsdaten, nicht widersprüchliche Verschwörungstheorien.
Besonders problematisch ist die schleichende Normalisierung von KI als Wahrheitsinstanz. Wenn Holocaust-Leugnung und andere Falschinformationen als "kontroverse Fakten" für das KI-Training gesammelt werden, zeigt dies die demokratiegefährdende Dimension solcher Experimente. Die Podcaster übersehen jedoch, dass bereits heute verschiedene KI-Systeme unterschiedliche politische Tendenzen aufweisen – von DeepSeeks China-konformer Haltung bis zu den verschiedenen Sicherheitsfiltern westlicher Anbieter.
Ihre Warnung vor kognitiver Abhängigkeit und Blasenbildung ist berechtigt, doch die Hoffnung auf "echte Zwischenmenschlichkeit" als Gegenmittel wirkt etwas naiv angesichts der Tatsache, dass politische Polarisierung bereits vor KI existierte. Die Analyse bleibt zu optimistisch bezüglich der Selbstregulierung durch Nutzerwechsel zwischen verschiedenen Chatbots.
Die Folge ist hörenswert für alle, die verstehen möchten, wie KI-Systeme als Machtinstrumente eingesetzt werden können – auch wenn die vorgeschlagenen Lösungsansätze zu kurz greifen.