Der KI-Podcast: "Silicon Sampling": Kann KI Menschen simulieren?
KI-gestützte Menschensimulation: Wie Silicon Sampling Politik, Marktforschung und Bewerbungstrainings verändert – und warum das problematisch sein kann.
Der KI-Podcast
60 min read2567 min audioIn dieser Folge des ARD-Podcasts "Der KI-Podcast" beschäftigen sich Gregor Schmalzried und Fritz Espenlaub mit dem Phänomen des "Silicon Sampling": der Simulation von Menschen und ganzen Bevölkerungsgruppen durch KI. Sie diskutieren, wie sich Chatbots in Rollen schlüpfen lassen – etwa als Donald Trump, als echter Recruiter oder als synthetische Zielgruppe für Marktforschung. Dabei zeigen sie praktische Beispiele: von Bewerbungstrainings über CEO-Klone bis zur politischen Kampagnenplanung. Die beiden Moderatoren hinterfragen kritisch, ob KI wirklich die Realität abbilden kann oder ob sie zu sehr zur Mitte tendiert und Ausreißer ignoriert. Ein Experteninterview mit Johann Lensing vom Digitalverein D64 rundet die Diskussion ab. Am Ende bleibt die Frage: Wollen wir Politik und Produkte wirklich nur noch danach optimieren, was ein KI-Durchschnitt als unkontrovers empfindet?
### 1. KI kann Menschen überraschend gut simulieren – aber mit Einschränkungen
Die Sprachmodelle seien in der Lage, „im Aggregat“ recht genau vorherzusagen, wie reale Menschen mit bestimmten demografischen Merkmalen antworten würden. Gregor zufolge könne man damit „Wahlvorhersagen auf einem ganz ähnlichen Level machen, wie eine klassische Wählerumfrage“. Allerdings würden die Modelle zu sehr zur Mitte tendieren und extreme Positionen oder Ausreißer ausblenden.
### 2. Silicon Sampling wird bereits in Marktforschung und Politik eingesetzt
Unternehmen nutzen KI, um Produkte an synthetischen Zielgruppen zu testen. Politiker könnten damit Botschaften optimieren – etwa ein OB-Kandidat, der per Geodaten „Steckbriefe generiert“ und daran testet, „welche meiner politischen Botschaften kommen besonders gut bei den Wählerinnen und Wählern an“. Lensing warnt aber: „Die Methode verwendet Bias als Feature.“
### 3. Die Grenzen der Simulation: Realität überholt die Trainingsdaten
Als Beispiel führen die Moderatoren Tim Cooks Besuch bei Donald Trump an, bei dem dieser einen goldenen Fuß als Geschenk erhielt. Die KI lehnte ein solches Geschenk als „ethisch inakzeptabel“ ab – ein Indiz dafür, dass die Realität die Trainingsdaten mittlerweile überholt habe.
### 4. Selbst-Klone und CEO-Avatare: Effizienz oder Kontrollverlust?
Es gebe einen Trend, eigene KI-Klone zu erstellen – etwa von CEOs, die „Angestellten Fragen beantworten, selbst wenn der CEO gerade schläft“. Die Frage bleibe, ob das Effizienzsteigerung oder Kontrollverlust sei.
### 5. Kreativität braucht Risiko – nicht nur Durchschnitt
Mit Verweis auf Musikproduzent Rick Rubin („The Audience comes last“) argumentieren die Moderatoren, dass Innovation nicht durch Durchschnittsmeinungen entstehe. Politik und Produkte dürften sich nicht nur danach richten, „was der Durchschnitt gut findet“.
### 6. Praktische Anwendungen: Von Bewerbungstrainings bis DIY-Projekte
Hörer berichten, wie sie ChatGPT nutzen, um Wohnräume umzugestalten oder DIY-Projekte zu realisieren – etwa eine Schachbrett-Uhr. Die KI gebe dabei oft „ein Ticken glatter, perfekter“ Ratschläge als die Realität zulasse.
## Einordnung
Die Episode zeigt journalistisch hohes Niveau: komplexe Themen werden unterhaltsam und anschaulich vermittelt, ohne zu oberflächlich zu werden. Die Moderatoren wechseln gekonnt zwischen wissenschaftlichen Erkenntnissen, praktischen Beispielen und kritischen Reflexionen. Besonders positiv: Sie geben nicht einfach Hype weiter, sondern hinterfragen die ethischen und gesellschaftlichen Implikationen von Silicon Sampling. Die Expertise von Johann Lensing ergänzt die Diskussion sinnvoll. Kritik verdient, dass die Perspektive betroffener Bürger:innen – etwa wie sich Menschen fühlen, wenn sie zu „KI-Durchschnittspersonen“ degradiert werden – kaum zur Sprache kommt. Insgesamt liefert der Podcast aber eine wertvolle Orientierungshilfe für alle, die KI-gestützte Simulationen kritisch begleiten wollen.