Die Episode "Scaling Laws" des Lawfare Podcasts diskutiert mit David Sullivan (Digital Trust & Safety Partnership) und Ravi Iyer (Psychology of Technology Institute, USC) sowie Moderator Kevin Frazier, wie sich Trust-&-Safety-Erfahrungen aus der Social-Media-Ära auf die KI-Regulierung übertragen lassen. Im Fokus stehen die Unterschiede zwischen klassischen Plattformen und KI-Companion-Produkten, die Rolle automatisierter Moderation, Nutzer:innen-Agency und die Frage, ob Gesetze wie AB 1064 oder KOSA die neuen Risiken adressieren. Die Gesprächspartner:innen betonen, dass KI zwar Konsistenz in der Moderation bringen könne, nicht aber die grundsätzliche Unmöglichkeit, „neutrale“ Regeln für widersprüchliche Wertvorstellungen zu finden. Sie kritisieren, viele Policy-Vorschläge würden Social-Media-Frames auf ein völlig anderes Produktsegment projizieren und die Interessen der Nutzer:innen vernachlässigen. ### KI-Modelle fehlen menschliche Sicherheitsmechanismen Die Gesprächspartner:innen konstatieren, KI-Systeme verfügten über kein äquivalentes Warnsystem wie Menschen: „if you ask me enough questions about … how to build a bomb … I have my alarm bells go off … these models just don’t do that“, heißt es. Die Folge: Schadenspotenzial bleibt bis auf Weiteres „upstream“ unaddressiert. ### Automatisierung löst Konsistenz-, nicht Wertprobleme Ravi Iyer betont, KI-Moderation beseitige zwar menschliche Inkonsistenz, könne aber „bias“ nicht auflösen, weil Menschen sich fundamental nicht auf ein „harm“-Mittelmaß einigen: „there is no real line … but it will fix the consistency problem“. ### Definitionen von „Social Media“ passen nicht auf KI-Companion David Sullivan warnt, Gesetze wie KOSA oder AB 1064 zielten auf klassische Nutzer-zu-Nutzer-Interaktion ab. KI-Companion-Produkte lägen „in the middle“ zwischen Suchdienst und sozialem Netzwerk; daher drohen Regelungen zu veralten, bevor sie in Kraft treten. ### AI Companion: Nutzer:innen-Agency vs. Monetarisierung Iyer sieht die zentrale Gefahr darin, dass Anbieter auf Werbe- und Attention-Modelle setzen: „the original sin … believing that the more that people use the product, the more valuable it is“. Dadurch würden Produkte zu „sycophantic“-Design entscheiden, das Nutzer:innen länger bindet, aber deren Zielen widerspricht. ### Flexibilität statt statischer Checklisten gefordert Sullivan mahnt, Gesetze dürften nicht „calcify down to … a checklist of things“, da Innovationstempo und Nutzungsarten dynamisch seien. Nur evidenzbasierte, regelmäßig überprüfte Standards seien zukunftsfähig. ### Kinder: Schutzbedarf trotz offener Fragen Iyer plädiert für „common sense lines for kids“, etwa durch transparente Psychologie-Design-Codes, die Intimität nicht künstlich erzeugen. Auch wenn viele Details unklar seien, gebe es belegte Muster, die für Minderjährige jetzt reguliert werden sollten. ## Einordnung Die Sendung demonstriert journalistische Professionalität: komplexe Sachverhalte werden kontextualisiert, Expertenpositionen durch direkte Zitate belegt und weder auf populistische Verkürzungen noch auf Tech-PR überlassen. Die Diskussion durchbricht vereinfachende Frames („AI = soziales Netzwerk 2.0“) und offenbart, wie sehr bestehende Gesetzesentwürfe hinter technologischen Realitäten zurückhängen. Bemerkenswert ist die Selbstreflexion: Weder die Notwendigkeit von Content-Moderation noch die psychologischen Folgen für Menschen, die „das Schlimmste des Internets“ sortieren, werden tabuisiert. Kritisch bleibt, dass Perspektiven außerhalb der US-Policy- und Tech-Elite fehlen – etwa Betroffene aus dem Globalen Süden oder Kinderrechtler:innen, die nicht im Silicon-Valley-Ökosystem verankert sind. Insgesamt liefert die Episode eine ausgewogene, evidenzorientierte Analyse, die klar macht: Ohne flexible, nutzer:innenzentrierte Regulierungsansätze wird KI-Companion-Policy zu einer Nachbesserungsfolie veralteter Social-Media-Debaten.