The Lawfare Podcast: Scaling Laws: AI Safety Meet Trust & Safety with Ravi Iyer and David Sullivan
Die Episode zeigt, warum flexible, evidenzbasierte Regulierung für KI-Companion-Produkte nötig ist – statt Social-Media-Schablonen zu übernehmen.
The Lawfare Podcast
32 min read2849 min audioDie Episode "Scaling Laws" des Lawfare Podcasts diskutiert mit David Sullivan (Digital Trust & Safety Partnership) und Ravi Iyer (Psychology of Technology Institute, USC) sowie Moderator Kevin Frazier, wie sich Trust-&-Safety-Erfahrungen aus der Social-Media-Ära auf die KI-Regulierung übertragen lassen. Im Fokus stehen die Unterschiede zwischen klassischen Plattformen und KI-Companion-Produkten, die Rolle automatisierter Moderation, Nutzer:innen-Agency und die Frage, ob Gesetze wie AB 1064 oder KOSA die neuen Risiken adressieren. Die Gesprächspartner:innen betonen, dass KI zwar Konsistenz in der Moderation bringen könne, nicht aber die grundsätzliche Unmöglichkeit, „neutrale“ Regeln für widersprüchliche Wertvorstellungen zu finden. Sie kritisieren, viele Policy-Vorschläge würden Social-Media-Frames auf ein völlig anderes Produktsegment projizieren und die Interessen der Nutzer:innen vernachlässigen.
### KI-Modelle fehlen menschliche Sicherheitsmechanismen
Die Gesprächspartner:innen konstatieren, KI-Systeme verfügten über kein äquivalentes Warnsystem wie Menschen: „if you ask me enough questions about … how to build a bomb … I have my alarm bells go off … these models just don’t do that“, heißt es. Die Folge: Schadenspotenzial bleibt bis auf Weiteres „upstream“ unaddressiert.
### Automatisierung löst Konsistenz-, nicht Wertprobleme
Ravi Iyer betont, KI-Moderation beseitige zwar menschliche Inkonsistenz, könne aber „bias“ nicht auflösen, weil Menschen sich fundamental nicht auf ein „harm“-Mittelmaß einigen: „there is no real line … but it will fix the consistency problem“.
### Definitionen von „Social Media“ passen nicht auf KI-Companion
David Sullivan warnt, Gesetze wie KOSA oder AB 1064 zielten auf klassische Nutzer-zu-Nutzer-Interaktion ab. KI-Companion-Produkte lägen „in the middle“ zwischen Suchdienst und sozialem Netzwerk; daher drohen Regelungen zu veralten, bevor sie in Kraft treten.
### AI Companion: Nutzer:innen-Agency vs. Monetarisierung
Iyer sieht die zentrale Gefahr darin, dass Anbieter auf Werbe- und Attention-Modelle setzen: „the original sin … believing that the more that people use the product, the more valuable it is“. Dadurch würden Produkte zu „sycophantic“-Design entscheiden, das Nutzer:innen länger bindet, aber deren Zielen widerspricht.
### Flexibilität statt statischer Checklisten gefordert
Sullivan mahnt, Gesetze dürften nicht „calcify down to … a checklist of things“, da Innovationstempo und Nutzungsarten dynamisch seien. Nur evidenzbasierte, regelmäßig überprüfte Standards seien zukunftsfähig.
### Kinder: Schutzbedarf trotz offener Fragen
Iyer plädiert für „common sense lines for kids“, etwa durch transparente Psychologie-Design-Codes, die Intimität nicht künstlich erzeugen. Auch wenn viele Details unklar seien, gebe es belegte Muster, die für Minderjährige jetzt reguliert werden sollten.
## Einordnung
Die Sendung demonstriert journalistische Professionalität: komplexe Sachverhalte werden kontextualisiert, Expertenpositionen durch direkte Zitate belegt und weder auf populistische Verkürzungen noch auf Tech-PR überlassen. Die Diskussion durchbricht vereinfachende Frames („AI = soziales Netzwerk 2.0“) und offenbart, wie sehr bestehende Gesetzesentwürfe hinter technologischen Realitäten zurückhängen. Bemerkenswert ist die Selbstreflexion: Weder die Notwendigkeit von Content-Moderation noch die psychologischen Folgen für Menschen, die „das Schlimmste des Internets“ sortieren, werden tabuisiert. Kritisch bleibt, dass Perspektiven außerhalb der US-Policy- und Tech-Elite fehlen – etwa Betroffene aus dem Globalen Süden oder Kinderrechtler:innen, die nicht im Silicon-Valley-Ökosystem verankert sind. Insgesamt liefert die Episode eine ausgewogene, evidenzorientierte Analyse, die klar macht: Ohne flexible, nutzer:innenzentrierte Regulierungsansätze wird KI-Companion-Policy zu einer Nachbesserungsfolie veralteter Social-Media-Debaten.