Im Lawfare Podcast diskutieren Quinta Jurecic und Matt Perault mit den ursprünglichen Co-Autoren des US-Internetrechts „Section 230“, Senator Ron Wyden und Ex-Kongressabgeordnetem Chris Cox, ob künstliche Intelligenz (etwa ChatGPT) vom Haftungsschutz für Plattforminhalten profitiert. Alle Beteiligten sind sich einig: Section 230 schütze nur die Moderation fremder Inhalte, nicht aber die Haftung für selbst erzeugte KI-Texte, -Bilder oder -Videos. Die Gesprächspartner differenzieren danach, ob KI lediglich Suchergebnisse filtert oder neue urheberrechtlich geschützte Werke erzeuge. Letzteres falle ausdrücklich nicht unter den Schutz, weshalb Klagen wegen Copyright, Verleumdung oder sonstiger Rechtsverstöße möglich blieben. ### 1. KI als Content-Ersteller fällt nicht unter Section 230 Cox und Wyden betonen, ihr 1996 verabschiedeter Haftungsprivileg gelte „nicht für generative KI wie ChatGPT oder Google Bard“. Es schütze Plattformen nur davor, für fremde Nutzerbeiträge verantwortlich gemacht zu werden, nicht aber für „die Konsequenzen ihrer eigenen Produkte“. ### 2. Rechtsfragen hängen vom konkreten Anwendungsfall ab Ob Section 230 greife, hänge stark vom Einzelfall ab: „Ist es Gesichtserkennung, selbstfahrende Autos, ein erweiterte Internetsuche oder die Erstellung eines Romans?“ Die Antworten seien jeweils unterschiedlich, da KI ein „breites Feld“ ohne klare rechtliche Einheitskategorie sei. ### 3. Copyright bleibt außerhalb des Schutzes Cox weist darauf hin, dass Section 230 „ausdrücklich keinen Schutz gegen Urheberrechtsklagen“ biete. Der Authors Guild, dem er angehört, sei besonders wichtig, dass KI-Modelle urheberrechtlich geschütztes Material nicht unbegrenzt für Training und Ausgabe nutzen dürfen. ### 4. Absicht von Section 230: Rede von Nutzer:innen fördern Wyden fasst die ursprüngliche Motivation zusammen: „Section 230 soll Nutzer schützen, Rede erweitern und das Internet demokratisieren.“ Dieses Ziel werde durch KI-Systeme, die eigenständig Inhalte erzeugen, nicht verfolgt, weshalb „der Unterschied zwischen 230 und ChatGPT“ für Kongressmitglieder zentral sei. ### 5. Kein genereller Haftungsausschluss für alle KI-Anwendungen Die Co-Autoren räumen ein, KI werde in vielen tausend Varianten genutzt. Nur wenn „AI der anerkannte Ersteller einzigartiger Inhalte ist, die illegal sind“, entfalle der Section-230-Schutz. Für reine Empfehlungsalgorithmen, Assistenzfunktionen oder datenverarbeitende Dienste könne eine Haftungsprivilegierung weiterhin infrage kommen, wenn sie lediglich fremde Inhalte organisieren.