Der Newsletter des Verfassungsblogs „On Matters Constitutional“ befasst sich mit der drängenden Frage, wie generative KI-Systeme (GenAI) im rechtlichen Rahmen der EU verortet werden können. Ausgangspunkt ist die Untersuchung illegaler Inhalte, die durch die KI Grok auf der Plattform X verbreitet wurden, was eine strukturelle Lücke im Gesetz über digitale Dienste (Digital Services Act, DSA) offenbart. Während der DSA weitreichende Befugnisse über Online-Plattformen bietet, ist unklar, ob GenAI-Systeme selbst als Vermittler im Sinne des Gesetzes gelten. Die Autor:innen argumentieren, dass GenAI-Anwendungen zwar funktionale Ähnlichkeiten mit Suchmaschinen oder Plattformen aufweisen, jedoch durch ihre inhaltliche Schöpfungskraft die traditionelle Grenze zwischen Inhaltsanbieter und Vermittler sprengen. Da der DSA auf der Annahme fehlender redaktioneller Kontrolle basiert, stellt die KI-generierte Antwort eine Herausforderung für das klassische Haftungsprivileg dar.

Um diese Unsicherheit zu adressieren, schlagen die Autor:innen einen „Stick-and-Carrot“-Ansatz vor, um GenAI-Anbieter zur Verantwortung zu ziehen und gleichzeitig Innovationen zu fördern. Der „Stick“ (Stock) umfasst dabei Risikomanagement-Mechanismen wie Transparenzpflichten und systemische Risikobewertungen, die über den KI-Akt hinausgehen. Der „Carrot“ (Zuckerbrot) hingegen bestünde in einem günstigen Haftungsregime, das Anbieter vor strikter Haftung für die oft unvorhersehbaren Outputs einer „Black Box“ schützt. Ein zentrales Zitat verdeutlicht die Position: „Es wäre paradox, wenn solche Mechanismen auf VLOPs angewendet würden, die KI-Komponenten integrieren [...], und im Fall anderer GenAI-Anwendungen ausgeschlossen blieben.“ Dies sei notwendig, da der KI-Akt primär die Modellebene reguliert, während der DSA die spezifischen Risiken der Nutzerschnittstelle und der gesellschaftlichen Verbreitung abdecken könnte.

Die Argumentation verdeutlicht, dass das Risikomanagement für KI-Modelle (GPAIMs) unter dem KI-Akt nicht ausreicht, um Gefahren wie Desinformation oder schädliche Inhalte an der Nutzerschnittstelle zu bändigen. Während der KI-Akt die Modelle prüft, bevor sie integriert werden, adressiert der DSA die Verbreitung und den Kontext der Nutzung. Hierbei wird betont, dass Schutzmaßnahmen nicht nur auf der Ebene des Codes, sondern auch in der Interaktion mit den Bürger:innen greifen müssen. Ein Verzicht auf die Anwendung des DSA auf GenAI-Anwendungen würde laut den Autor:innen eine gefährliche Regulierungslücke hinterlassen. Besonders für kleine und mittlere Unternehmen könnte ein solches hybrides Modell Rechtssicherheit schaffen, ohne die digitale Wettbewerbsfähigkeit Europas durch zu strenge Haftungsregeln zu ersticken.

Einordnung

Die Analyse offenbart ein tiefgreifendes Dilemma der digitalen Souveränität Europas: den Versuch, technologische Innovation durch regulatorische Flexibilität zu retten. Die Argumentation ist stark von einem pragmatischen Rechtsverständnis geprägt, das den Schutz der Nutzer:innen mit der „digitalen Wettbewerbsfähigkeit“ abwägt. Kritisch zu betrachten ist hierbei die implizite Annahme, dass ein reduziertes Haftungsregime als Anreiz für Sicherheit fungieren kann, während es gleichzeitig mächtigen Tech-Konzernen einen Schutzschild bietet. Der Fokus liegt stark auf einer technisch-juristischen Lösung, während die tieferliegende Machtverschiebung von menschlicher Redaktion hin zu algorithmischer Inhaltsgestaltung als gegeben hingenommen wird. Auffällig ist die Abwesenheit einer kritischen Auseinandersetzung mit den ökonomischen Interessen der KI-Anbieter, die durch das vorgeschlagene „Zuckerbrot“ massiv profitieren könnten.

Es wird deutlich, dass das Framing des Newsletters GenAI als eine Art „notwendiges Infrastrukturprojekt“ sieht, das man nicht durch zu harte Sanktionen aus Europa vertreiben darf. Diese neoliberale Nuance der „Wettbewerbsfähigkeit“ steht im Spannungsfeld zum erklärten Ziel des Schutzes demokratischer Prozesse. Dennoch bietet der Text eine wertvolle Perspektive für alle, die sich professionell mit der Regulierung von Algorithmen und der Zukunft des Medienrechts beschäftigen. Die Autor:innen zeigen präzise auf, warum der aktuelle KI-Akt allein nicht ausreicht, um systemische Risiken wie Desinformation effektiv zu bekämpfen.

Der Newsletter ist daher besonders lesenswert für Jurist:innen, politische Entscheider:innen und Digital-Expert:innen, die ein tiefes Verständnis für die regulatorischen Grauzonen zwischen DSA und KI-Akt suchen. Er bietet eine fundierte Entscheidungshilfe, um die Debatte um die Verantwortlichkeit von Systemen wie Grok oder ChatGPT jenseits von tagesaktuellen Schlagzeilen einzuordnen. Wer die rechtlichen Feinheiten der europäischen Digitalgesetzgebung verstehen will, findet hier eine prägnante Analyse der kommenden Konfliktfelder.