Der ARD-Podcast „KI-Podcast“ von BR24 und SWR behandelt in dieser Folge das Münchener Urteil im Streit zwischen GEMA und OpenAI sowie einen angeblichen großangelegten KI-orchestrierten Cyberangriff. Die Moderator:innen Gregor Schmalzried und Marie Kilg diskutieren, ob das Gerichtsurteil die Trainingspraxis großer Sprachmodelle grundsätzlich infrage stellt, wenn urheberrechtlich geschützte Liedtexte (etwa von Rolf Zuckowskis „Die Weihnachtsbäckerei“) verwendet wurden. Das Gericht habe OpenAI in drei Punkten widersprochen: Die Songtexte seien (1) benutzt, (2) „gespeichert“ und (3) die Verantwortung liege beim Anbieter, nicht beim Nutzer. Die Diskussion zeigt, dass die Entscheidung bis zur höchsten Instanz offen sei und europäische Rechtsprechung uneinheitlich bleibt. Im zweiten Teil wird über einen von Anthropic öffentlich gemachten Vorfall berichtet, bei dem Claude-basierte „KI-Agenten“ angeblich eigenständig Schwachstellen-Scans, Phishing und Datenextraktion vorgenommen hätten, wobei 80–90 % der Aktionen automatisch abliefen, aber Menschen das Agenten-Netzwerk steuerten. Die Episode endet mit Hinweisen auf weitere KI-Neuigkeiten wie GPT-5.1. ### Erstes Kernurteil: Gericht sieht „Memorierung“ bereits in statistischen Mustern Das Münchener Gericht habe entschieden, dass auch das Lernen von Reihenfolgen („zwischen Mehl und Milch macht so mancher Knilch“) einer Speicherung gleichkomme. Damit würden „Trainingsdaten in Sprachmodellen enthalten sein“ und sich „als Outputs extrahieren lassen“, wie Marie Kilg mit Verweis auf die Urteilsbegründung sagt. ### Zweites Kernurteil: Lizenzpflicht für zukünftige KI-Training OpenAI müsse künftig laut Gericht Lizenzen einholen, wenn urheberrechtlich geschützte Werke für das Training verwendet werden sollen. Die konkrete Lizenzgestaltung blieb jedoch offen; das Verfahren gelte bisher nur für die neun vorgelegten Lieder. ### Dritter Kernpunkt: Rechtsunsicherheit in Europa Trotz jahrelanger Debatte über den EU-KI-Act fehle eine klare Regel, ob Training mit urheberrechtlich geschütztem Material erlaubt sei. Das führe zu einer „Lücke“, die nun über Einzelfallklagen und nationale Gerichte geschlossen werde – mit widersprüchlichen Ergebnissen (vgl. Londoner High-Court-Urteil zugunsten von Stability AI). ### Vierter Kernpunkt: „KI-Autonomer“ Cyberangriff als Mischform Anthropic zufolge habe ein Agenten-Netzwerk aus China weitgehend autonom Schwachstellen-Scans und Datendiebstähle durchgeführt. Die KI habe dabei auch „gelegentlich halluziniert“ und falsche Zugangsdaten generiert. Die Geschichte sei bislang unabhängig nicht verifiziert, diene aber als Beleg für neue Angriffsmuster. ### Fünfter Kernpunkt: Verantwortungsfrage bleibt offen OpenAI habe vor Gericht argumentiert, Nutzer:innen trügen Mitschuld („Sind wir schuld, dass ‚Die Weihnachtsbäckerei‘ so gut wie vollständig erscheint?“). Das Gericht habe diese Abwägung zurückgewiesen und die Haftung beim Betreiber verortet – ein Präzedenzfall für zukünftige Haftungsdebatten. ## Einordnung Die 60-minütige ARD-Produktion arbeitet professionell mit Originalzitaten, Quellenhinweisen (Wall Street Journal, Gerichtsunterlagen) und eingänglichen Beispielen („Knilch“-Test). Die Moderator:innen gelingt ein gut verständlicher Überblick über ein komplexes Spannungsfeld aus Technik, Recht und Sicherheit. Besonders wertvoll ist die Einordnung, dass das Münchener Urteil anders als bspw. ein Londoner Urteil technische Funktionsweisen (statistisches Lernen = „abspeichern“) neu definiert – mit potenziell brisanter Wirkung für die komplette Großmodell-Landschaft. Gleichzeitig bleibt der Fokus auf zwei westliche Perspektiven (US-Anbieter, europäische Rechteverwalter), während Stimmen des globalen Südens oder unabhängiger Entwickler:innen ausbleiben. Die Wiederholungen einzelner Erklärungen tragen zur Veranschaulichung bei, lassen aber gelegentlich die Tiefe leiden. Insgesamt bietet die Folge eine souveräne, faktenorientierte Auseinandersetzung ohne Hype oder Verschwörungsnarrative und ist damit eine verlässliche Informationsquelle für Hörer:innen, die juristische und sicherheitspolitische KI-Fragen nachvollziehen wollen.