Im DLF-Medienpodcast "Nach Redaktionsschluss" diskutieren Hörer Quirin Padberg, KI-Journalist Maximilian Brose und die Informatikprofessorin Mascha Kurpicz-Briki über OpenAI's Videomodell Sora 2 und die Folgen flächendeckender KI-generierter Clips („AI Slop“). Padberg sieht vor allem Unterhaltungsinhalte betroffen und vertraut auf Selbstregulierung der Plattform-Ökosysteme sowie persönliche Medienkompetenz. Brose und Kurpicz-Briki warnen: Die neue Qualität täuscht selbst Expert:innen; kombiniert mit Empörungs-Algorithmen entsteht eine „Lügnerdividende“, in der echtes Videomaterial ebenso leicht infrage gestellt wird wie Fakes glaubwürdig erscheinen. Alle drei fordern schnelle gesetzliche Kennzeichnungspflicht (EU AI Act), journalistische Aufklärung und kritische Reflexion der Nutzungsdauer. Die Sendung wirbt für eine aktive Rolle von Plattformen, Politik, Medienhäusern und Zuhörer:innen, um Desinformation zu reduzieren und dem Vertrauensverlust in audiovisuelle Beweise entgegenzuwirken. ### Sora 2 erschwert Unterscheidung zwischen echt und generiert Padberg berichtet, selbst ein TikTok-Video mit "Häschen auf einem Trampolin" habe ihn irritiert; Kurpicz-Briki konstatiert: "Jetzt ist es wirklich für jeden und jede schwer zu erkennen, dass die Videos generiert wurden". Brose ergänzt, selbst als Fachredakteur brauche er beim Scrollen einen Moment, bis er realisiere, dass Clips wie "Hunde zerreißen eine Couch" künstlich erzeugt sein könnten. ### AI Slop verstärkt Stereotype und gesellschaftliche Biases Da die Modelle auf riesigen, nicht mehr manuell kontrollierbaren Datensätzen beruhen, reproduzieren sie laut Kurpicz-Briki voreilige Rollenbilder. Die Expertin warnt: "Wenn wir die Modelle in Zukunft nur noch auf generierten Daten trainieren, ist sehr schwer absehbar, wie sich unerwünschte Beziehungen darin weiter verstärken." ### Plattformen nutzen kostenlosen Zugang zur Datensammlung und Werbeprofilen Brose erklärt den offenen Zugang zu Sora 2 mit dem TikTok-ähnlichen Geschäftsmodell: „Man kann sich dort selbst mit reinbringen durch sogenannte Kameos“. Die Riesennachfrage liefere neue Trainingsdaten und ermögliche gezielte Werbung, sobald die App außerhalb der USA ausgerollt wird. ### Historische Fakes und politische Desinformation sind bereits Realität Brose berichtet, dass man in Sora 2 Martin Luther King „zum Teil rassistische Äußerungen in den Mund gelegt“ habe; außerdem erzeugte er in Sekunden ein realistisches Überwachungsvideo, das Briefwahlbriefe aus einem US-Postkasten klaut – perfekt für Claims über angeblich gestohlene Stimmen nach Wahlniederlagen. ### Lügnerdividende und Verlust audiovisuellen Vertrauens sind zentrale Gefahr Moderator Beuting skizziert die „Lügnerdividende“: Autokrat:innen könnten echte Skandale künftig mit dem Verweis auf Deepfakes leugnen. Brose illustriert, dass schon jetzt eine republikanische Politikerin das authentische Video zum Tod von George Floyd als „Fake“ bezeichnet habe. ### Verantwortung wird auf vier Ebenen verteilt Padberg fasst zusammen: „User“ müssten Unterhaltung von Nachrichten trennen, „Politik“ müsse Rahmen schaffen, „Plattformen“ KI-Inhalte kennzeichnen und „Medienhäuser“ aufklären. Der EU AI Act verlange ab 2026 maschinenlesbare Deepfake-Kennzeichnung; bis dahin bleibe viel Gestaltungsspielraum für die Zivilgesellschaft. ## Einordnung Die Sendung positioniert sich klar zwischen Warnung und Technik-Optimismus: Sie zeigt konkrete Gefahren, bleibt aber bei Lösungen in personaler Verantwortung und freiwilliger Selbstregulierung. Dabei bleibt die strukturelle Macht großer Plattformen weitgehend unhinterfragt; wirtschaftliche Interessen werden als gegeben akzeptiert. Die Expertise der Gesprächspartner:innen ist ausgewogen, doch kritische Stimmen etwa aus Zivilgesellschaft oder Betroffenen fehlen. Der Diskurs bleibt technologiezentriert: Gesellschaftliche Folgen werden primär als Frage von Medienkompetenz und Kennzeichnung gelöst, nicht als Macht- und Verteilungsfrage. Insgesamt bietet der Podcast eine anschauliche, für Laien gut verständliche Einführung in ein komplexes Feld, verharrt aber in einer linearen „Chancen und Risiken“-Logik statt tieferer struktureller Analyse. Hörwarnung: Wer eine sorgfältige Auseinandersetchung mit den Geschäftsmodellen hinter KI-Video-Plattformen oder eine strukturelle Kritik an Machtkonzentration sucht, wird hier nur oberflächlich bedient.