Die Autoren Martin Fehrensen, Gründer des Social Media Watchblogs, und der KI-Experte Simon Berlin widmen sich in dieser Ausgabe schwerpunktmäßig der eskalierenden digitalen und sexualisierten Gewalt gegen Frauen. Aufhänger ist die Absage der Moderatorin Collien Fernandes an einer Demonstration, nachdem sie Morddrohungen im Zuge ihrer Vorwürfe gegen Christian Ulmen erhalten hatte. Die Verfasser stützen sich auf Daten des BKA, der UN Women und wissenschaftliche Metaanalysen, um zu untermauern, dass es sich hierbei nicht um Einzelfälle, sondern um ein tief verankertes patriarchales System handelt. Sie positionieren sich dabei bewusst als männliche Beobachter, die sich eigentlich zurücknehmen und zuhören wollen, aber aufgrund einer Fehlentwicklung in der Debatte intervenieren. Im Zentrum ihrer Kritik steht die rein juristische Aufarbeitung des Problems. Zwar begrüßen sie geplante Gesetzesverschärfungen gegen Deepfakes und digitale Gewalt, warnen jedoch eindringlich davor, dass das Strafrecht nur Symptome bekämpfe. Echte Prävention erfordere strukturelle Maßnahmen wie die Sensibilisierung von Polizei und Justiz sowie den Erhalt von Beratungsstellen. In diesem Kontext kritisieren sie mögliche Mittelkürzungen für Organisationen wie HateAid scharf. Die Verantwortung wird zudem stark bei den Tech-Konzernen verortet. Die Autoren zitieren Studien, wonach der Konsum misogyner Inhalte auf Plattformen frauenfeindliche Einstellungen messbar verstärke, und folgern: "Plattformen sind nicht das Problem, aber sie sind Teil des Problems." Im zweiten Teil des Newsletters rücken juristische und technologische Entwicklungen der Plattformökonomie in den Fokus. Fehrensen und Berlin berichten über wegweisende Urteile aus den USA, bei denen Meta und YouTube zu millionenschweren Strafen verurteilt wurden. Der Paradigmenwechsel bestehe darin, dass nun nicht mehr nutzergenerierte Inhalte, sondern das manipulative, auf Sucht ausgelegte Produktdesign der Plattformen juristisch belangt werde. Abschließend analysieren die Autoren das überraschende Ende des KI-Videogenerators Sora von OpenAI. Sie entlarven die Einstellung des Tools nicht als ethische Einsicht des Unternehmens, sondern als rein wirtschaftliche Kapitulation vor den immensen Rechenkosten für "technisch faszinierendes, aber inhaltlich oft leeres Brainrot". ## Einordnung Der Text ist stark von einem pro-feministischen und netzpolitisch progressiven Deutungsrahmen geprägt. Die Autoren nehmen eine dezidiert strukturelle Perspektive ein, indem sie individuelle Taten konsequent in einen größeren Kontext von Patriarchat und Aufmerksamkeitsökonomie einbetten. Der Newsletter gibt Opfern sexualisierter Gewalt und zivilgesellschaftlichen Organisationen viel Raum, während die Narrative der Tech-Konzerne und die reaktive Symbolpolitik der Politik kritisch dekonstruiert werden. Auffällig ist die implizite Annahme, dass technologische Architekturen niemals neutral sind, sondern bestehende Machtgefälle und Diskriminierungsstrukturen aktiv verschärfen, wenn sie nicht strikt reguliert werden. Neoliberale Ausreden der Plattformbetreiber, lediglich Infrastruktur zur Verfügung zu stellen, werden durch den Verweis auf Algorithmus-Design und Geschäftsmodelle überzeugend entkräftet. Rhetorisch arbeiten Fehrensen und Berlin mit einem klaren moralischen Kompass und scheuen nicht davor zurück, provokante Konzepte wie den Arschlochgeneralverdacht für Männer zu zitieren, um die Dringlichkeit der Selbstreflexion zu betonen. Argumentative Schwächen finden sich kaum, da die Thesen solide mit aktuellen Studien, Gerichtsurteilen und zivilgesellschaftlichen Forderungskatalogen unterfüttert sind. Die Verbindung zwischen der gesellschaftlichen Debatte um Misogynie und der profitorientierten Ignoranz des Silicon Valleys gelingt hierbei äußerst schlüssig. Diese Ausgabe des Social Media Watchblogs ist ein hochgradig relevantes und analytisch scharfes Dokument zur aktuellen Schnittmenge von Geschlechtergerechtigkeit, Netzpolitik und Plattformökonomie. Der Newsletter ist absolut lesenswert für alle Leser:innen, die sich nicht mit oberflächlichen Empörungszyklen zufriedengeben, sondern die tieferliegenden technologischen und gesellschaftlichen Mechanismen hinter digitaler Gewalt und toxischen Algorithmen verstehen wollen.