Der Podcast "KI verstehen" behandelt in dieser Folge, wie Künstliche Intelligenz geschlechtsspezifische Klischees und Diskriminierung reproduziert. Die Moderator:innen Carina Schroeder und Friederike Walch-Nasseri diskutieren anhand zahlreicher Beispiele – von Amazon-Bewerbungsalgorithmen bis Gesichtserkennung und Bildgenerierung –, wie Frauen durch KI systematisch benachteiligt werden. Sie zeigen auf, dass Trainingsdaten veraltete Rollenbilder widerspiegeln und KI diese verstärkt. Gleichzeitig wird die Unterrepräsentanz von Frauen in der Tech-Branche thematisiert. Positivbeispiele wie das ugandische Projekt „African Girls Can Code“ sollen Mut machen. Die Sendung wirbt für mehr Diversität in der KI-Entwicklung und ein Umdenken in der Gesellschaft. ### KI verstärke alte Klischees statt sie abzubauen Die Sprecher:innen zeigen, dass KI-Modelle nicht nur Daten analysieren, sondern auch gesellschaftliche Vorurteile lernen und fortschreiben. So habe ein Amazon-Recruiting-Tool gelernt, Männer bevorzugt einzustellen – nicht explizit programmiert, sondern durch historische Daten. Judith Simon erklärt: „Ich laufe Gefahr mit diesen datenbasierten Systemen die Vergangenheit zu zementieren.“ ### Frauen würden durch KI schlechter erkannt und benachteiligt Gesichtserkennungs-Algorithmen erkennen laut einer MIT-Studie Frauen, besonders Schwarze Frauen, deutlich schlechter. Der Grund sei, dass nur 25 % der Trainingsdaten Frauen darstellten, nur 4 % Schwarze Frauen. Dies führe zu systematischen Fehlern in sicherheitsrelevanten Anwendungen. ### Medizinische KI ignoriere Geschlechterunterschiede In der Medizin werde KI oft mit Daten trainiert, in denen das Geschlecht der Proband:innen nicht erfasst sei. Claudia Crocini von der Charité Berlin kritisiert, dass 20–30 % der Studien das Geschlecht nicht nennen. Dadurch erhalten Frauen häufiger falsche Behandlungen oder Medikamente mit stärkeren Nebenwirkungen. ### KI-Bilder reproduzieren stereotype Berufsbilder Ein Experiment zeige, dass KI-Bildgeneratoren Berufe wie „Lawyer“ oder „CEO“ automatisch als weiße Männer darstellen, während „Teacher“ oder „Nurse“ weiblich und hellhäutig seien. Obwohl in vielen Ländern inzwischen mehr Frauen Medizin studieren, würde KI weiterhin männliche Ärzt:innen generieren. ### Deepfakes und KI-Pornografie treffen vor allem Frauen Frauen seien besonders von digitaler Gewalt betroffen. Deepfakes würden oft genutzt, um Frauen in pornografischen Szenen darzustellen – auch ohne ihre Zustimmung. Prominente Fälle wie Scarlett Johansson oder Taylor Swift seien nur die Spitze des Eisbergs. Betroffene würden kaum rechtliche oder technische Hilfe erhalten. ### Frauen in der KI-Geschichte würden unsichtbar gemacht Obwohl Frauen wie Ada Lovelace, Mira Murati oder Fei-Fei Li maßgeblich zur KI-Entwicklung beigetragen hätten, würden sie in der öffentlichen Wahrnehmung kaum wahrgenommen. Stattdessen stünden Männer wie Elon Musk oder Sam Altman im Fokus – ein Zeichen für mangelnde Sichtbarkeit und strukturelle Benachteiligung. ## Einordnung Die Sendung ist ein gelungener, journalistisch aufbereiteter Beitrag, der komplexe Zusammenhänge zwischen Technik, Geschlecht und Macht verständlich macht. Die Moderator:innen arbeiten mit klaren Beispielen, Expert:innen-Zitaten und persönlichen Einschätzungen – stets reflektiert und selbstkritisch. Besonders positiv: Sie vermeiden Schwarz-Weiß-Malerei, zeigen auch Fortschritte und Lösungsansätze. Kritisch anzumerken ist, dass einige technische Erklärungen stark vereinfacht bleiben und etwaige Gegenargumente zur Geschlechterbinarität oder Intersektionalität kaum vorkommen. Die Fokussierung auf „Frauen vs. Männer“ riskiert, geschlechtliche Vielfalt auszublenden. Dennoch liefert die Episode eine wichtige Grundlage für Diskussionen über Verantwortung, Diversität und Technikgestaltung – mit klarem Bekenntnis zur Gleichberechtigung und ohne belehrend zu wirken. Die Balance zwischen Aufklärung, Emotion und Hoffnung gelingt gut. Hörempfehlung: Ja – wer verstehen will, wie KI Alltagsdiskriminierung verstärkt und was dagegen hilft, bekommt hier einen zugänglichen Einstieg mit viel Tiefgang.