The 404 Media Podcast: Zu: AI Avatar of Killed Man Testifies in Court
The 404 Media Podcast
45 min read# "Ich liebte diese KI": Richter beeindruckt von KI-Avatar eines Unfallopfers und Metas Gesichtserkennung für Smart-Glasses
Der 404 Media Podcast diskutiert zwei Hauptthemen: Einen Fall, bei dem ein KI-generierter Avatar eines Verstorbenen vor Gericht "aussagte", und Metas Pläne, Gesichtserkennungstechnologie in Ray-Ban Smart-Glasses zu integrieren. Die Moderator:innen Jason Koebler, Matthew Galt, Joseph Cox, Sam Cole und Emmanuel Mayberg analysieren kritisch die technischen und ethischen Implikationen beider Entwicklungen.
### 1. KI-Avatar eines Verkehrstoten "sagte" vor Gericht aus
In einem Gerichtsverfahren zu einem tödlichen Verkehrsvorfall sei ein KI-generierter Avatar des Opfers Christopher Pelkey vorgeführt worden. Der Avatar habe in der ersten Person gesprochen und sogar dem Täter vergeben. Der Richter habe begeistert reagiert: "Ich liebte diese KI. Danke dafür."
Jason Koebler zeigte sich überrascht: "Ich bin sehr selten von irgendetwas mit KI noch schockiert, aber ich dachte: 'Oh mein Gott, ich kann nicht glauben, dass das akzeptiert wurde.'"
### 2. Der Avatar wurde von Familienangehörigen erstellt, nicht vom Verstorbenen
Die Schwester des Opfers, Stacy Wales, habe den Text selbst verfasst und mit ihrem Ehemann zusammen einen KI-Avatar erstellt. Es handle sich somit nicht um die tatsächlichen Worte des Verstorbenen, sondern um eine Interpretation der Familie.
"Unser Ziel war es, den Richter zum Weinen zu bringen. Unser Ziel war es, Chris zum Leben zu erwecken und ihn zu vermenschlichen", habe die Schwester in einem Gespräch mit 404 Media erklärt.
### 3. Meta plant Gesichtserkennung für Smart-Glasses trotz früherer Kritik
Laut einem Bericht in "The Information" arbeite Meta an Gesichtserkennungstechnologie für seine Ray-Ban Smart-Glasses, obwohl das Unternehmen zuvor Kritik an ähnlichen Projekten geäußert habe. Meta erwäge sogar, die Warnleuchte zu entfernen, die anzeigt, wenn die Brille filmt.
"Nach all der Berichterstattung über die Studenten und Metas kleine Empörung darüber – tja, tja, tja – bauen sie die Gesichtserkennung trotzdem in die Brillen ein", fasste ein Moderator zusammen.
### 4. Studenten hatten bereits Gesichtserkennung mit den Brillen kombiniert
Zwei Harvard-Studenten hätten bereits zuvor ein Konzept namens "Eye X-Ray" entwickelt, das Meta-Brillen mit dem Gesichtserkennungsdienst PimEyes kombinierte, um Fremde in Echtzeit zu identifizieren. Meta habe sich damals von dem Projekt distanziert.
"Sie haben im Grunde ein sofortiges Doxxing-Gerät gebaut", beschrieb Joseph Cox die Technologie.
## Einordnung
Der Podcast illustriert zwei bedenkliche Entwicklungen an der Schnittstelle von KI-Technologien und gesellschaftlicher Akzeptanz. Besonders problematisch ist die unreflektierte Begeisterung des Richters für den KI-Avatar, die eine gefährliche Präzedenz für den Einsatz fiktiver "Zeugenaussagen" in Rechtsverfahren schaffen könnte. Die Moderator:innen weisen richtigerweise darauf hin, dass der Avatar nicht die tatsächlichen Worte des Verstorbenen wiedergab, sondern eine von Angehörigen konstruierte Fiktion darstellt – eine Tatsache, die im Gerichtsverfahren offenbar unkritisch hingenommen wurde.
Die Diskussion zu Metas Gesichtserkennungsplänen enthüllt ein typisches Muster von Technologieunternehmen: öffentliche Kritik an problematischen Anwendungen bei gleichzeitiger Entwicklung ähnlicher Produkte. Die Moderator:innen legen überzeugend dar, wie Unternehmen wie Meta Kritik zunächst rhetorisch abwehren, um später dennoch kontroverse Technologien einzuführen. Besonders die mögliche Entfernung der Warnleuchte deutet auf eine bewusste Verschleierung der Überwachungsfunktion hin.
Der Podcast bietet eine wichtige kritische Perspektive auf die zunehmende Normalisierung potenziell invasiver Technologien, wobei die journalistische Hartnäckigkeit der 404-Media-Redaktion gegenüber PR-Strategien von Tech-Unternehmen hervorzuheben ist.
Hörempfehlung: Der Podcast ist eine wertvolle Informationsquelle für alle, die die gesellschaftlichen Implikationen neuer KI- und Überwachungstechnologien verstehen wollen, besonders deren problematische Anwendung in sensiblen Bereichen wie dem Rechtssystem.