The Lawfare Podcast: Scaling Laws: Renée DiResta and Alan Rozenshtein on the ‘Woke AI’ Executive Order
Lawfare-Analyse entlarvt Trumps "Woke-AI"-Verbot als politische Symbolik mit minimalen technischen Konsequenzen.
The Lawfare Podcast
47 min read2808 min audioDie Lawfare-Podcast-Folge "Preventing Woke AI" analysiert die jüngste Trump-Executive Order, die den US-Bundesbehörden verbietet, KI-Modelle zu beschaffen, die angeblich "DEI-Werte" fördern. Renée DiResta (Georgetown) und Alan Rozenshtein (Minnesota Law) diskutieren mit Moderator Kevin Frazier die technischen, rechtlichen und politischen Implikationen.
### 1. Die Executive Order sei inhaltlich gespalten: Section 1 enthalte "vollmundige MAGA-Kulturkriegs-Rhetorik", während die operativen Abschnitte 2-5 nüchtern formuliert seien. Alan Rozenshtein vermutet, dass "zwei völlig verschiedene Leute" den Text verfasst hätten.
### 2. Die Kernvorgaben beschränkten sich auf zwei Prinzipien: KI-Modelle müssten "truth-seeking" und "ideological neutral" sein. Letzteres könne durch Offenlegung des System-Prompts erfüllt werden - was die Autoren als "großzügigen Ausweg" werten.
### 3. Renée DiResta betont, dass echte ideologische Neutralität technisch unmöglich sei: "Es gibt keine technisch neutrale Option... weil die Modelle auf dem Gesamtkorpus menschlichen Wissens trainiert sind." Die Debatte verschleiere eher, welche Werte als "normal" gelten sollen.
### 4. Die rechtliche Bewertung fällt klar aus: Als reine Beschaffungsvorschrift liege die Order im Rahmen der "government speech doctrine". Unternehmen hätten keinen Anspruch auf Staatsaufträge, weshalb First-Amendment-Einwände kaum durchsetzbar seien.
### 5. Die praktischen Auswirkungen blieben offen: Die Autoren erwarten keine gravierenden Änderungen bei Basis-Modellen, da die Anforderungen leicht über System-Prompts zu erfüllen seien. Die Diskussion um "woke AI" diene eher politischen Zwecken als technischer Notwendigkeit.
## Einordnung
Die Episode demonstriert eindrucksvoll, wie professionelle Policy-Analyse funktioniert: Statt polemischer Verdammung wird nüchtern zwischen politischer Symbolik und tatsächlicher Regelwirkung unterschieden. Besonders bemerkenswert ist die Offenheit, mit der die Expert:innen zugeben, dass die technischen Details letztlich unklar bleiben - eine seltene Ehrlichkeit in der oft überheblichen KI-Debatte. Die Perspektiven sind klar US-zentriert, internationale Ansätze wie die EU-AI-Act werden nur am Rande erwähnt. Dennoch gelingt es den Gesprächspartner:innen, die komplexe Interaktion von Technik, Recht und Politik ohne Vereinfachungen zu durchleuchten. Die Folge ist keine Warnung vor rechter Ideologie, sondern eine sachliche Entzauberung politischer Symbolpolitik - hörenswert für alle, die verstehen wollen, wie KI-Regulierung tatsächlich funktioniert.