The Lawfare Podcast: Scaling Laws: The State of AI Safety with Steven Adler
Ex-OpenAI-Forscher Steven Adler erklärt, warum KI-Sicherheit scheitert – und wie internationale Abkommen das Risiko mindern könnten.
The Lawfare Podcast
63 min read2954 min audioSteven Adler, ehemaliger OpenAI-Sicherheitsforscher, diskutiert mit Kevin Frazier die aktuelle Lage der KI-Sicherheit. Adler unterscheidet drei große Risikobereiche: geopolitische Konkurrenz (US-China), Kontrollverlust über leistungsfähige Systeme und gesellschaftliche Umbrüche durch KI. Er kritisiert, dass Unternehmen wie OpenAI Sicherheitsmaßnahmen vernachlässigen, um wettbewerbsfähig zu bleiben – ein „bedauerliches Rennen“. Auch bemängelt er mangelnde Teststandards: Viele Anbieter würden Risiken nicht systematisch prüfen, etwa weil sie befürchten, negative Ergebnisse zu liefern. Adler plädiert für verpflichtende, überprüfbare Sicherheitsstandards und internationale Abkommen, etwa zwischen den USA und China, um gefährliche KI-Anwendungen gemeinsam zu beschränken. Er sieht die Politik gefordert, klare Regeln für Datensicherheit, Penetrationstests und unabhängige Audits zu definieren, statt sich auf freiwillige Selbstverpflichtungen der Konzerne zu verlassen.
### KI-Sicherheit umfasst mehr als nur „tone policing“
Adler betont, dass echte KI-Sicherheit nicht darin bestehe, Hassrede zu filtern, sondern darin, „die schlimmsten Auswirkungen“ zu verhindern – etwa Biowaffen, Cyberangriffe auf kritische Infrastruktur oder autonomes Agieren außer Kontrolle.
### Frontier-Labore könnten chinesischen Hackerangriffen nicht standhalten
Kein führendes KI-Unternehmen glaube laut Adler, „der chinesischen Regierung standhalten zu können“, sollte diese versuchen, Modell-Parameter zu stehlen. Offene Modelle oder „open weights“ verstärken dieses Risiko, weil sie Gegnern direkten Zugriff bieten.
### Sicherheitsinvestitionen gelten als Wettbewerbsnachteil
Die Unternehmen würden nur so viel Sicherheit bieten, „wie nötig und billig“ sei, um ihre Führungsposition nicht zu gefährden. Wer zu viel in Sicherheit investiere, riskiere, von Konkurrenten überholt zu werden – ein strukturelles Problem, das nur durch regulatorische Mindeststandards zu lösen sei.
### Es fehlen verlässliche Teststandards
Viele Anbieter würden Risikobewertungen „auf Sparflamme“ durchführen, etwa indem sie Tests absichtlich schwach auslegen. Adler fordert verpflichtende, standardisierte Tests ähnlich dem Crashtest-Regime der Autoindustrie.
### Internationale Kooperation sei möglich und nötig
Adler hält ein Abkommen zwischen den USA und China für realistisch, wenn beide Seiten erkennen, dass es nicht um ein „Wettrennen“ gehe, sondern darum, sich gegenseitig ein „unkontrolliertes Fortschreiten“ zu verwehren. Beispiel: gemeinsames Verbot von KI in atomaren Befehlsketten.
### Die Politik muss Daten sammeln und evaluieren
Statt auf „Vibes“ zu setzen, solle die Politik systematisch Daten zu Nutzen und Risiken erheben – etwa durch unabhängige Institute, die begleitend zu Innovationen Auswirkungen messen.
## Einordnung
Die Sendung bietet eine sachliche, faktenorientierte Debatte über KI-Sicherheit. Adler liefert konkrete Beispiele für Risiken und benennt strukturelle Probleme im Wettbewerb der Labore. Die Moderation bleibt kritisch, aber nicht polemisch; es gibt keine Verschwörungstheorien oder rechte Narrative. Allerdings bleiben wichtige Perspektiven unterschiedlich: Arbeitskräfte, die durch KI verdrängt werden könnten, kommen nicht zu Wort, und die Frage, ob die militärische Nutzung von KI grundsätzlich ethisch vertretbar ist, wird nicht gestellt. Die Diskussion bleibt so im Rahmen einer US-amerikanischen Sicherheitslogik, ohne globale Gerechtigkeitsfragen oder Alternativen zur Dominanzorientierung auszuloten. Dennoch liefert der Podcast eine wertvolle, evidenzbasierte Auseinandersetzung, die sich klar für verbindliche Regulierung und internationale Kooperation ausspricht – eine seltene klare Position in einem oft hype-getriebenen Feld.