The Lawfare Podcast: Scaling Laws: What Keeps OpenAI’s Product Policy Staff Up at Night? A Conversation with Brian Fuller
Ein Blick hinter die Kulissen von OpenAI – aber mit rosaroter Brille.
The Lawfare Podcast
48 min read3076 min audioIn dieser Folge von "Scaling Laws" spricht Kevin Frazier mit Brian Fuller von OpenAI über die interne Arbeit an Produktpolicies – also den Regeln, die festlegen, was KI-Modelle dürfen und was nicht. Fuller erklärt, dass seine Abteilung strategische Weichen stellt, Produktteams berät und Nutzungsregeln für Plattformen wie ChatGPT formuliert. Dabei müssten sie stets Geschäftsziele, Datenschutz, Integrität und regulatorische Anforderungen gegeneinander abwägen. Ein zentraler Punkt sei, dass die Teams frühzeitig in den Produktentwicklungsprozess eingebunden würden, um Risiken zu identifizieren und abzufedern – etwa bei möglichen Missbräuchen für Biowaffen. Fuller betont, dass man externe Expert:innen zwar konsultiere, aber bewusst kleine Kreise halte, um Geheimhaltung und Effizienz zu wahren. Auch die globale Perspektive spiele eine Rolle: OpenAI strebe Partnerschaften weltweit an, etwa in Kenia oder den VAE. Am Ende rät er Berufseinsteiger:innen, sich nicht zu sehr an vorgezeichneten Karrierepfaden zu orientieren, sondern eigene Wege zu gehen – und offen zuzugeben, wenn man etwas nicht wisse.
### 1. OpenAI habe ein internes System zur Risikoabschätzung von KI-Modellen
Fuller beschreibt einen mehrstufigen Prozess: "We make a big matrix of all these risks, and then we go through the process of proposing solutions that we think would effectively eliminate or at least significantly reduce all those risks." Er betont, dass Tests durchgeführt und bei Problemen iterativ nachgebessert werde.
### 2. Die größte Sorge sei nicht politische Voreingenommenheit, sondern existenzielle Risiken
Fuller erklärt: "Models are getting really good at hypothesizing about ways that people could harm each other, whether through bioweapons development or otherwise." Er sieht die Gefahr, dass andere Länder KI-Modelle ohne ausreichende Sicherheitsvorkehrungen veröffentlichen könnten.
### 3. Externe Beratung finde bewusst in kleinem Rahmen statt
"We have a small group of external policy advisors that we can call on", sagt Fuller. Man halte die Gruppe klein, weil man für Expert:innen angemessen bezahlen wolle – ein Hinweis auf die hohe wirtschaftliche Machtposition von OpenAI.
### 4. Globale Perspektiven würden zwar angestrebt, aber durch US-amerikanische Werte geprägt
OpenAI habe eine "global approach", etwa durch Partnerschaften in Kenia und den VAE. Dennoch bleibt unklar, wie stark lokale Werte – etwa aus San Francisco oder Austin – die Policy-Entscheidungen prägen.
### 5. Karriere in KI-Politik erfordere vor allem Offenheit und Eigeninitiative
Fuller rät: "You got to just kick into the snow, man. You got to just go for it." Er erzählt, wie er durch Eigeninitiative von einer ungeliebten Operations-Rolle in die Policy-Abteilung von Meta aufgestiegen sei.
## Einordnung
Die Folge bietet einen seltenen Einblick in die internen Prozesse eines großen KI-Labors, allerdings durch die rosarote Brille eines Mitarbeiters. Die Gesprächsführung ist freundlich, aber kaum kritisch – weder bei der Frage, ob OpenAI wirklich keine reaktiven Produktveröffentlichungen betreibe, noch bei der Rolle von Datensätzen aus fragwürdigen Arbeitsbedingungen. Die Perspektive bleibt durchgehend US-zentriert, globale Südperspektiven werden eher als PR-Projekt denn als ernsthafte Einflussnahme dargestellt. Besonders bemerkenswert ist die Offenheit, mit der über die kleine Gruppe externer Berater:innen gesprochen wird – ein Hinweis auf die geschlossene Natur dieser Debatten. Die Episode wirkt wie ein gut inszenierter Blick hinter die Kulissen, der letztlich die eigene Position stärken soll. Wer tiefergehende Kritik oder alternative Perspektiven sucht, wird hier kaum fündig.
Hörwarnung: Wer einen kritischen Blick auf die Machtstrukturen großer KI-Unternehmen erwartet, wird enttäuscht sein – die Episode ist eher Werbung für OpenAI als kritische Analyse.