Die Diskussion verhandelt die Rolle von Künstlicher Intelligenz für die Sicherheit im Weltraum – definiert als Schutz vor vorsätzlichen, vom Menschen ausgehenden Angriffen auf Weltraumsysteme, im Gegensatz zur reinen Betriebssicherheit. Als selbstverständlich wird vorausgesetzt, dass das existierende Weltraumvertragswerk grundsätzlich tragfähig ist und vor allem durch neue, unverbindliche Normen ergänzt werden müsse. Zugleich gilt KI als eine Technologie, die langsamer in die Weltraumpolitik vordringt, als sie tatsächlich bereits in Satelliten steckt. Die Analyse, was undurchsichtige automatisierte Entscheidungen für Rüstungswettläufe und Eskalationsspiralen bedeuten, steht im Zentrum.

Zentrale Punkte

  • Trennschärfe zwischen Sicherheit und Betriebssicherheit Dr. Azcárate Ortega unterscheide grundlegend: Bei der Sicherheit im All gehe es um absichtliche Schädigung, Zerstörung oder Störung von Satelliten und deren Diensten – ein Thema für Abrüstungsgremien in Genf, nicht für die zivile Raumfahrtkoordination in Wien.
  • Die Black Box als Eskalationstreiber KI-Systeme seien für Menschen oft nicht nachvollziehbar. Diese mangelnde Transparenz treffe auf ohnehin schwer zuzuordnende Manöver im All. In geopolitischen Spannungen könne diese zusätzliche Undurchsichtigkeit Fehlwahrnehmungen und gefährliche Sicherheitsdilemmata befeuern, etwa wenn ein Algorithmus aufgrund manipulierter Daten eine Kollision auslöse.
  • Kein neuer Vertrag, sondern ein schichtweiser Ansatz Ein neues, umfassendes Abkommen für KI im All hält die Expertin für unrealistisch. Stattdessen plädiere sie für einen Rückgriff auf Grundprinzipien des Weltraumvertrags, ergänzt durch politisch machbare, nicht-bindende Normen – einen flexiblen Flickenteppich, der mit der Technologie mitwachsen könne.

Einordnung

Die Episode bietet eine dichte und präzise Einführung in die rechtlichen und sicherheitspolitischen Grauzonen der KI im All. Die Stärke liegt im Herausarbeiten der entscheidenden Nuance: Nicht die KI an sich sei die Waffe, sondern sie könne ein System ungewollt oder durch Manipulation zu einer machen. Das Gedankenspiel zur manipulierten Kollisionsvermeidung macht das Risiko greifbar, und die Warnung vor sci-fi-beladener Sprache wie „Dogfighting“ für Manöver im All ist ein wichtiger Beitrag zur Deeskalation in der öffentlichen Debatte. Die Forderung nach einem pragmatischen Mix aus altem Recht und neuen Normen ist ein realistischer Gegenpol zu Maximalforderungen nach völlig neuen Verträgen.

Kritisch bleibt die Lücke zwischen der detaillierten Beschreibung des Problems und den vergleichsweise vagen Lösungsideen. Die geopolitischen Spannungen, die die gefährliche Undurchsichtigkeit erst so brisant machen, werden als gegebener Hintergrund behandelt, nicht aber in ihren konkreten Konfliktlinien analysiert. Zudem bleibt die Perspektive der vielen Staaten des Globalen Südens, die gerade eigene Raumfahrtkapazitäten aufbauen und für die verbindliche Regeln auch Schutz vor Machtgefälle bieten könnten, weitgehend außen vor. Ebenso fehlt eine kritische Einordnung der Rolle kommerzieller Akteure, deren KI-getriebene Satellitennetzwerke die Dynamik im All bereits grundlegend verändern. Das Problem der Haftung wird klar benannt: „what if the AI is operated by a different entity than the operator of the satellite itself, etc. Um so those things, those complications again blur uh things a little bit“ – eine entscheidende Frage, für die der Staatengemeinschaft bislang die Antworten fehlen.

Hörempfehlung: Eine lohnende Episode für alle, die eine sachliche und konzeptionell klare Einordnung von KI als sicherheitspolitischer Herausforderung im All suchen, abseits von alarmistischen Szenarien.

Sprecher:innen

  • Tejas Bharadwaj – Gastgeber, Carnegie India
  • Dr. Almudena Azcárate Ortega – Leitende Forscherin, UNIDIR Space Security Program