Eine überparteiliche Gruppe von Gesetzgebern verfolgt Gesetze, um das Pentagon daran zu hindern, künstliche Intelligenz (KI) zum Abschuss von Atomwaffen einzusetzen.
Der Block Nuclear Launch by Autonomous Artificial Intelligence Act zielt darauf ab, den nuklearen Befehls- und Kontrollprozess vor zukünftigen politischen Änderungen zu schützen, die es der KI ermöglichen könnten, nukleare Start- und Zielentscheidungen zu treffen.
Die Abgeordneten Ken Buck (R-Colo.), Don Beyer (D-Va.), Ted Lieu (D-Calif.) und Senator Edward Markey (D-Mass.) stellten die Gesetzgebung im April beiden Häusern des Kongresses vor 26.
„Während der militärische Einsatz von KI durch das US-Militär angemessen sein kann, um die nationale Sicherheit zu verbessern, ist der Einsatz von KI zum Einsatz von Atomwaffen ohne menschliche Befehls- und Kontrollkette rücksichtslos, gefährlich und sollte verboten werden“, sagte Buck in einer vorbereiteten Erklärung.
„Ich bin stolz darauf, diese Gesetzgebung mit zu unterstützen, um sicherzustellen, dass Menschen und nicht Maschinen das letzte Wort über die kritischsten und heikelsten militärischen Entscheidungen haben.“
KI kein Ersatz für „Menschliches Urteilsvermögen“
Der Nuclear Posture Review 2022 des Pentagon behauptet, dass seine derzeitige Politik darin besteht, „einen Menschen ‚auf dem Laufenden‘ über alle Maßnahmen zu halten, die für die Information und Ausführung von Entscheidungen des Präsidenten zur Einleitung und Beendigung des Einsatzes von Atomwaffen entscheidend sind“.
Diese Politik erscheint jedoch informell und gilt nicht für nichtnukleare autonome tödliche Systeme, die trotz weit verbreiteter Missverständnisse vom Pentagon nicht verboten sind.
Der Gesetzentwurf würde die bestehende Politik des Pentagon zu KI und Atomwaffen kodifizieren, indem er vorschreibt, dass keine Bundesmittel für den Start von Atomwaffen durch ein automatisiertes System ohne sinnvolle menschliche Kontrolle verwendet werden dürfen.
Eine sinnvolle menschliche Kontrolle würde laut dem Gesetzentwurf (pdf) die menschliche Entscheidungsfindung über die Auswahl und Bekämpfung nuklearer Ziele sowie über Zeit, Ort und Art einer solchen Nutzung umfassen.
„Die KI-Technologie entwickelt sich in einem extrem schnellen Tempo“, sagte Lieu. „Während wir alle versuchen, uns mit der Beschleunigung der KI auseinanderzusetzen, bleibt die Zukunft der KI und ihre Rolle in der Gesellschaft unklar.
„KI kann niemals ein Ersatz für menschliches Urteilsvermögen sein, wenn es um den Start von Atomwaffen geht.“
Gefahr eines Nuklearkonflikts mit China eskaliert
Seit dem Kalten Krieg haben die Vereinigten Staaten eine Reihe von nuklearen Kapazitäten für den zweiten Schlag mit dem sogenannten „Launch-on-Warning“-Status aufrechterhalten.
Dies bedeutet, dass die Nation Atomwaffen auf einen vermeintlichen nuklearen Aggressor abfeuern wird, wenn sie anfliegende Raketen entdeckt, anstatt darauf zu warten, dass die Nation tatsächlich von einem solchen Angriff getroffen wurde.
Laut dem China Power Report 2022 des Pentagon (pdf) führt China auch eine Start-auf-Warn-Haltung ein, die als „Frühwarn-Gegenschlag“ bezeichnet wird, bei der die Warnung vor einem Raketenangriff zu einem Gegenschlag führt, bevor ein feindlicher Erstschlag explodieren kann, und führt seit mindestens 2017 Übungen durch, bei denen nukleare Reaktionen mit Start bei Warnung durchgeführt werden.
Sollte also eine Nation der KI erlauben, Entscheidungen über nukleare Starts zu treffen, könnte ein falsches Positiv auf nuklearen Verfolgungssystemen schnell zu einem ausgewachsenen Atomkrieg eskalieren.
Ein solches Szenario könnte auch durch andere jüngste technologische Entwicklungen verschärft werden, einschließlich Chinas Entwicklung von Technologien, die die US-Satelliteninfrastruktur, einschließlich Raketenzielsysteme, beschlagnahmen oder anderweitig stören könnten.
„Da wir in einem zunehmend digitalen Zeitalter leben, müssen wir sicherstellen, dass Menschen allein die Macht haben, Atomwaffen zu befehlen, zu kontrollieren und zu starten – nicht Roboter“, sagte Markey.
„Wir müssen die Menschen auf dem Laufenden halten, wenn es darum geht, Entscheidungen über Leben und Tod zu treffen, um tödliche Gewalt anzuwenden, insbesondere für unsere gefährlichsten Waffen.“
Text ist eine Übersetzung vom Epoch Times Artikel: