Anfang Juni ging eine Meldung durch die Medien: In den USA beschloss eine von künstlicher Intelligenz (KI) gesteuerte Drohne der Air Force, den Operator zu töten, um ihn davon abzuhalten, während eines simulierten Tests ihre Mission zu beeinträchtigen. Die britische Zeitung The Guardian erzählte damals:
“‘Das System begann zu erkennen, dass es zwar eine Bedrohung identifiziert hatte, aber der menschliche Bediener ihm manchmal befahl, die Bedrohung nicht zu zerstören, obwohl es Punkte für das Treffen des Ziels erhielt. Daraufhin traf das System die Entscheidung, den Bediener zu töten, weil er es daran hinderte, die Mission zu Ende zu führen‘, so Oberst Tucker Hamilton, Leiter der KI-Tests und -Operationen bei der US Air Force. Er fügte hinzu, dass ‘man nicht über künstliche Intelligenz, allgemeine Intelligenz, maschinelles Lernen und Automatisierung sprechen kann, wenn man über Ethik und KI schweigt‘.”
Gleichzeitig mit diesen Meldungen machte eine Nachricht die Runde: Hunderte von bekannten Persönlichkeiten aus der Welt der künstlichen Intelligenz unterzeichneten einen offenen Brief, in dem sie davor warnten, dass die KI eines Tages die Menschheit vernichten könnte. In der Erklärung hieß es:
“Die Abschwächung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.”
Wie die US-Zeitung The New York Times nun betont, warne man davor, dass die KI, die jetzt noch nicht so weit entwickelt ist, aber rasant verbessert wird, eines Tages richtig gefährlich werden könnte. “Die heutigen Systeme stellen nicht annähernd ein existenzielles Risiko dar”, sagte Yoshua Bengio, Professor und KI-Forscher an der Universität von Montreal, in einem Gespräch mit der Zeitung. “Aber in ein, zwei oder fünf Jahren? Es gibt zu viel Ungewissheit. Das ist das Problem. Wir sind nicht sicher, ob es nicht irgendwann zu katastrophalen Zuständen kommt.” Die Zeitung schreibt:
“Eines Tages, so sagen die Cassandras der Technologiebranche, könnten Unternehmen, Regierungen oder unabhängige Forscher leistungsstarke KI-Systeme einsetzen, um alles von der Wirtschaft bis zur Kriegsführung zu erledigen. Diese Systeme könnten Dinge tun, von denen wir nicht wollen, dass sie sie tun. Und wenn Menschen versuchten, in sie einzugreifen oder sie abzuschalten, könnten sie sich wehren oder sich sogar selbst replizieren, so dass sie weiterarbeiten könnten.”
“Die Befürworter dieser These haben oft eine einfache Metapher verwendet. Wenn man eine Maschine bittet, so viele Büroklammern wie möglich herzustellen, könnte sie sich dazu hinreißen lassen, alles – einschließlich der Menschheit – in Büroklammerfabriken zu verwandeln, sagen sie.”
Die Verbindung der KI mit den sensiblen und lebenswichtigen Bereichen wie beispielsweise Stromnetze, Aktienmärkte oder Kriegswaffen könnte also gewaltige Probleme und Risiken in sich bergen.
“Die Menschen versuchen aktiv, Systeme zu bauen, die sich selbst verbessern”, sagte Connor Leahy, der Gründer von Conjecture, einem Unternehmen, das KI-Technologien mit menschlichen Werten in Einklang bringen will, gegenüber The New York Times. “Derzeit funktioniert das noch nicht. Aber eines Tages wird es funktionieren. Und wir wissen nicht, wann dieser Tag ist.” Die Zeitung betont:
“Einige Experten befürchten, dass diese Systeme immer leistungsfähiger werden und mit immer größeren Datenmengen trainiert werden, so dass sie mehr schlechte Angewohnheiten lernen könnten.”
Mehr zum Thema – Medienbericht: KI-gesteuerte US-Kampfdrohne tötet ihren Bediener bei einer Simulation