Die Vereinten Nationen konnten sich Mitte Dezember in Genf wieder nicht auf Beschränkungen oder ein Verbot von Entwicklung und Einsatz sogenannter „Killer-Roboter” einigen. Angesichts der rasanten technologischen Fortschritte auf dem unbemannten Sektor löst die (Nicht-)Entscheidung bei Experten für künstliche Intelligenz, Militärstrategie, Abrüstung und humanitärem Recht große Besorgnis aus.

Seit acht Jahren argumentieren Regierungen auf der ganzen Welt, dass jene UN-Konvention über Verbreitung und Kontrolle konventioneller Waffen (CCW) das geeignete Forum sei, um auch auf die moralischen, ethischen, humanitären, Sicherheits- und rechtlichen Herausforderungen zu reagieren, die autonom(ere) Waffensysteme (auch „Killer-Roboter” genannt) für die internationale Gemeinschaft darstellen. Von vielen Staaten, NGOs und Aktivisten war daher erwartet worden, dass die bereits sechste Überprüfungskonferenz des Übereinkommens ein entscheidendes Treffen über wenigstens eine Art regulierter Zukunft tödlicher autonomer Waffensysteme (LAWS) sein würde. Jene könn(t)en Ziele ohne menschliches Zutun auswählen und mit auch tödlicher Wirkung angreifen, ihre „Entscheidungen” basieren auf Software für künstliche Intelligenz, bei der es sich im Wesentlichen um Reihen von programmierten, aber zuletzt auch lernenden, Algorithmen handelt.

@United Nations
Dutzende Länder wollen autonome Waffensysteme verbieten. Unter anderem Russland und die USA haben die Änderung der UN-Waffenkonvention bei den jüngsten Verhandlungen in Genf blockiert.

Ein Schritt zurück
Es war Genf also (wieder) eine historische Gelegenheit für die Staatengemeinschaft, Schritte zum Schutz der Menschheit vor Autonomie bei der Anwendung von Gewalt zu unternehmen und einen Wendepunkt für den diplomatischen Prozess zu setzen. Aber wie leider vorherzusehen, wurde diese nicht genutzt – die Konferenz scheiterte erneut. Ja, es war im Gegenteil ein Treffen, bei dem es einer nur Handvoll Staaten erlaubt wurde, früher Erreichtes sogar rückgängig zu machen, die Aufnahme neuer Gespräche (zum Beispiel über thermobarische Aerosol-Vakuummunition) zu blockieren und so sicherzustellen, dass zukünftige Diskussionen in diesem Forum über autonome Waffen in einer Art formalistisch-sinnloser Sterilität gefangen zu sein scheinen. Folglich konnten sich die Staaten nicht auf ein weiteres Vorgehen einigen, obwohl die Mehrheit der Länder diesbezüglich ein neues Völkerrecht verankert sehen wollen. Auch das Internationale Komitee vom Roten Kreuz hatte in den Wochen davor darauf hingewiesen, dass „der Verlust menschlicher Kontrolle und Urteil bei der Anwendung von Gewalt und dem Einsatz von Waffen aus humanitärer, rechtlicher und ethischer Sicht Anlass zu ernster Besorgnis gibt”.

Dies aber auch, weil die CCW nach Verfahren arbeitet, die noch von Mentalität und Mechanik des Gleichgewichts der Kräfte aus dem Kalten Krieg geprägt sind. Durch die Beibehaltung eines Konsensansatzes, der jedem Staat ein wirksames Vetorecht einräumt, wird der CCW garantiert immer auf den kleinsten gemeinsamen Nenner enden müssen. Die USA, China, Russland, Großbritannien, Israel und Südkorea – Länder, die alle bereits autonome Waffen entwickeln – wurden von Kritikern beschuldigt, diese Konsensregel zu nutzen, um Fortschritte in Richtung einer möglichen Regulierung zu blockieren und damit die überwiegende Mehrheit der Nationen als Geisel zu nehmen. Bei aller Reflexion – und Frustration – über die Geschichte des CCW-Übereinkommens, ist es daher vielleicht nützlich, es als ein Produkt einer bestimmten Zeit zu sehen und dass es von Anfang an nur teilweise Antworten auf Fragen des zivilen sowie kollateralen Schadens geben konnte, die rascher als alle Regularien sich entwickelnde Waffentechnologien aufwerfen. Also eine Art institutioneller Rahmen, in dem Diskussionen gefördert werden können, es jedoch vermessen wäre, damit zu tatsächlich greif- und prüfbaren Lösungen zu kommen. Es hält – wie einer der Teilnehmer es ausdrückte – aber die wichtige Grunderkenntnis aufrecht, dass „Staaten ein Gespräch darüber führen müssen, wie wir uns gegenseitig töten dürfen”. Der Übergang von diesem Gespräch zu tatsächlichen rechtlichen Einschränkungen erfordert aber Maßnahmen an anderer Stelle. Wie eben durch multinationale Anstrengungen und zivilgesellschaftliche Plattformen und den öffentlichen Druck den jene ausüben können.

@armasuisseWenigstens sagte aber zum ersten Mal im vergangenen Jahr der Großteil der 125 Nationen, die der CCW-Konvention angehören, dass sie neue Gesetze für autonome Waffensyseme einführen wollten. Unter anderem waren aber die USA und Russland dagegen, was ein umfassendes oder breiter gefasstes Abkommen unmöglich machte. Auch das Vereinigte Königreich und mehrere andere Nationen wie Israel, Indien oder der Iran erhoben ebenfalls Einwände. Trotzdem hat sich eine überwiegende Mehrheit dafür gefunden, die CCW-Treffen heuer fortsetzen – aber eben ohne auf ein ganz bestimmtes technologisch definierbares Ziel hinzuarbeiten.

Was genau gemeint ist
In einigen kritisch-enttäuschten Medienberichten rund um die Konferenz wurde mit Bezug auf die USA deren Einsatz von Drohnen (besser: unbemannte, bewaffnete Luftfahrzeuge, UCAVs) für gezielte außergerichtliche Tötungen insbesondere von identifizierten Angehörigen oder Anführern terroristischer Gruppen weltweit erwähnt sowie verurteilt. Dabei werden aber – wie so oft – zwei verschiedene technische Entscheidungsstränge vermischt und dem Thema des Genfer Treffens unzutreffend zugeordnet. Wenn beispielsweise der US-Angriff mit einem Hellfire-Flugkörper gegen ein falsch identifiziertes ISIS-K-Terroristen-Safe-House während des chaotischen Abzugs aus Kabul vom 29. August 2021 als abschreckendes Beispiel herangezogen wird (dabei wurden zehn Zivilisten getötet, darunter bis zu sieben Kinder, was das Pentagon später als „tragischen Fehler” bezeichnete), wurde jene Attacke aber nicht von autonomer oder selbst lernender künstlicher Intelligenz (KI) geleitet, sondern beruhte auf fehlerhaften Geheimdienstinformationen, wie es häufig in Konflikten und Kampfgebieten im Irak, Libyen, Somalia, Jemen, Syrien und Afghanistan vorgekommen ist, mit wahrscheinlich vielen weiteren irrtümlich oder unabsichtlich trotzdem getöteten Unbeteiligten. Die gegenständliche MQ-9 Reaper-Drohne samt deren Waffeneinsatz wurden von anderswo auf der Welt – wie beispielsweise der Creech-AFB in Nevada oder vielleicht via Sat-Link über Ramstein – gesteuert und dann die Hellfire ausgelöst. Bei der Genfer Konferenz ging es aber um die Eindämmung oder Verhinderung einer konzeptionell vorgesehenen beziehungsweise sich ergebenden letalen Wirkungsentscheidung durch das Gerät selbst, basierend auf Ratschlüssen kummulierter Datenevolution. Die allermeisten Drohnen werden heute aber immer noch von einem „Man-In-The-Loop” ständig gesteuert und befehligt. Es geht hier primär um die Verhinderung des Einsatzes ohne einen solchen.

@TRT
Die Überwachung mit Hilfe Künstlicher Intelligenz durchdringt schon jetzt zahlreiche Lebensbereiche.

Frustration bei Aktivisten
Ben Donaldson, Head of Campaigns bei der United Nations Association – UK sagte am Ende des Treffens am 17. Dezember: „Das Ergebnis ist leider das Ende von Rufen nach dringendsten Maßnahmen der Mehrheitsregierungen, der Tech-Community und des UN-Generalsekretärs. Es ist kein Zufall, dass dieses UN-Gremium trotz achtjähriger Diskussion nichts vorzuweisen hat, während die militärischen Investitionen in autonome Waffen und ,schwärmende’ Roboter in die Höhe schnellen. Die Handvoll mächtiger Staaten, welche diese Waffen entwickeln, sind dieselben Staaten, die dafür verantwortlich sind, den Fortschritt durch die Schaffung immer neuer rechtsverbindlicher Regeln zu blockieren”, so Donaldson, der auch Mitglied des Lenkungsausschusses der UK Campaign to Stop Killer Robots ist.

Trotzdem bleibt Donaldson im Grunde optimistisch: „Die Grenzen des CCW als Forum sind nun zwar klar offengelegt. Aber eine starke Koalition aus Staaten, Zivilgesellschaft und prominenten Technologieführern ist entschlossen, Fortschritte zu erzielen. Die erfolgreichen Abkommen über Streumunition und Landminen haben gezeigt, dass auch außerhalb der UN Fortschritte erzielt werden können, und progressive Staaten scheinen bereit zu sein, dafür ins Rampenlicht zu treten. Im Jahr 2022 erwarten wir, dass die Mehrheit, die sicherstellen will, dass die Entscheidung zum Töten niemals an eine Maschine ausgelagert werden darf, mit der Arbeit an einem ganz neuen Vertrag zum Verbot dieser Waffen beginnen wird. Jene Staaten, die sich schuldig gemacht haben, diesbezüglich Maßnahmen bei den Vereinten Nationen zu blockieren, werden entscheiden müssen: Auf welcher Seite der Geschichte wollen wir stehen.?”

@STM
Sehen unscheinbar aus: Kargu-Drohnen von STM, die bereits im libyschen Bürgerkrieg zum Einsatz kamen.

Von anderen Bewegungen kam im Nachhall deutlich weniger Optimismus. Zum Beispiel von Amnesty International als eine der führenden Kräfte in der „Stop Killer Robots Coalition”. Dort erinnerte man daran, dass bislang bereits 66 Länder einen neuen, rechtsverbindlichen Rahmen für autonome Waffensysteme gefordert haben. Aber das Zeitfenster zur Regulierungen sogenannter „Killer-Roboter” werde immer kleiner, da die Forschung und das Testen dieser Waffen rasant voranschreiten. Laut Amnesty International werden solche tödlichen Maschinen – es geht in der ganzen Anstrengung übrigens ganz überwiegend um luftgestützte Systeme – bereits heute auf dem Schlachtfeld eingesetzt. So wurden als erster wirklich solide vor der UN dokumentierter Anwendungsfall dieser Art von Waffen, im libyschen Bürgerkrieg Kargu-Drohnen der türkischen Firma STM eingesetzt. Das sind kleine tragbare Drehflügel-Angriffsroboter (laut der STM-Website bieten sie „Präzisionsangriffsfähigkeiten für Bodentruppen”), mit denen einzelne Soldaten gejagt und getötet wurden. Amnesty International warnt: „Das wird im Grunde die Waffe der Wahl für jeden sein, der jemanden töten will. Mittels kleinem ,Killer-Roboter’ (englisch Slaughterbots) wäre im Grunde jeder in der Lage, anonym jeden zu ermorden, der ihn verärgert hat oder sich gegen ihn stellt. Das geht zudem ganz leicht vom rein militärischen Fokus bis tief in den nicht-stsaatlichen Bereich und die internationale Kriminalität hinein.”

@University Toronto
Ray Acheson, Direktorin von Reaching Critical Will, Women’s International League for Peace and Freedom.

Ray Acheson, Direktorin von Reaching Critical Will, Women’s International League for Peace and Freedom kommentierte: „Das war ein episches Versagen. Die blockierenden Länder haben die vergangenen acht Jahre damit verbracht, die angeblichen Tugenden autonomer Waffensysteme zu vertreten. Wir brauchen aber ein rechtsverbindliches Instrument, das klare Verbote und Einschränkungen enthält, die sicherstellen, dass eine sinnvolle menschliche Kontrolle über Waffen und die Anwendung von Gewalt aufrechterhalten wird und das die Menschenrechte und die Würde schützt. Im Gegensatz dazu nimmt ein Verhaltenskodex wie er von den USA vorgesehen ist, die Entwicklung autonomer Waffen als gegeben hin und fördert dies sogar, indem er zunehmend autonome Gewalt normalisiert. Wir sind bereits diesen Weg gegangen, die Menschen von der Gewalt zu distanzieren, die sie mit dem Einsatz bewaffneter Drohnen und anderer Technologien der modernen beziehungsweise künftigen Fernkriegsführung ausüben. Diese Waffen haben unglaubliches menschliches Leid und zivile Opfer verursacht, sie haben das Völkerrecht untergraben und die Schwelle für die Anwendung von Gewalt gesenkt. Und im sogenannten ,War-On-Terror’ wurden sie seit 2001 unverhältnismäßig häufig gegen die Bevölkerung im globalen Süden eingesetzt.”

Aufrüttelnder Film
Unternehmen, die solche Systeme herstellen, versuchen, KI einzusetzen, die die thermische Signatur eines menschlichen Ziels identifizieren oder dessen Gesicht über eine Kamera identifizieren können. Trotzdem erfordert die Unterscheidung zwischen Kämpfern und Nichtkombattanten Genauigkeit und Präzision, welche vielfach den Maschinen nicht zugetraut wird. So dachten beispielsweise auch die Macher eines schockierend gemachten Kurzfilms des Future of Life-Institut (FLI, siehe unten), eine Gruppe von KI-Aktivistinnen rund um den MIT-Physiker und KI-Analysten Max Tegmark. Auch der High-Tech-Milliardär Elon Musk unterstützt das Institut finanziell. Der neue Film warnt vor „der zunehmenden Verbreitung entsprechender KI-Systeme, die Menschen ohne menschliches Zutun identifizieren, auswählen und töten könnten. Das FLI unterstützt daher die Haltung des Internationalen Komitees vom Roten Kreuz (IKRK), das ein rechtsverbindliches internationales Verbot für autonome Waffen fordert, die auf Menschen zielen.”

Schon 2017 hatte FLI übrigens einen solchen Film produziert, in dem wie auf einem Kongress ein solches „revolutionäres Produkt” angepriesen wird – und dann „auskommt” (siehe unten). Jener wurde damals als unrealistisch und technisch unmöglich kritisiert. Seit der Veröffentlichung sind aber zahlreiche autonome Kamikaze-Drohnen (Loitering Munition) in ähnlicher Anwendung beispielsweise seitens Aserbaidschans gegen Armenien oder von Israel gegen die Hamas zum Einsatz gebracht worden, weitere solche Waffensysteme sind derzeit in Arbeit und ein sektorales globales Wettrüsten sei ohne regulatorische Vorgaben im Gange, so Emilia Javorsky von FLI.

Vielleicht aber auch eine Chance?
Während diese diversen Aktivisten von den Ergebnissen der Sitzungen des UN-Ausschusses bitter enttäuscht waren, sagte Verity Coyle, eine leitende Beraterin von Amnesty International, die sich auf deren Kampagne für ein Verbot der Waffen konzentriert, dass sein Scheitern kontraintuitiv die beste Gelegenheit seit Jahren für wirksame internationale Maßnahmen zur Einschränkung ihrer Entwicklung darstellen könnte. „Ja, es war ein Autounfall, aber kein tödlicher. Das liegt daran, dass er die Möglichkeit bietet, die Diskussion über einen internationalen Vertrag, der LAWS einschränkt, auf einen anderen diplomatischen Ort zu verlagern, an dem eine Handvoll Staaten nicht in der Lage sein werden, den Fortschritt zu vereiteln. Und die rund 60 Länder, die für ein Verbot sind, müssen eine Entscheidung über den Beginn eines solchen parallelen Prozesses treffen, wo Konsensregeln nicht verwendet werden könnten, um den Willen der Mehrheit zu blockieren.” Darüber hinaus haben Tausende von Informatikern und Forschern der künstlichen Intelligenz Petitionen unterzeichnet (siehe hier), die ein Verbot autonomer Waffen fordern, und sich verpflichtet, nicht an ihrer Entwicklung zu arbeiten. Nun, sagte Coyle, sei es „wichtig, diesen Schwung mitzunehmen und ihn in einem anderen Forum zu nutzen, um auf ein Verbot zu drängen”.

Österreichischer „Ableger”
Bereits von 15. bis 16. September 2021 fand eine von Österreich organisierte virtuelle Konferenz zum Thema „Safeguarding Human Control over Weapons” statt. Österreichs (damaliger) Außenminister Alexander Schallenberg und Neuseelands Abrüstungsminister Phil Twyford forderten dort nachdrücklich Maßnahmen zu einem neuen Völkerrecht, das Verbote und Regelungen für autonome Waffensysteme festlegt.

Diese politischen Überlegungen wurden durch die moralische und rechtliche Analyse des Vizepräsidenten des IKRK, Gilles Carbonnier, stark untermauert. UN-Untergeneralsekretär Izumi Nakamitsu bekräftigte, dass sich der UN-Generalsekretär in dieser Frage klar ausgedrückt habe, indem er autonome Waffen zuvor als „moralisch abstoßend und politisch inakzeptabel” bezeichnete und ein Verbot forderte.

Anschließende Panels boten Raum für Expertenbeiträge zu rechtlichen Bedenken, moralischen und ethischen Perspektiven und zu den Auswirkungen auf Frieden und Sicherheit. Unter anderen auch durch den „Drohnenpapst” des Bundesheeres Oberst des Generalstabsdienstes Markus Reisner und der bereits erwähnten Emilia Javorsky von FLI. Während deren Inhalt hauptsächlich analytisch war, wurde klar erkannt, dass eine Reaktion auf der Grundlage von Verboten und Vorschriften als zukunftsweisend angesehen wird. Das International Committee for Robot Arms Control betonte Bedenken hinsichtlich der Fehlerhäufigkeit versus Geschwindigkeit der Entscheidungsfindung. Die UNESCO sprach über die Notwendigkeit einer Standardsetzung für KI und erklärte, dass „definierte Standards sogar die Entwicklung und Nutzung von KI für friedliche und nützliche Zwecke unterstützen”. Zudem werde „die Fernkriegsführung als so präzise dargestellt – aber solche Behauptungen sind weit von der Realität vor Ort entfernt”.

Abschließend sagte Alexander Kmentt, Direktor der Abteilung Abrüstung, Rüstungskontrolle und Nichtverbreitung des österreichischen Außenministeriums, dass wir „dieses Thema dringend angehen und diese Waffen so regulieren müssen, dass der Mensch in den Mittelpunkt rückt”. Politischer Wille sollte zu Normen für den Umgang mit dieser Technologie führen und die Rolle der Künstlichen Intelligenz in Konflikten der Zukunft definieren. Der auffälligste Aspekt der Konferenz war jedoch die – drei Monate später im Genf schon wieder gedämpfte – Zuversicht, mit den politischen Führern dieses Thema nun angehen könnten. Nach fast einem Jahrzehnt politischer Arbeit sei nun die Bühne für die Entwicklung einer völkerrechtlichen Antwort bereit.

Dazu die Videomessage von Marit Seyer, Obfrau von der ebenfalls an der UN-Konferenz teilnehmenden Plattform KRC Austria (siehe hier), sowie die Details der Wiener Konferenz als vom Außenministerium erstellte Zusammenfassung auf der Homepage der Veranstaltung.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here