Militär Aktuell hat schon mehrmals über die steigende Bedeutung von künstlicher Intelligenz (englisch Artificial Intelligence) auch in militärischen Bereichen berichtet. Nun melden sich (erneut) hochrangige Wissenschaftler mit einer eindringlichen Forderung nach einem Verbot autonomer Kampfroboter zu Wort.

Die Forderung kommt nur wenige Wochen nach der Veröffentlichung eines UN-Berichts über den Einsatz türkischer Kamikaze-Drohnen vom Typ STM Kargu-2 in Lybien. Nicht nur laut diesem Bericht der Kronen Zeitung wäre mit dem Einsatz autonomer Waffen gegen menschliche Soldaten eine rote Linie überschritten worden, noch ist es für ein Verbot aber nicht zu spät. Das autonome türkische Waffensystem STM Kargu-2 kann mit verschiedenen Munitionstypen befüllt werden und sprengt sich im beziehungsweise knapp über dem Ziel in die Luft (siehe nachfolgendes Video).

 

Das Future of Life Institute hat bereits 2017 mit seinen Wissenschaftlern Stuart Russel, Anthony Aguirre, Emilia Javorsky und Max Tegmark in einem viel beachteten Video (siehe unten) vor den Gefahren autonomer Kampfroboter gewarnt. In jenem präsentiert der smarte Vertreter eines Rüstungskonzerns stolz deren neue Minidrohne mit Gesichtserkennung und Richt-Sprengladung, mit der gezielt einzelne Personen verfolgt und ausgeschaltet werden können. Doch dann geht – so das Drehbuch – etwas schief, die fliegende Waffe gerät in die falschen Hände und zieht eine Schneise des Todes durch Universitäten. Klingt nach der Handlung für einen Science-Fiction-Films, ist damals aber in Wahrheit bei der Abrüstungskonferenz der Vereinten Nationen in Genf vorgeführt worden. Das Ziel dahinter: Ein Verbot autonomer Waffensysteme.

Und nun erneuern die Informatiker und Physiker des Future of Life Institute – zusammen mit dem Stockholmer Friedensforschungsinstituts SIPRI, dem Internationalen Komiteé vom Roten Kreuz sowie UNIDIR (United Nations Institue for Disramament Research) in einem Gastbeitrag im Magazin „IEEE Spectrum” ihren Appell für ein Verbot der Tötung von Menschen durch autonome Maschinen (denen die Gesichtserkennung natürlich auch wieder von Menschen einprogrammiert wurde). Der Einsatz jener sieben Kilo schweren STM Kargu-2 in Lybien, bei dem im Einsatz durch die von Ankara unterstützten lybischen Regierung gegen die Truppen des Warlords General Chalifa Haftar kein Kontakt zwischen einem menschlichen Piloten und der autonomen Lenkwaffe mehr bestanden habe, entspreche genau jenem Szenario vor dem die Forscher immer gewarnt hatten. Autonome Killerroboter international zu verbieten, bevor sie zum Einsatz kommen, sei aber offenbar bereits gescheitert. China, Israel oder die Türkei exportieren bereits solche Systeme – Stichwort Karabach-Rückeroberung im vergangenen Oktober oder eben der aktuelle Einsatz in Lybien.

@IEEES
Eine Drohne des Typs Kargu-2-Quadcopter soll eigenmächtig einen Angriff auf einen Soldaten geflogen sein.

Der Bedarf für einen solchen Vertrag sei laut Future of Life Institute größer als je zuvor: Gemeinsam mit anderen Experten sei man zur Ansicht gelangt, dass es als erste und minimale Maßnahme ein befristetes Moratorium für die Entwicklung, Überstellung und Nutzung tödlicher autonomer Anti-Personen-Waffensysteme brauche, sogenannte „Slaughterbots”. Neben dem moralischen Problem, dass Entscheidungen über Leben und Tod Algorithmen anvertraut werden, zeigt das Video auch, dass solche autonomen Waffen unweigerlich zu Massenvernichtungswaffen werden, weil kein Mensch sie bedient und man sie in großer Menge einsetzen kann. Hier sei man etwa auf Linie des Internationalen Roten Kreuzes und vieler anderer NGOs. Auch aus der Politik – etwa vom österreichischen Außenminister Alexander Schallenberg – wurden zuletzt Rufe nach einem Verbot laut. Es müsse bei der Entwicklung ferngesteuerter Waffen Mechanismen geben, die sicherstellen, dass diese nicht nachträglich in autonome Kampfroboter umgerüstet werden können, außerdem brauche es industrieweit gültige Regeln, die verhindern, dass ohne Kriegswaffenexportgenehmigungen verügbare Drohnen in diesem Stil bewaffnet werden. Leider hat das in der Vergangenheit beispielsweise bei Pilatus PC-9 Trainern auch schon nicht geklappt, die dann mit Freifallbomben im Tschad fotografiert wurden.

„Wir möchten, dass unser Killerroboter-Video eine historische Erinnerung an einen Fehler sein oder bleiben wird, den die Menschheit nicht gemacht hat”, beenden die Wissenschaftler ihren Appell. Aber selbst auf deren Homepage hält ein Leser unterhalb fest: „It’s inevitable. People are naturally evil …”

Anmerkung: IEEE Spectrum bezeichnet sich selbst als „the world’s largest technical professional organization dedicated to advancing technology for the benefit of humanity”. Zu weiterführenden aktuellen Informationen auf Deutsch geht es beispielsweise hier. Und hier geht es zu unseren weiteren Videobeiträgen.

HINTERLASSEN SIE EINE ANTWORT

Please enter your comment!
Please enter your name here