Krieg mit all seinen schrecklichen Konsequenzen und schauderhaften Gräueltaten begegnet uns mittlerweile tagtäglich und weltweit. In Jahr 2022 gab es insgesamt 363 Dispute, gewaltlose Krisen, gewaltsame Krisen, begrenzte und waschechte Kriege. Dabei kommen immer mehr automatisierte Systeme, KIs und Roboter zum Einsatz. Dadurch entstehen natürlich moralische und ethische Grundfragen. Vielen fragen sich indessen: Sind Killerroboter die Zukunft des Krieges? Denn sie könnten das Schlachtfeld transformieren. Aber ist die Welt schon bereit für Maschinen, die selbstständig entscheiden, wem und wann sie töten sollen?
Killerroboter und die neue Ära des Krieges
Die Menschheit steht am Rande einer neuen Ära des Krieges. Getrieben von raschen Entwicklungen in Bereich der künstlichen Intelligenz, verändern sich Waffensysteme. Die Einsatzmöglichkeiten für den Krieg steigen dadurch immens. Automatisierte Waffensysteme können mittlerweile eigenständig Menschen identifizieren, anvisieren und entscheiden, ob und wann sie töten. Und das, ohne dass ein Offizier einen Angriff leitet oder ein Soldat den Abzug betätigt. Im Gegensatz zu Soldaten muss man den Maschinen für den Krieg das Gewissen auch nicht heraus trainieren — denn sie haben keines.
Offiziell werden die neuen Killer-Roboter als letale autonome Waffensysteme, kurz LAWS bezeichnet. Viele Länder, darunter die Vereinigten Staaten, China, das Vereinigte Königreich, Indien, Iran, Israel, Südkorea, Russland und die Türkei haben in den letzten Jahren stark in die Entwicklung solcher Waffensysteme für den Krieg investiert.
Ein Bericht der Vereinten Nationen deckte auf, dass türkische Kargu-2-Drohnen im vollautomatischen Modus das Zeitalter dieser neuen Ära eingeläutet haben, als sie bereits 2020 während des Konflikts in Libyen Kämpfer angegriffen haben. Autonome Drohnen spielen auch eine entscheidende Rolle im Krieg in der Ukraine. Sowohl aus Moskau als auch aus Kiew werden diese unbemannten Waffen eingesetzt, um feindliche Soldaten und Infrastruktur ins Visier zu nehmen.
Das Aufkommen und die Nutzung solcher Maschinen führen währenddessen weltweit zu intensiven Debatten unter Expert*innen, Aktivist*innen und Diplomat*innen. Diese führen eine Diskussion über mögliche Vorteile und potenzielle Risiken des Einsatzes von Robotern im Krieg und streiten darüber, ob und wie man sie noch stoppen kann.
Konsens für Krieg möglich?
Doch kann in einer zunehmend gespaltenen geopolitischen Landschaft die internationale Gemeinschaft überhaupt zu einem Konsens über diese Maschinen gelangen? Welche ethischen, rechtlichen und technologischen Bedrohungen gehen genau von solchen Waffen aus? Das sind alles Fragen, die man vielleicht hätte stellen sollen, bevor die Roboter unter dem Deckmantel der Geheimhaltung mit dem selbstständigen Töten im Krieg begonnen haben. Ist jetzt überhaupt ein generelles Verbot noch realisierbar? Oder wäre eine Reihe von Vorschriften realistischer?
Sieh dir diesen Beitrag auf Instagram an
Der Meinung führender Spezialist*innen nach ist ein generelles Verbot autonomer Waffensysteme in absehbarer Zeit unwahrscheinlich. Dennoch fordert eine wachsende Zahl von Stimmen, insbesondere aus dem Globalen Süden, ihre Regulierung. Experten sind überzeugt, dass ein weltweites Tabu wie bei dem Einsatz chemischer Waffen noch möglich ist. Große Militärmächte mögen zwar von den potenziellen Vorteilen solcher Systeme auf dem Schlachtfeld fasziniert sein, doch außerhalb von Regierungen und dem Militär scheint es in der Gesellschaft wenig Interesse an ihnen zu geben.
Unabsichtlicher auf der Todesliste der Killerroboter
Ende März schilderte Yasmin Afina, Forschungsmitarbeiterin am Londoner Chatham House, vor dem House of Lords, der zweiten Kammer des britischen Parlaments, wie die US-amerikanische NSA fälschlicherweise einen Journalisten von Al Jazeera als Kurier von Al-Qaida identifizierte. Diese Zuordnung führte dazu, dass der Journalist auf eine US-amerikanische Beobachtungsliste gesetzt wurde. Im Rahmen von Edwar Snowedens Leaks im Jahr 2013 kamen bereits die Dokumente mit den Informationen ans Tageslicht.
Ein Überwachungssystem wie dasjenige, das hinter diesem Vorfall steht, ist an sich noch keine „Waffenplattform, aber es ermöglicht tödliche Handlungen“, erklärte Afina in ihrer Stellungnahme. „Wenn sie das Ziel angegriffen hätten, wäre das ein absoluter Verstoß gegen das Völkerrecht. Durch solche Fälle wird das Potenzial der LAWS, eskalierende Kettenreaktionen auszulösen, deutlich.“
KI Experten zeigt sich besorgt über die Büchse der Pandorra
Auch führende Experten wie Toby Walsh, ein KI-Experte an der University of New South Wales in Sydney, Australien, zeigt sich bei dem Thema besorgt. In einem Schreiben, das der Nachrichtensender Al Jazerra zitierte, schrieb er an das britische Parlament: „Wir wissen, was passiert, wenn wir komplexe Computersysteme in einer unsicheren und wettbewerbsorientierten Umgebung aufeinanderprallen lassen. Das nennt man die Börse. Der einzige Weg, gefährliche Rückkopplungsschleifen und unerwünschte Ergebnisse zu stoppen, besteht darin, ‚Sicherungen‘ zu verwenden. An der Börse können wir Transaktionen einfach rückgängig machen, wenn eine solche Situation eintritt. Aber den Beginn des dritten Weltkriegs können wir nicht rückgängig machen.“
Das bedeutet nicht, dass Forschende die Entwicklung der Technologie hinter automatischen Waffensystemen stoppen sollten, so Walsh weiter. Diese Technologie könne in anderen Bereichen Vorteile bringen. Algorithmen, die in Autosicherheitssystemen eingesetzt werden, um Kollisionen mit Fußgängern zu vermeiden sind dieselben Algorithmen, „ die in autonome Drohnen einfließen, um Kämpfer zu identifizieren, sie zu verfolgen. Und es bedarf nur einer Vorzeichenänderung, um sie zu töten, anstatt ihnen auszuweichen“, erklärte er. Es wäre „moralisch falsch“ der Welt die Chance zu verweigern, die Zahl der Verkehrstoten zu reduzieren, argumentierte er.
Stattdessen könnte die Lösung darin liegen, das „relativ erfolgreiche Regulierungssystem für chemische Waffen“ zu übernehmen. Wenn chemische Waffen eingesetzt werden, landen sie auf der Titelseite und lösen weltweite Empörung aus. Das Übereinkommen über das Verbot chemischer Waffen der Vereinten Nationen verbietet deren Entwicklung, Produktion, Lagerung und Nutzung.
In Verbindung mit den internationalen Tabus in Bezug auf chemische Waffen hat dies auch dazu geführt, dass bedeutende Rüstungsunternehmen ihre Produktion eingestellt haben. „Wir können Pandora nicht zurück in die Büchse stecken, aber diese Maßnahmen haben den Missbrauch chemischer Waffen auf den Schlachtfeldern weltweit weitgehend begrenzt“, sagte Walsh abschließend.
Gewinne und Risiken für den Einsatz von Killerrobotern im Krieg
Es ist unbestreitbar, dass KI-gesteuerte autonome Waffensysteme aus militärischer Sicht Vorteile bieten. Sie können bestimmte Aufgaben auf dem Schlachtfeld ohne den Einsatz von Soldaten durchführen und so das Risiko von Verlusten verringern. Befürworter*innen argumentieren, dass die Technologie in diesen Systemen menschliche Fehler bei Entscheidungen eliminieren oder reduzieren und Vorurteile ausschließen könnte.
Gegner*innen halten an dieser Stelle das Argument entgegen, dass KIs häufig bereits in ihren Quellcodes rassistische Stereotypen einprogrammiert haben. Da sie ja von Menschen programmiert wurden und ihre Vorurteile hier bereits mit hingearbeitet wurden. Eine größere Genauigkeit hingegen kann bei der Zielerfassung zumindest in der Theorie versehentliche zivile Opfer reduzieren.
Autonome Waffensysteme können auch für defensive Zwecke eingesetzt werden, wobei blitzschnelle Erkennungsalgorithmen eine potenzielle Bedrohung effizienter und genauer als Menschen erkennen und beseitigen können. Dennoch überwiegen nach Ansicht vieler Experten und Menschenrechtsgruppen die Risiken der LAWS die potenziellen Vorteile. Diese reichen von der Möglichkeit technischer Fehlfunktionen ohne Aufsicht hin zu Verstößen gegen das Völkerrecht und den ethischen Bedenken hinsichtlich emotionsloser Maschinen, die über Leben und Tod entscheiden.
Killerroboter: wer trägt die Verantwortung?
Im Jahr 2019 stimmten 126 Vertragsstaaten der Vereinten Nationen einstimmig den von einer Expertengruppe empfohlenen elf Leitprinzipien zu, welche entwickelt wurden, um den aufkommenden Herausforderungen im Zusammenhang mit autonomen Waffen zu begegnen. Eines dieser Prinzipien war die Festlegung, dass das humanitäre Völkerrecht in vollem Umfang auf die potenzielle Entwicklung solcher Waffen anwendbar sein soll. Jedoch passiert im Krieg vieles im Verborgenen, also bleibt die Frage nach dem Kläger und dem Richter hier noch etwas offen.
Denn Experten sagen, dass es unklar ist, wie dieses Prinzip im Nebel des Krieges umgesetzt werden soll. Wenn beispielsweise ein Roboter ein Kriegsverbrechen begeht, würde dann der verantwortliche Kommandeur des Konfliktgebiets als verantwortlich betrachtet werden? Oder würden die Verantwortlichen, die sich dafür entschieden haben, die Maschine einzusetzen, die letzte Verantwortung tragen? Wäre der Waffenhersteller haftbar? All dies „stellt eine große Lücke in der politischen Diskussion“ zu diesem Thema dar. Darin sind sich Forscher des Stockholmer Internationalen Friedensforschungsinstituts (SIPRI), Vincent Boulanin und Marta Bo einige. Wie sie in einem im März erschienen Artikel schreiben.
Krieg der Roboter: Politische oder rechtliche Lösungen?
Es gibt nicht einmal eine „offizielle oder international vereinbarte Definition“ für autonome Waffensysteme, so Boulanin weiter. Die meisten Länder sind sich jedoch einig. „Das entscheidende Element darin besteht. Dass das System in der Lage ist, das Ziel ohne menschliches Eingreifen zu identifizieren, auszuwählen und anzugreifen“.
Nach Boulanin, dem Direktor des Programms für die Steuerung künstlicher Intelligenz am SIPRI, erfüllen bereits heute einsatzbereite Waffensysteme diese Beschreibung. Ein Beispiel dafür ist das von den USA hergestellte Boden-Luft-Raketensystem MIM-104 Patriot. Welches derzeit von vielen Ländern eingesetzt wird.
Sieh dir diesen Beitrag auf Instagram an
„Wir sprechen über eine Fähigkeit, eine Funktion, die in ganz unterschiedlichen Arten von Waffensystemen eingesetzt werden kann, die in verschiedenen Formen und Ausführungen existieren und in sehr unterschiedlichen Arten von Missionen eingesetzt werden können. Also, wenn man etwas verbieten wollte, müsste man genau den Typ von Waffe oder das Szenario eingrenzen, das man besonders problematisch findet“, sagte Boulanin.
Anstatt ein generelles Verbot wäre also eine zweistufige Regelung ein realistischeres Ergebnis. Bei der einige Waffensysteme verboten sind und andere zugelassen werden, wenn sie eine strenge Reihe von Anforderungen erfüllen. Das ist allerdings eine Frage, auf die verschiedene Staaten bis jetzt noch keine Einigung erzielt haben. Wir werden sehen, was die Zukunft bringt, aber wenn der Krieg 3.0 nach der üblichen Marktlogik abläuft. Dann sieht es für uns Menschheit eher schlecht aus im Moment.
Titelbild © Shutterstock
DAS KÖNNTE SIE AUCH INTERESSIEREN
Bildungssystem Österreich: Wo sinnlos Geld verbrannt wird
Österreich hat das zweitteuerste Bildungssystem in ganz Europa. Nach jedem PISA-Test dümpelt das Land dennoch durch einen Sumpf der Durchschnittlichkeit […]
Black Lives Matter - ein Problem, das nicht nur die USA betrifft
Rassistische Übergriffe durch Polizeibeamte werden zu häufig nur den USA zugeschrieben, doch auch in Europa sind solche Vorfälle längst nichts Neues. Hier geben wir euch einen kleinen Einblick in rassistische Polizeihandlungen in Österreich, im schlimmsten Fall mit Todesfolge.
Orthorexie: Wenn gesundes Essen zur Sucht wird
Obst ist gesund, Kuchen ist ungesund. Jeder Mensch teilt Lebensmittel in gesund und ungesund ein. Grundsätzlich nichts Ungewöhnliches. Jedoch entwickeln […]
Spiritueller Narzissmus: Wenn Yoga, Meditation und Co nur das Ego fördern
Jede:r strebt in einer gewissen Form nach gesellschaftlicher oder sozialer Anerkennung. Das Ego füttern zu wollen, resultiert aus unserer zunehmend […]
Warum Konzerttickets so schweineteuer sind
Warum die Ticketpreise für die Konzerte unserer Lieblingsstars so teuer sind. Die Antwort: Nachfrageorientierte Preisgestaltung und mehr.
Instagram: Das toxische Netzwerk? - gelungene ARTE-Doku klärt auf
Istagram ist mittlerweile zu einem must have geworden. Wie mitunter gefährlich diese App jedoch ist, veranschaulicht eine sehenswerte ARTE-Doku, die mangesehen haben muss.