Menü
Dresdner Neueste Nachrichten | Ihre Zeitung aus Dresden
Anmelden
Panorama Algorithmen kennen keine Moral
Nachrichten Panorama Algorithmen kennen keine Moral
Partner im Redaktionsnetzwerk Deutschland
14:02 26.05.2018
Autonome Waffensysteme sollen selbstständig nach Zielen suchen, sie auswählen und bekämpfen – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten. Quelle: iStockphoto
Anzeige
München

Den Tisch im Restaurant reserviert der digitale Assistent in meinem Smartphone. Und falls ich ein Glas zu viel getrunken habe, ist’s halb so schlimm, dann chauffiert mich das selbstfahrende Auto nach Hause.

Ja, das anbrechende Zeitalter der künstlichen Intelligenz (KI) eröffnet verlockende Aussichten. Viele Lebensbereiche werden von Technologien verändert, die wir unter den breiten Sammelbegriff der KI fassen. Prozesse werden automatisiert, werden schneller, effektiver, präziser – aber der Mensch gibt auch ein gutes Stück Kontrolle an Maschinen ab. Das kann, wie die beiden Eingangsbeispiele zeigen, durchaus praktisch und entlastend sein.

Es wundert nicht, dass auch Streitkräfte auf der ganzen Welt längst damit begonnen haben, den Einsatz von KI für militärische Zwecke auszuloten. Teil dieses Prozesses ist die zunehmende Automatisierung in militärischen Systemen. Im Falle sogenannter autonomer Waffensysteme gipfelt diese Entwicklung darin, dass die Maschine selbstständig nach Zielen sucht, diese auswählt und bekämpft – ohne menschliche Aufsicht und Kontrolle. Entwicklung und Einsatz solcher Systeme sind derzeit heftig umstritten.

Autonome Waffen schaffen eine Verantwortungslücke

Dabei ist das selbstständige Erfassen und Bekämpfen von Zielen durch Waffensysteme weder gänzlich neu noch per se problematisch. Verteidigungssysteme mit dieser Fähigkeit sind seit Jahrzehnten weltweit im Einsatz. Fangen diese zum Schutz von Soldatinnen und Soldaten blitzschnell anfliegende Munition wie Mörsergranaten oder Raketen ab, feuern sie also auf unbelebte Ziele, dann bleiben sie eine hochwillkommene und gänzlich unwidersprochene Einsatzmöglichkeit für Autonomie in Waffensystemen.

Hält die gleiche Form von Waffenautonomie jedoch in mobilen Systemen Einzug, mit denen belebte Ziele oder Menschen direkt gesucht und attackiert werden, dann wirft das gravierende Probleme auf.

Aus kriegsvölkerrechtlicher Sicht erzeugen solche Systeme eine Verantwortungslücke. Denn es ist unklar, wer die Verantwortung trägt, wenn autonome Waffen Zivilisten ein dem militärischen Ziel unangemessenes, nicht rechtfertigbares und somit illegales Leid zufügen. Ein System, das zwar keinen Hass, aber genauso wenig Mitgefühl kennt, kann man schließlich kaum vors Kriegsgericht stellen.

Gefahr nicht intendierter Eskalationen

Auch setzt das weltweit stattfindende militärische Wettrennen um Autonomie starke Anreize zur Weiterverbreitung dieser Waffentechnologie. Das verschlingt eine Menge Geld, bedroht aber vor allem die globale militärische Stabilität und erhöht die Gefahr nicht intendierter Eskalationen. Von den Finanzmärkten kennen wir die unvorhersehbaren Interaktionen zwischen Algorithmen schon, die bisweilen in sogenannten flash crashes münden – was, wenn nicht nur unversehens Aktienkurse einbrechen, sondern wenn Waffensysteme schießen?

Schließlich stellt sich noch die vielleicht grundlegendste und wichtigste, moralische Frage – nämlich die, ob es nicht die Würde des Menschen verletzt, Entscheidungen über Leben und Tod auf dem Schlachtfeld an anonyme Algorithmen zu delegieren. Expertinnen und Experten auf der ganzen Welt warnen bereits seit Jahren öffentlichkeitswirksam vor den völkerrechtlichen, sicherheitspolitischen und ethischen Risiken, sollten Waffensysteme zukünftig außerhalb der menschlichen Verfügungsgewalt operieren.

Es warnen nicht nur viele namhafte Wissenschaftlerinnen und Wissenschaftler wie der jüngst verstorbene Stephen Hawking, sondern auch Größen der Technologiebranche wie Elon Musk oder Demis Hassabis und Mustafa Suleyman, die Gründer von Googles genialer KI-Schmiede DeepMind, deren Software AlphaGo kürzlich den Weltmeister Lee Sedol im altehrwürdigen Strategiespiel Go spektakulär bezwang.

Es braucht ein Bekenntnis von Regierung und Bundeswehr

Angeregt durch die Wissenschaft und die Zivilgesellschaft in Form der Campaign to Stop Killer Robots (Kampagne zum Stopp von Killerrobotern) diskutiert seit 2014 auch die Staatengemeinschaft bei den Vereinten Nationen in Genf das Thema. 26 Staaten fordern bereits ein völkerrechtlich bindendes Verbot von Waffen, die ohne menschliche Verfügungsgewalt operieren. Österreich etwa hat sich jüngst zu dieser Forderung bekannt. Überraschenderweise sendet sogar China Signale in dieser Richtung.

Auch die Bundesregierung erteilt in den Koalitionsverträgen von 2013 und 2018 autonomen Waffensystemen eine klare Absage – wie hochrangige Bundeswehrvertreter auch. Es stünde Deutschland aber nach innen wie außen gut zu Gesicht, wenn diese Überzeugung bald in einem offiziellen Leitliniendokument der Bundeswehr festgeschrieben würde.

Streitkräfte wollen von automatisierten, effektiveren und präziseren Prozessen profitieren. Sie sollen das auch. Die Frage ist also nicht ob, sondern wie KI militärisch genutzt wird.

Die Weichen werden heute gestellt

Die Weichen für Autonomie in Waffensystemen werden heute gestellt. Und anders als im Falle des autonomen Autos, das uns nach dem Dinner gern nach Hause fahren darf, wären wir gut beraten, die Kontrolle über unsere Waffen nicht gänzlich aus der Hand zu geben. Weil die langfristig drohenden Risiken die kurzfristig lockenden Vorteile überwiegen.

Und vor allem, weil mit dem Abtreten der Verfügungsgewalt an Algorithmen eine moralische Grenze überschritten wäre. Denn das Mindeste, das wir den im Krieg von uns getöteten Menschen schuldig sind, ist, mit ihrem Sterben unser menschliches Gewissen zu belasten.

Frank Sauer Quelle: privat

Zur Person: Frank Sauer lehrt und forscht als Politikwissenschaftler an der Universität der Bundeswehr München. Gemeinsam mit weiteren Autoren hat er kürzlich seine Studie “Autonomy in Weapon Systems: The Military Application of Artificial Intelligence as a Litmus Test for Germany’s New Foreign and Security Policy“ bei der Heinrich-Böll-Stiftung veröffentlicht.

Von Frank Sauer

In Serbiens Nachbarländern gilt schon länger Tempolimit 130 auf Autobahnen. Nun hat auch das Transitland die Geschwindigkeitsbegrenzung angepasst, aus Rücksicht auf Urlauber, die oft in die Radarfalle tappen.

26.05.2018

Die Iren warten derzeit auf das Ergebnis des Abtreibungsreferendums, Befürworter der Abschaffung des Verbots von Schwangerschaftsabbrüchen sind optimistisch. Aber auch in anderen Ländern der EU herrschen strikte Verbote. Ein Überblick.

26.05.2018

Als tunesische Fischer vor der Küste der Ferieninsel Djerba ihre Netze aus dem Wasser ziehen, trauen sie ihren Augen kaum. Ein Weißer Hai landete als Beifang an Bord. Das Tier brachte ganze 780 Kilogramm auf die Waage.

26.05.2018
Anzeige