Künstliche Intelligenz

Bald entscheiden Militärroboter über Leben und Tod

Fabian Schweyher12. Februar 2018
Die Entwicklung selbstständig agierender Waffensysteme steht kurz bevor. Damit gibt der Mensch die Kontrolle über den Einsatz von Waffengewalt an den Computer ab. Noch gibt es Versuche, die Macht der Maschinen einzugrenzen.

Den Vergleich mit dem Terminator kann Marcel Dickow nicht mehr hören. Der Experte für autonome Waffensysteme von der Stiftung Wissenschaft und Politik (SWP) äußert sich nicht dermaßen deutlich, aber das Unbehagen ist zu spüren. „Ich bin skeptisch gegenüber der Vorstellung, Roboter mit einer humanoiden Erscheinung zu verbinden und dass sie sich genauso wie ein Mensch verhalten“, sagt er.

Anfang der Revolution

Beim Blick auf bereits existierende Militärroboter wirkt der Vergleich umso alberner. In Israel fährt ein Patrouillenfahrzeug gerade mal eine vorher festgelegte Strecke ab. Beeindruckender ist da schon ein Kampfroboter von Samsung, der – fest installiert – mit seinen Kameras die innerkoreanische Grenze beobachtet und mit einem Maschinengewehr auf alles schießen kann, was sich bewegt.

Beide Beispiele stehen für den kläglichen Anfang einer Revolution, die in den kommenden Jahren die gesamte Militärtechnik umkrempeln wird. Nicht nur werden vollkommen neue Waffen zum Einsatz kommen, sie werden Menschen auch auf eigene Faust töten.

Ohne menschliches Zutun

Marcel Dickow
Marcel Dickow von der Stiftung Wissenschaft und Politik

Die Revolution vollzieht sich schleichend und ohne großes Tamtam. Dickow erklärt: „Ein Waffensystem besteht nicht aus einem roten Knopf, der gedrückt wird und die Waffe auslöst.“ Bevor ein Projektil auf ein Ziel zurast, vollziehen sich mehrere Prozesse: den Raum beobachten, die Lage einschätzen, Ziele bestimmen, abwägen, entscheiden – und eben feuern. Marcel Dickow sagt, dass die einzelnen Schritte des sogenannten targeting cycle zunehmend von Computern übernommen würden.

In Fachkreisen ist die Rede von „Assistenzsystemen“, die die Menschen entlasten. Bekannt sind sie aus dem zivilen Leben – der Spurhalteassistent in modernen Autos, kleine Putzroboter oder Sprachassistenten wie Siri. Im Handel erhältliche Flugdrohnen können auch ein vorher festgelegtes Ziel verfolgen, ohne menschliches Zutun. Die Technik entwickelt sich weiter und macht vor dem Militär nicht Halt. Nach Angaben von Dickow halten die digitalen Helfer zunehmend Einzug in Waffensysteme. Es sei nur noch eine Frage der Zeit, bis alle Funktionen vollautomatisch ausgeführt werden können. Der Experte warnt: „Wir stehen an der Schwelle, dass Waffensysteme selbstständige Entscheidungen treffen.“

Keine Kontrolle mehr

Marcel Dickow wünscht sich internationale Regeln für den Einsatz autonomer Waffen, über die der Mensch schon bald keine vollständige Kontrolle mehr habe. Was das bedeutet, macht er anhand eines Beispiels deutlich: „Wenn das System fünf Ziele zur Auswahl anbietet, dann handelt es sich dabei um eine Vorauswahl, die nicht die Realität widerspiegeln muss.“ Dies zeige, wie früh Assistenzsysteme über Leben und Tod bestimmen. Sein Fazit: „Wir dürfen die Entscheidung über den Einsatz von Waffengewalt nicht den Maschinen überlassen.“

Der Einsatz autonomer Waffen widerspreche außerdem der Genfer Konvention, so der Experte. Ihr zufolge dürfen Zivilisten nicht attackiert werden. Außerdem muss jeder militärische Angriff notwendig und angemessen sein. „Die technischen Systeme werden dies in absehbarer Zeit nicht leisten können“, ist sich Marcel Dickow sicher. Das sei nicht überraschend, schließlich handle es sich um menschliche und juristische Prinzipien.

Schwarmintelligenz

Für die Zukunft ist der Experte pessimistisch. Er leitet ein vom Auswärtigen Amt unterstütztes Projekt, in dem sich internationale Wissenschaftler über die Regulierung autonomer Waffen austauschen. Allerdings wollten die USA, Großbritannien und Israel Einschränkungen verhindern, während die Position Russlands und Chinas unklar sei. Dickow erwartet eine Regelung, die dem Verbot von Landminen oder Atomwaffen ähnelt. Sprich: Viele Länder stimmen einer verbindlichen Regelung zu, während die entscheidenden Staaten außen vor bleiben.

Ohne jegliche Regulierung schreitet die technologische Entwicklung voran. Marcel Dickow, der bei der SWP dem Forschungsbereich Sicherheitspolitik vorsteht, sieht in der Robotik zwei Trends. Zum einen würden Waffensysteme immer kleiner, wodurch sie schwieriger zu entdecken seien. Außerdem ließen sie sich einfacher und in größeren Mengen herstellen. Zum anderen würden Maschinen zunehmend im Schwarm eingesetzt. „Die einzelnen Maschinen sind dumm“, sagt er. Erst im Zusammenspiel entwickelten sie Intelligenz und Fähigkeiten. Gegenwärtig können Drohnen bereits selbstständig Brücken bauen.

Töten per Gesichtserkennung

Schon jetzt ist für Dickow absehbar, welche Waffen in 20 Jahren zum Alltag gehören. Nach Angaben des Experten werden unbemannte Kampfflugzeuge zum Arsenal gehören, die Bodenziele oder Flugzeuge selbstständig angreifen. In dem Szenario jagen U-Boot-Roboter unter der Meeresoberfläche Unterseeboote und zerstören sie. Zum Einsatz kommen wahrscheinlich auch kleine Drohnen, die hinter feindlichen Linien nach Feinden suchen, sie per Gesichtserkennung identifizieren und töten. „Im Grunde haben wir bereits die Technologie dafür“, sagt er dazu. Mit dem Terminator aus dem gleichnamigen Film hat das wahrlich nichts gemein.

weiterführender Artikel

Kommentare

Bald entscheiden Militärroboter über Leben und Tod

Im Koalitionsvertrag heißt es: "Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten."

Das kann ich unterstreichen. Aber kurz vorher heißt es: "Wir wollen die vereinbarten NATO-Fähigkeitsziele erreichen und Fähigkeitslücken schließen. Deutschland wird auch künftig einen angemessenen Beitrag zum Erhalt der Abschreckungs- und Verteidigungsfähigkeit des Bündnisses und zu einer starken europäischen Verteidigung leisten." Der Bündnispartner USA setzt doch - auch unter Friedensnobelpreisträger Obama - Drohnen zur Tötung von Menschen ein, und auch die Bundeswehr verfügt über Drohnen, die angeblich zur Aufklärung dienen, sicherlich aber auch zum Töten eingesetzt werden können.

Wie verträgt sich dies miteinander?

Unbemannt ≠ autonom

Unbemannt ≠ autonom