Die Dokumentation "Killer-Roboter – Dürfen Maschinen töten?" thematisiert die Kriegsführung der Zukunft, in der Maschinen darüber entscheiden könnten, wer auf dem Schlachtfeld sterben muss.

Es klingt zunächst absurd. Aber schon bald könnten der Verkehr der Zukunft und der Krieg der Zukunft etwas Entscheidendes gemeinsam haben: Nicht mehr der Mensch wird die Entscheidungen treffen, sondern die Maschine. Auch die Probleme, die sich daraus ergeben, ähneln sich. Denn was, wenn Unschuldige sterben? Während selbstfahrende Autos schon heute ihre Testrunden drehen, sind selbsttötende Kriegsmaschinen noch nicht im Einsatz. Dass sich das aber schon bald ändern könnte, zeigt die beängstigende Dokumentation "Killer-Roboter – Dürfen Maschinen töten?" von Uri Schneider.

"Das grundlegende ethische Problem", sagt der Politikwissenschaftler Frank Sauer, "ist die Frage, ob es richtig ist, oder ob es nicht vielleicht die Würde des Menschen verletzt, wenn wir die Tötungsentscheidung an anonyme Maschinen, an Algorithmen delegieren". Kurz gesagt: Wollen wir, dass Maschinen über das Leben von Menschen entscheiden? Schon heute fliegen unbemannte Drohnen etwa über Afghanistan oder den Irak. Noch aber treffen Menschen die Entscheidung, welche Ziele beschossen werden sollen. Und es sind Menschen, die sich zu verantworten haben, wenn Zivilisten ums Leben kommen. Schon in wenigen Jahren aber könnte sich das ändern.

Die Zukunft? "Ein Schlachtfeld ohne Menschen"

Für Dan Eshchar, der bei einer israelischen Rüstungsfirma arbeitet, ist die Zukunft "ein Schlachtfeld ohne Menschen". Künstliche Intelligenz könne dann binnen Sekundenbruchteilen entscheiden, wer Feind ist und wer Freund, wer leben darf und wer nicht. Deutschland hat sich bereits gegen diese Art der Kriegsführung ausgesprochen, auch eine UN-Gruppe fordert ein Verbot. Einzelne Staaten, wie etwa Russland, blockieren aber noch.

Denn die umstrittene Technologie hat durchaus ihre Befürworter. Ronald Arkin vom Institut für Robotik und intelligente Maschinen etwa gibt zu bedenken, dass das Ziel der technischen Entwicklung die Reduzierung von Opferzahlen sein müsse. Autonome Kriegswaffen, glaubt er, könnten besser und vor allem schneller als Menschen entscheiden, wann Zivilisten in Gefahr sind. "Wenn Sie diese Systeme jetzt verbieten, erlauben Sie, dass der Status Quo ziviler Opfer weitergeht", sagt er. Der südkoreanische Journalist Yong Han Park glaubt, dass der Konflikt mit Nordkorea eskalieren könnte, wenn an der Grenze stationierte Soldaten aus Nervosität falsche Entscheidungen treffen. Maschinen und Algorithmen hingegen kommen nie ins Schwitzen.

Doch Park sagt auch, dass die heutigen Systeme noch zu fehlerhaft seien, um tatsächlich eingesetzt werden zu können. Einen Soldaten, der schießen will, könnten sie heute noch nicht von einem Soldaten unterscheiden, der eine weiße Fahne schwenkt.

Der Militärhistoriker Peter W. Singer glaubt, dass Killer-Roboter unvermeidlich sind. "Wissenschaft, Kapitalismus und Krieg selbst" würden dafür sorgen, dass sie eines Tages auf den Schlachtfelder stehen. Dagegen klingt die Vorstellung, eines Tages von selbstfahrenden Autos umgeben zu sein, geradezu harmlos.


Quelle: teleschau – der Mediendienst