24.01.2017, 06:45 Uhr
Sind Kampfroboter humaner als Soldaten?
Eine öffentliche Veranstaltung an der Universität Zürich widmete sich einem Thema, das in der modernen Kriegsführung immer mehr an Bedeutung gewinnt: Kampfrobotern. Können diese vielleicht sogar humaner agieren als Menschen?
Moderne Technologien durchdringen und bereichern unseren Alltag. GPS führt uns im Verkehr ans Ziel, Sensoren messen den Insulingehalt im Blut und künstliche Intelligenz hilft Ärztinnen und Ärzten erfolgreich bei der Diagnose von verschiedenen Krankheitsbildern. Diese fortschreitende Digitalisierung im multidisziplinären Austausch zu begleiten ist das Ziel der im Sommer 2016 an der Universität Zürich (UZH) lancierten Digital Society Initiative (DSI).
Die erste öffentliche Veranstaltung der DSI war der Digitalisierung der Waffentechnologie gewidmet. Denn die moderne Kriegsführung setzt die fortgeschrittensten Technologien ein: Drohnen navigieren per GPS in Unruhegebieten, Sensoren peilen die Ziele an und Computersysteme sorgen dafür, dass die abgefeuerten Geschosse am Ende ihr Ziel treffen. Doch was die Entwicklung und den Einsatz von autonomen Waffensystemen und Kampfrobotern anbelangt, gehen die Meinungen weit auseinander. Vielerorts wird ein Verbot dieser Technologie gefordert.
Vom Terminator noch weit entfernt
Für Ron Arkin, Professor am Georgia Institute of Technolgy und einer der führenden Wissenschaftler im Bereich Robotik und Roboterethik, ist ein Verbot keine geeignete Option. In seinem Referat zum Thema «How To NOT build a Terminator» bezog er pointiert Stellung. Seiner Meinung nach würde ein generelles Forschungsverbot von militärischen Robotertechnologien ins Leere laufen. Der erklärte Kriegsgegner Arkin zeigte sich illusionslos: Solange es Kriege gebe, würden auch die bestmöglichen Technologien eingesetzt. «Vom Terminator sind wir heute noch weit entfernt», beruhigte er. Autonome Waffensysteme seien aber bereits weit verbreitet: Minen, die sich selbst auslösen oder Raketenwerfer, die ihr Ziel selbständig suchen. Statt eines generellen Verbots empfahl Arkin, beim Einsatz intelligenter Waffen folgende Grundsatzfrage zu beantworten: «Was ist die angemessene Rolle von Robotern auf den Schlachtfeldern?»
Maschinen halten Stress des Krieges stand
Für einen Einsatz von Robotern auf dem Schlachtfeld spreche viel, so Arkin. Die Kampfkraft mehrerer Soldaten könnte durch eine einzelne Maschine ersetzt werden. Diese hätte dann auch eine höhere Reichweite als ihr menschliches Gegenstück und könnte entsprechend auch ein grösseres Kampfgebiet abdecken. Zudem könne ein Roboter besser zwischen Freund und Feind unterscheiden und so einen Beschuss durch die eigene Seite vermeiden. «Nicht zuletzt kann eine künstliche Intelligenz auch helfen, ethisch fragwürdige Handlungen auf dem Schlachtfeld zu vermeiden», so Arkin. Von Soldaten werde erwartet, dass sie sich im Kampfeinsatz wie Maschinen verhielten. Unter Stress können aber auch bestens trainierte Kämpfer zu Verbrechern werden. Maschinen kennen jedoch keinen Stress, sie agieren immer so, wie sie programmiert sind. «Könnten Roboter also humaner sein als Menschen?», so Arkins rhetorische Frage ans Publikum. Nächste Seite: Deshalb schädigen Roboter weniger Zivilisten Dazu nennt er drei Voraussetzungen: Erstens müsse eine Maschine in der Lage sein, einen Befehl zu verweigern – beispielsweise das Angreifen von Zivilisten oder Anlagen wie Spitälern. Zweitens soll die Maschine auch ihre menschlichen Mitstreiter beobachten und deren Fehlleistungen direkt an die entsprechenden Vorgesetzten weiterleiten. Drittens muss die Maschine bestehendes Kriegsrecht berücksichtigen. Roboter sollen zudem aber nur unter bestimmten Umständen und in hochgefährlichen Situationen eingesetzt werden, beispielsweise bei der Sicherung von besetzten Räumen. Unter keinen Umständen sollen sie gegen Aufständische im eigenen Land eingesetzt werden. «Mit den Robotern können wir weniger Zivilpersonen schädigen», zeigte sich Arkin überzeugt.
Die Verantwortung für eine Tat könne zudem nie den Maschinen überlassen werden. Denn am Ende entscheide immer ein Mensch über ihre Anwendung. Roboter dürfen auch nicht als blosser Ersatz für menschliche Soldaten betrachtet werden, sondern als Hilfsmittel im Einsatz. «Menschen müssen immer auf dem Schlachtfeld präsent sein», so Arkin.
Verantwortung von Forschenden und Zivilbevölkerung
Arkin beendete sein Referat mit einem Appell an die Forscherinnen und Forscher im Publikum: «Halten Sie sich die Konsequenzen ihrer eigenen Forschung vor Augen.» Wenn man Erfolg habe und die Technologie schliesslich aus dem Labor in die Öffentlichkeit gelange, müsse man dafür auch Verantwortung tragen. Denn gute Arbeit lande unweigerlich in irgendeiner Form in Militärsystemen. Darum sei es ihm auch sehr wichtig, dass sich Forschende an der Debatte über den Einsatz von Technologie in der Kriegsführung beteiligen. Anschliessend kam auch Heather Roff, Leiterin der Global Security Initiative der Arizona State University, zu Wort. Die Forscherin sprach über die rechtlichen Grundlagen und daraus resultierenden Schwierigkeiten, die bei der Programmierung von autonomen Waffensystemen berücksichtigt werden müssen. Professor Abraham Bernstein, Leiter der UZH Digital Society Initiative, betonte dagegen den Bezug zum Alltag: «Künstliche Intelligenz findet auch bei uns zuhause Einsatz.» Diese hätte zwar noch einige Kinderkrankheiten, würde aber stetig verbessert werden – und dies nicht unbedingt für die Kriegsführung, sondern auch für den zivilen Einsatz. Bernstein stimmte Arkin zu: «Diese Verbesserungen werden unweigerlich auch Einzug in die Militärtechnologie finden.» Entsprechend müsse man über jeden weiteren Schritt der Autonomisierung von Maschinen nachdenken. Trotzdem könnten Roboter in plötzlich auftretenden Situationen – beispielsweise im Krieg oder im Strassenverkehr – vielleicht die besseren Entscheidungen treffen als der Mensch.