03.04.2017, 07:35 Uhr
Welche Moral haben intelligente Maschinen?
Manchmal sind es vor allem die Fragen und weniger die Antworten, die deutlich machen, dass sich die Welt verändert. Das gilt zum Beispiel für Fragen, welche moralischen Folgen sich ergeben, wenn Maschinen und Computer intelligenter werden. Eine Gruppe von ETH-Studierenden hat sich dieser Thematik angenommen.
Eigentlich ist klar: Roboter sind Maschinen und keine Menschen. Gebaut werden sie unter anderem, um den Menschen von rein mechanischer oder repetitiver Arbeit zu entlasten. Ihre Intelligenz ist nicht natürlich, sondern von Computerprogrammen gesteuert. Infolge der Fortschritte der künstlichen Intelligenz, des maschinellen Lernens und der selbstlernenden Algorithmen erweitern sich aber die Einsatzmöglichkeiten für Maschinen. In der Industrie oder auch in Forschungslabors der ETH Zürich werden heute intelligente Roboter entwickelt und im Transport-, Gesundheits- und Produktionsbereich eingesetzt. Zudem sind bereits Angebote für Sicherheits-, Pflege- oder Dienstroboter auf dem Markt. Hinzu kommen weniger offensichtliche Anwendungen künstlicher Intelligenz wie zum Beispiel solche für Finanzwesen und Handel, soziale Netzwerke und digitale Werbung. Verschiedene Institute, Laboratorien und Spin-offs der ETH Zürich wirken an der Entwicklung von selbständigen Robotern mit und machen aus Zürich laut der NZZ eine Hauptstadt der Roboter.
Wie gut entscheidet eine Maschine?
Auch wenn derzeit intelligente Maschinen den Menschen im Denken nicht überflügeln können und vor allem Routineaufgaben übernehmen, so löst ihr Aufkommen doch Fragen aus. Wenn künstliche Maschinen «lernen» und «entscheiden», was passiert dann, wenn ihre Handlungen und Entscheidungen nach menschlichem Ermessen nicht «gut» sind? Wer ist dann für sie verantwortlich? Wer haftet, wenn sie Schaden anrichten? Augenfällig werden solche moralischen und juristischen Fragen bei selbststeuernden Fahrzeugen und bei Kriegsrobotern. Wer entscheidet, ob ein intelligentes Waffensystem schiesst oder nicht? Unterscheidet ein Waffensystem zwischen einer Kampfsituation und einer Gefechtspause, zwischen fremden Soldaten und Zivilisten? Wie entscheidet ein selbststeuerndes Auto, wenn plötzlich ein Kind auf die Strasse springt, ausweichen aber eine grössere Gruppe von Menschen gefährdet? Noch gibt es keine vollständig autonomen Waffen und Autos, wohl aber weitere Fragen: Wer etwa ist für Fehler in grossen Organisationen verantwortlich oder in komplexen Netzwerken, in denen Menschen und Maschinen am Werk sind? Immer ein Mensch, sagen die einen. Man muss für solche Fälle einen zusätzlichen Rechtsstatus für «digitale Personen» einrichten, sagen andere. Muss man überhaupt gesetzgeberisch handeln oder besser steuerpolitisch? Zum Beispiel die Wertschöpfung besteuern, die Roboter erzeugen, zumal dann, wenn Menschen ihretwegen Arbeit verlieren? Das sind Fragen, die bis vor kurzem der Science Fiction vorbehalten schienen. Zuletzt hat jedoch die Medienwelt die Fragen, wie moralisch Maschinen sein müssen, oder welche Ethik für künstliche Intelligenz nötig ist, prominent zum Thema gemacht. Auch politisch gewinnen sie an Bedeutung wie zum Beispiel parlamentarische Vorstösse in der Schweiz und in Europa zeigen, wobei die europische Resolution sowohl rechtliche Regelungen für die Robotik umfasst als auch einen ethischen Verhaltenskodex für Robotik-Ingenieure. Nächste Seite: Robotik - ein Thema der Ethik
Robotik ? ein Thema der Ethik
Auch die ETH Zürich kennt ? zum Beispiel in der Ausbildung ? Formate, in denen die wissenschaftliche Tätigkeit reflektiert wird: zum Beispiel die Critical Thinking-Initiative und die Cortona Woche oder auch der Masterstudiengang Geschichte und Philosophie des Wissens. In diesem Umfeld haben sich ETH-Studierende und Doktorierende aus Geistes-, Ingenieur- und Computerwissenschaften zusammengeschlossen und das Projekt Robotik und Philosophie ins Leben gerufen. Im Februar haben sie einen Workshop organisiert, der sich mit den moralischen Auswirkungen von intelligenten Maschinen und Robotern befasst hat. Eingeladen waren Kennerinnen der Ethik der künstlichen Intelligenz wie die Kognitionswissenschaftlerin und «Roboterversteherin» Joanna Bryson, der Technikphilosoph Peter Asaro und die ETH-Ideenhistorikerin Vanessa Rampton. Zu dieser Roboterethik-Gruppe gehören Lisa Schurrer und Naveen Shamsudhin.
Den Blick erweitern
Naveen Shamsudhin hat eben sein Doktorstudium am Multi-Scale Robotics Lab abgeschlossen. Seine Doktorarbeit befasst sich mit mikrorobotergesteuerten Instrumenten, mit denen sich die Mechanik des Pflanzenwachstums erforschen lässt. 2009 kam er als Bundesstipendiat (ESKAS) an die ETH Zürich und absolvierte hier ein Masterstudium in Mikro- und Nanosystemen am Automatic Control Laboratory. «Technologieentwicklung ist eine Herausforderung, und als Entwickler identifizieren wir uns sehr stark mit unserem Werk», sagt Shamsudhin, «aber manchmal, oder meiner Meinung nach beunruhigend oft, geht leicht die umfassendere Perspektive verloren und man reflektiert nicht genug, wozu und für wen die Technologie entwickelt wird.» Die Verbreitung neuer Technologien in der Gesellschaft könne zwar einige ihrer Probleme lösen, aber auch neue verursachen oder zu neuen Ungleichheiten führen, sagt er. Sich an transdisziplinären Projekte zu beteiligen, sei deshalb sehr wichtig, um den fachlichen Blickwinkel auszuweiten. Den Austausch mit den Ingenieuren und Informatikern schätzt auch Lisa Schurrer, Studentin des Masters in «Geschichte und Philosophie des Wissens». «Für Philosophen ist das Gespräch mit Ingenieuren ein Realitäts-Check, wie realistisch gewisse theoretische Annahmen sind und was sich technisch überhaupt umsetzen lässt.» Wichtig findet sie, dass die ethische Reflexion nicht erst am Ende eines Entwicklungsprozesses stattfindet, sondern bereits am Anfang in der Entwurfsphase. Ganz einfach wird die Übersetzung ethischer Grundsätze in die Programmiersprachen nicht: Schliesslich beherrschen lernende Roboter vor allem Routine-Situationen. Ethisches Verhalten ist aber mehr als simples Regelbefolgen. Menschen haben auch eine Art moralisches Gefühl dafür, was sie in einer bestimmten, allenfalls auch ungewohnten Situation tun sollen und was nicht. Ob Roboter und Computer je ein vergleichbar situatives, moralisches Gespür entwickeln werden, ist eine sehr offene und ebenfalls ethisch diskutable Frage ? denn auch «mitfühlende» Roboter würden Daten sammeln, die die Privatsphäre verletzen könnten. Die komplette Vortragsreihe mit allen Referaten ist mittlerweile online zugnglich.