Mehr Artikel von:

Wired

Der unfreie Wille

Ob selbstfahrendes Auto oder Chatbot: Maschinen handeln immer autonomer. Aber nach welchen moralischen Standards?

Manche Maschinen sind fast schon zu menschlich. Jedenfalls äußerlich: Während des diesjährigen SXSW-Festivals erlagen in Austin viele männliche Tinder-User bei der örtlichen Match-Suche dem lieblichen Erscheinungsbild der 25-jährigen Ava. Swipe nach rechts, und die schöne Ava begann, tiefgründige Fragen zu stellen: »Warst du jemals verliebt?«, »Was macht dich zum Menschen?«. Ihre Flirts beendete Ava mit einem Hinweis auf ihr Instagram-Profil, auf dem ihre Identität geklärt wurde: Ava ist eine Figur aus Alex Garlands Film Ex Machina (siehe WIRED 04/15), ein Humanoid, gespielt von der Schauspielerin Alicia Vikander. Und die Tinder-Aktion war nur ein kluger PR-Stunt, der die Grundfrage des Films auf die Spitze trieb: Können Menschen sich in Maschinen verlieben? Denn Tinder-Ava war ein Chatbot Avatar, ein künstliches Dialogsystem mit menschlichem Antlitz. So weit, so fies. Doch hinter der kleinen Geschichte steckt eine große Frage: Wenn wir Menschen schon mit Maschinen flirten, müssen wir uns dann nicht langsam mal Gedanken darüber machen, wie die sich uns gegenüber verhalten sollen? Denn in Zukunft werden wir es immer öfter mit Maschinen zu tun bekommen, die autonom entscheiden, handeln und kommunizieren können – noch viel besser als Ava. Und mit erheblich schwerwiegenderen Folgen.

Ava tat etwas Unmoralisches, der Chatbot gab sich als Mensch aus, doch dadurch wurde niemand verletzt, nicht mal emotional. Was aber, wenn Leib und Leben von Menschen davon abhängen, wie Maschinen handeln? Wie bringt man Letzteren bei, sich moralisch korrekt zu verhalten? Und was ist das überhaupt: moralisch korrekt? Je intelligenter Roboter werden, desto bedeutsamer wird diese uralte Frage. Denn egal, ob nun Angriffsdrohnen autark Terroristen jagen, Pflegeroboter Pillen ausgeben oder autonom fahrende Autos uns chauffieren – nach welchen Regeln sie das tun, muss von Menschen entschieden werden. An Universitäten von Stanford bis Stuttgart beschäftigen sich deshalb Philosophen und Juristen intensiv mit Roboterethik. Ein Vordenker dabei war der Science-Fiction-Autor Isaac Asimov, der schon in den 40er-Jahren folgende Robotergesetze verfasste: 1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit gestatten, dass Menschen Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

In der Fiktion eines Sci-Fi-Romans wie Asimovs »Ich, der Robot« waren moralische Dilemmata für Maschinen noch reine Denkspiele, in der Realität werden Autos bald in solche geraten. Der selbstfahrende Wagen ist keine ferne Zukunftsvision mehr, und ein heute bereits viel diskutiertes Szenario lautet: Ein Auto muss auf einer Passstraße überraschend einem Hindernis ausweichen, rast dadurch auf eine Gruppe Spaziergänger zu – würde bei einem erneuten Ausweichmanöver aber den Absturz von einer Klippe riskieren, also womöglich seine Insassen töten. Was soll es tun? Asimovs Gesetze helfen in einem solchen Fall nicht weiter. »Das Problem bei der Implementierung moralischer Algorithmenin Maschinen ist, dass sie in bestimmten Situationen völlig unterschiedlich wirken«, sagt Janina Sombetzki, Technikphilosophin an der Uni Kiel. Sombetzki schreibt mit einem Kollegen gerade an einem Aufsatz zu autonomen Fahrsystemen. Darin machen sich die beiden Gedanken über eine mögliche Lösung: Wie wäre es, wenn man beim Kauf eines selbstfahrenden Autos zwischen moralischen Chips wählen könnte, zwischen Utilitarismus, Kants kategorischem Imperativ oder Tugendethik? Ein utilitaristisches Auto würde sich beim Klippenbeispiel für die Variante entscheiden, bei der am wenigsten Menschen verletzt oder getötet werden, sähe das als den bestmöglichen Ausgang für alle. Im Zweifel aber wäre ihm die Sicherheit seiner Passagiere am wichtigsten. Ein Kant-Car dagegen würde die notfalls opfern, um andere zu schützen: »Bevor das Auto in eine Gruppe Kinder hineinfährt, stürzt es sich lieber die Klippe hinunter«, sagt Sombetzki. »Die Schwierigkeit liegt darin, dass wir uns im Alltag ja auch nicht bei jeder Entscheidung präzise an ein bestimmtes Wertesystem halten. Wir springen hin und her, verlassen uns auf den, wie man sagt, gesunden Menschenverstand, den moralischen Sensor, den Maschinen in dieser Weise nicht haben können, weil sie nicht intuitiv handeln.«

Wenn wir autonomen Maschinen erlauben, autonome Entscheidungen zu treffen, wird es jedoch nötig sein, moralische Algorithmen zu entwerfen, die solch einem Sensorium zumindest nahekommen. Nur wie? Die Open Roboethics initiative (ORi) an der University of British Columbia etwa verfolgt dabei einen Open-Source-Ansatz. Die Philosophen und Rechtsgelehrten des ORi formulieren Fragen und Szenarien, und mittels Umfragen soll die Öffentlichkeit auf ethische Kernprobleme bei Maschinen gelenkt werden. Auch das Klippenbeispiel wurde in einer Variante als »Tunnelproblem« zur Abstimmung gestellt: Ein Auto, in dem man selbst sitzt, fährt auf einer Passstraße auf einen Tunneleingang zu, kurz vor dessen Erreichen aber läuft ein Kind über die Straße und fällt hin –soll das Auto ausweichen und die Klippen herabstürzen oder geradeaus weiterfahren und das Kind überrollen? Zwei Drittel der Abstimmenden plädierten fürs Geradeausfahren. Und schon stellt sich das nächste Dilemma: Ist das Kind nicht schützenswerter, weil es im Gegensatz zu einem selbst das ganze Leben noch vor sich hat? Nun machen sich die ORi-Experten wiederum Gedanken, wie man Urteile und Meinungen aus diesen Umfragen ethisch bewerten kann.

»Philosophen sollten nicht allein entscheiden, was die richtigen Lösungen für diese komplexen Fragen sind, das muss im gesellschaftlichen Diskurs geschehen, der dann letztlich konsensfähige Ansätze liefert«, sagt Catrin Misselhorn, Professorin an der Uni Stuttgart und Deutschlands bekannteste Roboterethikerin. Unterschiedliche Gesellschaften und damit Kulturen könnten den Maschinen also je ihre eigenen Ethikkonzepte eintrichtern. Es gäbe dann womöglich einerseits ein amerikanisches utilitarian car with a bit of Asimov, andererseits das europäische Kant-Mobil. Einigungen zu globalen Konzepten werden aber auch wichtiger. Misselhorn nennt die Robot-Trader an der Börse, die sich weder an Landesgrenzen noch ideologische Rahmen halten und mit ihrer auf Gewinnmaximierung getrimmten Effizienz ganze Märkte zum Einsturz bringen können. Bisher unterstehen sie keiner ethischen Kontrolle. Misselhorn selbst arbeitet gerade an einem Forschungsprojekt über ein ethisches Software-Modul für Roboter in der heimischen Altenpflege. »Der Unterschied zu etwa selbstfahrenden Autos ist, dass die Roboter in der Pflege ganz auf die Bedürfnisse der Patienten abgestimmt werden können, die Ethikeinstellungen sind individuell justierbar«, sagt Misselhorn. So ein Pflegeroboter bringt Medikamente, erinnert an deren Einnahme, unterhält den Patienten, hilft vielleicht aus dem Bett und beim Toilettengang. Kann er auch Sterbehilfe leisten, wenn der Patient es wünscht, er darf ja eigentlich nicht töten? »Nun, wenn er beispielsweise von seinem Nutzer umprogrammiert wurde, ist das nicht prinzipiell ausgeschlossen. Aber das sind Fragen, die nur im Zusammenhang mit einer allgemeinen Regelung zur Sterbehilfe gelöst werden können«, sagt Misselhorn.

Darf ein Roboter töten? Ein Utilitarist würde im Gegensatz zu Asimov und Kant sagen: Ja, wenn es zum Glück der Mehrheit beiträgt. Entsprechend dieser Logik werden wohl bald autonome Waffensysteme in den Krieg ziehen. Befürworter argumentieren, dass etwa ein Maschinen- Sniper genauer zielt, nicht unter Stress gerät, kühl kalkulierte Entscheidungen trifft und zivile Opfer eher verhindert. Gegner erklären, dass Maschinen aufgrund ihres Mangels an Empathie keine moralischen Entscheidungen überlassen werden dürfen. Was passiert aber, wenn so ein System gehackt wird? Und wissen wir nicht längst, dass auch Menschen wie gewissenlose Killermaschinen handeln können? Am Ende führt die Debatte zu demselben Punkt: Was bedeutet es eigentlich, menschlich zu entscheiden, ja Mensch zu sein? Macht uns unser moralisches Sensorium unersetzlich? Oder sind wir letztlich nicht auch nur organische Maschinen, durch unser neuronales Netzwerk und den Gehirnstoffwechsel determiniert und von gesellschaftlichen Konventionen notdürftig eingehegt? Auf Tinder-Avas Frage »Was macht dich zum Menschen?« antwortete User Brock: »Mein Herz und diese sonderbaren Gefühle.« Was hätte wohl ein Roboter geantwortet?