Ich. Heute. 10 vor 8.

Gesetzlose Gesellen – sollen Roboter Knöllchen bekommen?

© FlickrDer Roboter – Dein Freund und Helfer?

Er hieß Dudu. Er war ein toller Käfer. Ein Auto mit Persönlichkeit, das sich selbst fahren konnte. Dudu war in den 70er Jahren ein Filmstar. Fiktion. Diese Woche hat Google eine lebensechte Version von Dudu vorgestellt. Ein Auto, das keinen Fahrer mehr braucht. Sechs Stunden täglich kurven die Ingenieurteams derzeit mit zwei Dutzend Testwagen durch Nordkalifornien. In ein paar Jahren soll das Prestige-Projekt auf den Markt kommen.

Selbstfahrende Autos, intelligente Skalpelle, Pflegeroboter – was noch vor wenigen Jahren  Science Fiction war, ist heute Realität. Wir erleben sie, sobald wir das Internet nutzen. Dort bietet Google bei jeder Suche nach Informationen automatisch Begriffskombinationen an. Dahinter steht das Computerprogramm „autocomplete“, das ohne menschliche Mitwirkung alle über Google eingegebenen Suchen automatisch speichert, vergleicht, selbständig die häufigsten Kombinationen herausfiltert und neuen Suchern anbietet. In naher Zukunft sollen solche sogenannten intelligenten Agenten alle Lebensbereiche erobern. Sie werden im Transportwesen, in der Kranken- und Altenpflege und nicht zuletzt bei bewaffneten Auseinandersetzungen immer öfter den Menschen ersetzen.

Roboter erobern unseren Alltag. Und sie werden immer schlauer. Sie nehmen die Informationen aus ihrer Umgebung auf, suchen nach erkennbaren Mustern und können auf ihre Umwelt reagieren. Das selbstfahrende Auto gewährt Vorfahrt im Straßenverkehr. Die Drohne tötet gezielt. Der Pflegeroboter reicht dem Bettlägerigen seinen Arm zum Aufstehen. Dabei optimieren die computergesteuerten Helfer die eigene Leistung aufgrund der gemachten „Erfahrungen“, sie lernen aus ihren Fehlern. Und da sie sich nicht ablenken lassen und eine unüberschaubare Menge an Daten blitzschnell verarbeiten können, agieren und reagieren die Roboter in manchen Situationen tatsächlich besser und schneller als der Mensch, Wie erfolgreich das funktionieren kann, weiß man spätestens, seit der menschliche Schach-Großmeister gegen den Computer keine echte Chance mehr hat. Schöne neue Welt.

© FlickrRoboter übernehmen Verantwortung im OP

Was aber passiert, wenn die Technologie Schaden anrichtet? Wer ist verantwortlich, wenn das fahrerlose Auto ein Knöllchen für´s Falschparken bekommt oder gar einen Radfahrer überfährt, wenn die Drohne nicht einen feindlichen Soldaten, sondern harmlose Zivilisten tötet oder der Pflegeroboter die Seniorin schlägt, anstatt sie festzuhalten?  Das fragen sich Computerspezialisten und Juristen, zumeist jeder für sich in seiner Disziplin. Dabei sollten sie sich dringend zusammen tun. Zu klären sind grundlegende, für das gesellschaftliche Miteinander elementare Fragen: Wie kann man der rasant fortschreitenden Entwicklung der „intelligenten“ Computertechnologie einen verlässlichen rechtlichen Rahmen geben? Unter welchen Bedingungen dürfen die neuen Technologien in die Welt der Menschen entlassen werden? Wie können oder müssen wir sie, nachdem sie in unser Leben getreten sind, überwachen? Was soll geschehen, wenn sie Schäden anrichten? Dieses Fragen können nur beide Disziplinen gemeinsam beantworten.

Das Problem ist nicht neu. Nach jeder technischen Revolution haben sich die Menschen gefragt, wie der Fortschritt kontrolliert werden kann. Häufig hat man die Kosten für den Schaden denen aufgebürdet, die auch den Nutzen von der neuen Technologie haben: Wer ein Auto besitzt, muss als Halter für die meisten Schäden bezahlen, die das Auto verursacht. Wer ein Atomkraftwerk betreibt, ist auch ohne Verschuldensnachweis für die Folgen verantwortlich. Ähnliche Überlegungen werden auch für die neue Generation intelligenter Roboter angestellt: Es gibt Überlegungen, einen Haftungsfonds einzurichten, aus dem Menschen entschädigt werden sollen, die durch Fehlfunktionen der Roboter geschädigt werden. Einzahlen sollen in diesen Fonds die Hersteller und/oder Betreiber der Roboter. Damit würde man sich die schwierige Frage ersparen, ob ein Roboter „fahrlässig“ oder gar „vorsätzlich“ handeln kann – was normalerweise die Voraussetzung zivilrechtlicher Haftung wäre.

Bleibt die Frage nach der Strafbarkeit. Wenn ein Roboter intelligent ist, selbst Entscheidungen trifft und sogar lernt, ist er dann nicht auch „persönlich“ verantwortlich? Wenn etwa die intelligente Drohne, die aufgrund ihrer „Erfahrung“ selbständig nach geeigneten Zielen sucht, ein spielendes Kind tötet, soll sie sich dann wegen Mordes vor einem Strafgericht verantworten müssen? Diese Vorstellung klingt schon deshalb lächerlich, weil man sich das Fluggerät kaum in einem Gerichtssaal auf der Anklagebank vorstellen kann. Aber wie ist es mit dem intelligenten Roboter-Kuschelhund, der den Demenzkranken aufheitern soll und ihn stattdessen in die Hand beißt? Die Frage, was den selbständig reagierenden Roboter noch von einem strafrechtlich verantwortlichen Menschen unterscheidet, wird immer schwerer zu beantworten sein.  Am Ende werden wir dabei auf die Frage zurückgeworfen, was eigentlich einen verantwortlichen Menschen ausmacht.

Bei der Bestrafung von Robotern stoßen wir bislang noch an unüberwindbare Grenzen: Wir können zwar die Todesstrafe vollstrecken, indem wir das Ding in seine Einzelteile zerlegen; aber dass ein Roboter durch gezielte Eingriffe seinen Fehler einsieht und bereut – das können wir uns heute noch nicht wirklich vorstellen. Der konventionelle Weg ist daher, den Menschen hinter der Maschine als Verantwortlichen zu bestrafen. Wer eine Drohne so programmiert, dass sie auch spielende Kinder töten kann, der haftet für vorsätzliche oder mindestens fahrlässige Tötung der Kinder. Aber ist das eine faire Regelung?

Natürlich wissen die Programmierer, dass die Roboter in Situationen kommen können, die sie mit den vorprogrammierten Regeln nicht adäquat bewältigen können. Handeln diese Menschen dann „automatisch“ fahrlässig oder gar vorsätzlich hinsichtlich der Schäden, die die Roboter anrichten? Wer das behauptet, macht sich nicht nur die gesamte Computer-Industrie zum natürlichen Feind, sondern argumentiert auch nicht ganz redlich: Wenn wir alle von der Arbeit der intelligenten Agenten profitieren wollen, obwohl wir wissen, dass die Maschinen Fehler machen und Schäden verursachen werden – können wir uns dann von den Risiken freizeichnen und die Last der Haftung ganz auf die Hersteller und Programmierer verschieben?

Es wird also darum gehen müssen, einen gerechten Ausgleich zu finden zwischen denen, die in unterschiedlicher Weise von den Robotern profitieren. Und dazu gehören natürlich auch diejenigen, die sie nutzen. Hier stehen uns noch interessante Debatten bevor – die uns die Roboter trotz all ihrer Intelligenz nicht abnehmen können.

Die mobile Version verlassen