Home
Ich. Heute. 10 vor 8.

Ich. Heute. 10 vor 8.

Frauen schreiben. Politisch, poetisch, polemisch. Montag, Mittwoch, Freitag.

Gesetzlose Gesellen – sollen Roboter Knöllchen bekommen?

| 6 Lesermeinungen

Roboter erleichtern in nahezu allen Lebensbereichen unseren Alltag. Dabei werden sie immer schlauer und selbstständiger. Aber wer wird bestraft, wenn sie Fehler machen?

© FlickrDer Roboter – Dein Freund und Helfer?

Er hieß Dudu. Er war ein toller Käfer. Ein Auto mit Persönlichkeit, das sich selbst fahren konnte. Dudu war in den 70er Jahren ein Filmstar. Fiktion. Diese Woche hat Google eine lebensechte Version von Dudu vorgestellt. Ein Auto, das keinen Fahrer mehr braucht. Sechs Stunden täglich kurven die Ingenieurteams derzeit mit zwei Dutzend Testwagen durch Nordkalifornien. In ein paar Jahren soll das Prestige-Projekt auf den Markt kommen.

Selbstfahrende Autos, intelligente Skalpelle, Pflegeroboter – was noch vor wenigen Jahren  Science Fiction war, ist heute Realität. Wir erleben sie, sobald wir das Internet nutzen. Dort bietet Google bei jeder Suche nach Informationen automatisch Begriffskombinationen an. Dahinter steht das Computerprogramm „autocomplete“, das ohne menschliche Mitwirkung alle über Google eingegebenen Suchen automatisch speichert, vergleicht, selbständig die häufigsten Kombinationen herausfiltert und neuen Suchern anbietet. In naher Zukunft sollen solche sogenannten intelligenten Agenten alle Lebensbereiche erobern. Sie werden im Transportwesen, in der Kranken- und Altenpflege und nicht zuletzt bei bewaffneten Auseinandersetzungen immer öfter den Menschen ersetzen.

Roboter erobern unseren Alltag. Und sie werden immer schlauer. Sie nehmen die Informationen aus ihrer Umgebung auf, suchen nach erkennbaren Mustern und können auf ihre Umwelt reagieren. Das selbstfahrende Auto gewährt Vorfahrt im Straßenverkehr. Die Drohne tötet gezielt. Der Pflegeroboter reicht dem Bettlägerigen seinen Arm zum Aufstehen. Dabei optimieren die computergesteuerten Helfer die eigene Leistung aufgrund der gemachten „Erfahrungen“, sie lernen aus ihren Fehlern. Und da sie sich nicht ablenken lassen und eine unüberschaubare Menge an Daten blitzschnell verarbeiten können, agieren und reagieren die Roboter in manchen Situationen tatsächlich besser und schneller als der Mensch, Wie erfolgreich das funktionieren kann, weiß man spätestens, seit der menschliche Schach-Großmeister gegen den Computer keine echte Chance mehr hat. Schöne neue Welt.

© FlickrRoboter übernehmen Verantwortung im OP

Was aber passiert, wenn die Technologie Schaden anrichtet? Wer ist verantwortlich, wenn das fahrerlose Auto ein Knöllchen für´s Falschparken bekommt oder gar einen Radfahrer überfährt, wenn die Drohne nicht einen feindlichen Soldaten, sondern harmlose Zivilisten tötet oder der Pflegeroboter die Seniorin schlägt, anstatt sie festzuhalten?  Das fragen sich Computerspezialisten und Juristen, zumeist jeder für sich in seiner Disziplin. Dabei sollten sie sich dringend zusammen tun. Zu klären sind grundlegende, für das gesellschaftliche Miteinander elementare Fragen: Wie kann man der rasant fortschreitenden Entwicklung der „intelligenten“ Computertechnologie einen verlässlichen rechtlichen Rahmen geben? Unter welchen Bedingungen dürfen die neuen Technologien in die Welt der Menschen entlassen werden? Wie können oder müssen wir sie, nachdem sie in unser Leben getreten sind, überwachen? Was soll geschehen, wenn sie Schäden anrichten? Dieses Fragen können nur beide Disziplinen gemeinsam beantworten.

Das Problem ist nicht neu. Nach jeder technischen Revolution haben sich die Menschen gefragt, wie der Fortschritt kontrolliert werden kann. Häufig hat man die Kosten für den Schaden denen aufgebürdet, die auch den Nutzen von der neuen Technologie haben: Wer ein Auto besitzt, muss als Halter für die meisten Schäden bezahlen, die das Auto verursacht. Wer ein Atomkraftwerk betreibt, ist auch ohne Verschuldensnachweis für die Folgen verantwortlich. Ähnliche Überlegungen werden auch für die neue Generation intelligenter Roboter angestellt: Es gibt Überlegungen, einen Haftungsfonds einzurichten, aus dem Menschen entschädigt werden sollen, die durch Fehlfunktionen der Roboter geschädigt werden. Einzahlen sollen in diesen Fonds die Hersteller und/oder Betreiber der Roboter. Damit würde man sich die schwierige Frage ersparen, ob ein Roboter „fahrlässig“ oder gar „vorsätzlich“ handeln kann – was normalerweise die Voraussetzung zivilrechtlicher Haftung wäre.

Bleibt die Frage nach der Strafbarkeit. Wenn ein Roboter intelligent ist, selbst Entscheidungen trifft und sogar lernt, ist er dann nicht auch „persönlich“ verantwortlich? Wenn etwa die intelligente Drohne, die aufgrund ihrer „Erfahrung“ selbständig nach geeigneten Zielen sucht, ein spielendes Kind tötet, soll sie sich dann wegen Mordes vor einem Strafgericht verantworten müssen? Diese Vorstellung klingt schon deshalb lächerlich, weil man sich das Fluggerät kaum in einem Gerichtssaal auf der Anklagebank vorstellen kann. Aber wie ist es mit dem intelligenten Roboter-Kuschelhund, der den Demenzkranken aufheitern soll und ihn stattdessen in die Hand beißt? Die Frage, was den selbständig reagierenden Roboter noch von einem strafrechtlich verantwortlichen Menschen unterscheidet, wird immer schwerer zu beantworten sein.  Am Ende werden wir dabei auf die Frage zurückgeworfen, was eigentlich einen verantwortlichen Menschen ausmacht.

Bei der Bestrafung von Robotern stoßen wir bislang noch an unüberwindbare Grenzen: Wir können zwar die Todesstrafe vollstrecken, indem wir das Ding in seine Einzelteile zerlegen; aber dass ein Roboter durch gezielte Eingriffe seinen Fehler einsieht und bereut – das können wir uns heute noch nicht wirklich vorstellen. Der konventionelle Weg ist daher, den Menschen hinter der Maschine als Verantwortlichen zu bestrafen. Wer eine Drohne so programmiert, dass sie auch spielende Kinder töten kann, der haftet für vorsätzliche oder mindestens fahrlässige Tötung der Kinder. Aber ist das eine faire Regelung?

Natürlich wissen die Programmierer, dass die Roboter in Situationen kommen können, die sie mit den vorprogrammierten Regeln nicht adäquat bewältigen können. Handeln diese Menschen dann „automatisch“ fahrlässig oder gar vorsätzlich hinsichtlich der Schäden, die die Roboter anrichten? Wer das behauptet, macht sich nicht nur die gesamte Computer-Industrie zum natürlichen Feind, sondern argumentiert auch nicht ganz redlich: Wenn wir alle von der Arbeit der intelligenten Agenten profitieren wollen, obwohl wir wissen, dass die Maschinen Fehler machen und Schäden verursachen werden – können wir uns dann von den Risiken freizeichnen und die Last der Haftung ganz auf die Hersteller und Programmierer verschieben?

Es wird also darum gehen müssen, einen gerechten Ausgleich zu finden zwischen denen, die in unterschiedlicher Weise von den Robotern profitieren. Und dazu gehören natürlich auch diejenigen, die sie nutzen. Hier stehen uns noch interessante Debatten bevor – die uns die Roboter trotz all ihrer Intelligenz nicht abnehmen können.

0

6 Lesermeinungen

  1. Deterministische Maschinen sind nicht schuldfähig
    Eine Maschine kann meiner Meinung nach nicht verantwortlich sein für ihr Handeln, solange sie deterministisch agiert. Auch eine intelligente Drohne hat (bisher) keinen freien Willen. Insofern kann nur der Hersteller verantwortlich sein.

    Gerade im Bereich der gezielten Tötungen bewegen wir uns doch so oder so („Drohne nur bewaffnetes Fluggerät, Tötung durch den Menschen, der die Drohne fernsteuert“ oder „Drohne hat fest einprogrammierte Algorithmen und tötet ohne menschliche Bestätigung“) in einem rechtlich grauen bis dunkelgrauen Bereich. Das Töten eines Menschen auf eigenem Staatsgebiet ohne Gerichtsverfahren ist rechtlich problematisch und das Töten eines Menschen auf fremden Staatsgebiet ohne Kriegserklärung und ohne den Status des Getöteten als „Soldat“ ist es ebenfalls. Durchgeführt werden solche Aktionen dennoch. Hier gilt momentan nur ein Recht: Das des Stärkeren.

    Vermutlich bewegen wir uns also mit den Robotern eher in Richtung Rechtslosigkeit, bis Rechtssprechung durch zivile Klagen höchstrichterlich entschieden wird. Hoffen wir, die hohen Richter finden dann geeignete Personen, die ihnen die technischen Wirkmechanismen in der notwendigen Tiefe verständlich erläutern können und hoffentlich begreifen die Richter in dem Moment die rechtsphilosphische Dimension ihrer Entscheidungen.

    • Hersteller und
      Eigentuemer.

    • Die Maschinen, um die es geht sind nicht deterministisch
      Die Roboter, um die es geht, sind längst nicht mehr deterministisch. Ihre Algorithmen sind stochastisch; sie beobachten ihre Umgebung, lernen ständig dazu. Wenn sie sich zweimal in absolut identischen Situationen befinden reagieren sie nicht unbedingt identisch usw.

      Natürlich sind Kampfmaschinen ein Sonderfall. Aber die angesprochenen Probleme gelten gerade für selbstfahrende Fahrzeuge und alle Roboter die im Haushalt, im öffentlichen Raum oder einer Fabrik mit relativ großen Freiheitsgraden Tätigkeiten durchführen und dabei Verantwortung übernehmen (bisher sind die Roboter noch nicht so weit, aber es fehlt nicht mehr viel). Es wird wirklich noch eine sehr spannende Diskussion über sehr grundsätzliche Fragen geben müssen.

  2. Frau schreibt - Hund operiert - Mann kommentiert
    Danke, Frau Gless für den Artikel. Über den Text und seinen Inhalt sollten nicht nur Computerexperten und Juristen rechtzeitig beginnen nachzudenken.
    .
    Aber wer hat denn bitte das zweite Foto ausgewählt? Sitzt da rechts ein H U N D an den Joysticks!?

  3. @ Günther Werlau: Was hat Determinismus/Indeterminismus mit Schuldeinsichtsfähigkeit zu tun?
    1. Es gibt durchaus Algorithmen und Maschinen, die nichtdeterministisch sind. Wenn Sie das Ergebnis eines (echten, physikalischen) Zufallszahlengenerators in einem Conditional (if-then-Statement) prüfen lassen, dann haben Sie einen nichtdeterministischen Algorithmus. Wenn Sie eine Maschine von einem nichtdeterministischen Algorithmus steuern lassen, dann haben Sie eine nichtdeterministische Maschine.

    2. Auch eine nichtdeterministische Maschine hat i.A. keine Schuldeinsichtsfähigkeit.

    3. Bewusstsein, das m.E. eine notwendige Bedingung für Schuldeinsicht ist, mag ein modellierbares und automatisierbares Phänomen sein oder auch nicht. Sicher ist jedenfalls, dass es bis dato kein formales Modell des menschlichen Bewusstseins gibt und deshalb auch keine Maschine existiert, die ein solches Bewusstsein hat. Nicht einmal ansatzweise.

    4. Künstliche Intelligenz hat bis dato ungefähr so viel mit Intelligenz zu tun, wie eine künstliche Blume mit einer Blume zu tun hat.

    @ Sabine Gless

    „Wer eine Drohne so programmiert, dass sie auch spielende Kinder töten kann, der haftet für vorsätzliche oder mindestens fahrlässige Tötung der Kinder. Aber ist das eine faire Regelung?“

    Ja, das ist eine faire Regelung. Und ich würde die zivil- und strafrechtlichen Haftungsbestimmungen sogar noch wesentlich ausdehnen und verschärfen.

  4. Titel eingeben
    Eine interessante Fragestellung wird hier aufgeworfen. Dass die Rechtslage noch „recht“ unklar ist, verwundert mich als „Normalbürger“. Zumal die intelligenten (?) Maschinen ja auch in Form von z.B. Rasenmäher oder Staubsauger Einzug in manches Heim halten. Hoffentlich ohne größere Schäden anzurichten. Da die Spannweite der Robotoranwendungen immer größer wird, wären Knöllchen als Folge einer Fehlfunktion ja noch relativ verschmerzbar, fast niedlich im Vergleich zu schlimmeren Folgen anzusehen. Bleibt zu hoffen, dass die negativen Auswirkungen gering bleiben.

Kommentare sind deaktiviert.