Digital Twin

Digital Twin

Das Netzweltblog

Die neuen Kampfmaschinen

| 3 Lesermeinungen

In naher Zukunft wird es keine intelligenten Roboter geben. Aber macht sie das auch harmlos?

Auch wenn der Science-Fiction Autor Isaac Asimov nicht mehr ganz so bekannt ist wie ihm zu wünschen wäre, seine „drei Gesetze der Robotik“ erfreuen sich ungebrochener Beliebtheit. Sie lauten:

  1. Ein Roboter darf keinem Menschen schaden oder untätig in Kauf nehmen, dass ein Mensch Schaden nimmt. („A robot may not injure a human being or, through inaction, allow a human being to come to harm.“)
  2. Ein Roboter muss sich an die Befehle halten, die ihm Menschen erteilen, es sei denn sie widersprechen dem ersten Gesetz. („A robot must obey the orders given to it by human beings, except where such orders would conflict with the First Law.“)
  3. Ein Roboter muss sich selbst erhalten, es sei denn er widerspricht damit dem ersten oder zweiten Gesetz. („A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.“)

Asimov hatte seine Regeln vor über siebzig Jahren in der Kurzgeschichte „Runaround“ formuliert, und vielleicht liegt der Grund für ihre heutige Popularität darin, dass sie nicht mehr eindeutig in den Bereich der Science Fiction gehören. Zum Jahreswechsel ging Google auf Einkaufstour und erwarb acht Unternehmen, die auf dem Feld der Robotik führend sind, unter ihnen Boston Dynamics und Shaft. Das japanische Entwicklerteam von Shaft konnte erst kürzlich einen Wettbewerb gewinnen, den die Forschungsabteilung des amerikanischen Verteidigungsministeriums, DARPA, ausrichtete – damit ist Google im Besitz des derzeit wohl leistungsfähigsten Roboters auf der Erde. Wenn sich ein Softwaregigant mit solchen Meistern der Hardware zusammentut, liegt der Begriff der Magie nahe. Gelingt es in Zukunft womöglich einem Unternehmen, das seinen Aufstieg einer kunterbunten Suchmaschine im Internet verdankt, die Barriere der Künstlichen Intelligenz zu durchbrechen?

Nun veröffentlichte DARPA ein Video mit dem Titel „Die Wahrheit über Roboter“, das mit dieser Vorstellung erst einmal aufräumt. Man sei noch sehr weit davon entfernt, autonome Roboter zu erschaffen, erklärt Gill Pratt, einer der Ausrichter des DARPA-Wettbewerbs. Die Entwicklung der Künstlichen Intelligenz befinde sich gewissermaßen im Stadium der Steinzeit. Weder könnten Computer selbständig denken, noch verbrauchten sie bei ihren Rechenaufgaben annähernd so wenig Energie wie das menschliche Gehirn. Wozu dann also der ganze Forschungsaufwand? Zum Beispiel für ein verbessertes Katastrophenmanagement: Wiederhole sich ein Desaster wie Fukushima, dann könnten Menschen künftig ferngesteuerte Roboter in die Gefahrenzone schicken, um Aufräumarbeiten zu übernehmen. Während Pratt erzählt, sieht man Roboter mit dem Charme von zuverlässigen Handwerkern über Hindernisparcoure laufen und Müll beseitigen.

So überhört man fast, was er anschließend sagt: Ein weiterer Grund Roboter zu entwickeln, sei eine Erhöhung der Produktivität. Denn leider sei es derzeit so, dass die Vereinigten Staaten hohe Kosten zu tragen hätten „für jedes Mitglied des Verteidigungsministeriums, das sich an der Front befindet“. („The cost that the US has for members of the DoD that are in the field, are very very high.“) Pratt betont, dass es ihm nicht direkt um Kampfmaschinen gehe, sondern um den Materialaufwand in der zweiten Reihe. Trotzdem: Was passiert, wenn die Kosten für Militäreinsätze durch den Einsatz von Robotern drastisch sinken, wenn sie wie Pratt sagt, „produktiver“ werden? Und ist man nach dem Siegeszug der Drohne wirklich noch geneigt zu glauben, dass ihre Entwicklung nur den Logistik- und Technikern des Militärs zugute kommt?

Zwar ist die militärische Forschung an Robotern nichts Neues, und schon 2003 setzte das Militär der Vereinigten Staaten einen Kampfroboter names SWORDS im Irakkrieg ein. Das Video „Die Wahrheit über Roboter“ aber wirkt, als wolle es genau diese Wahrheit möglichst gekonnt verschleiern.

Neben den „Gesetzen der Robotik“ stellte Asimov drei spiegelbildliche „Gesetze der Humanistik“ auf: Eines besagt, dass ein Mensch einem Roboter Befehle erteilen soll, die seine robotische Existenz bewahren – es sei denn, sie schadeten einem Menschen. Vielleicht ist eine solche Ethik für Menschen vorerst wichtiger. Denn in naher Zukunft werden Roboter höchstwahrscheinlich keine eigenständigen Handlungen ausführen können. Welche Handlungen sie aber unter der Regie von Menschen ausführen, bleibt ebenfalls unklar.


3 Lesermeinungen

  1. Es wird in unserem Zeitalter - nächsten 100 Jahre - keinen intelligenten...
    Roboter geben! Wenn es uns gelingt, ein selbstentscheidungsfähiges Gehirn
    herzustellen, auf Grundlage noch unbekannter Biotechnologie, und dieses mit
    der Mechanik koppeln, kann man von begrenzt selbstdenkenden Maschinen
    sprechen, die aber immer ihre Grenzen in der Biologie sowie in der Technik
    haben werden. Es wird uns nicht gelingen, einen Apparat zu bauen, der in
    seiner Ausführung dem Menschen gleichgestellt sein wird! Ein Prozess, der
    seit 4 Milliarden Jahre funktioniert, kann nicht von der Rasse Mensch nach
    gebildet werden! Das gilt für immer!

    • Ein Apperat, dessen Entwicklung eine sehr lange Zeit gekostet hat..
      kann nicht in vergleichsweise kurzer Zeit kopiert werden? Sagen Sie das den Chinesen.

  2. Wie beruhigend...
    …dass es vorerst keine autonomen Roboter geben wird.

    Aber eigentlich reichen ja auch die, die nicht selber denken können vollständig aus, Menschen zu töten, verkrüppeln und in Angst und Schrecken zu versetzen.

    Ich weiss nicht, ob ich dumme Roboter so viel weniger schlimm finden soll als schlaue.

Kommentare sind deaktiviert.