Tree-Forschungskonferenz: „Technische Autonomie ist weder gut noch böse“

Wer hat Schuld, wenn ein technisch autonomes System Schaden anrichtet? Kann man die Autonomie technischer Systeme mit unserer menschlichen Freiheit vergleichen? Im Rahmen der Forschungskonferenz, die Anfang Juni in Sankt Augustin stattgefunden hat, beschäftigte sich der Leiter des Fraunhofer Instituts für Trendanalysen, Michael Lauster, mit diesen Fragen.

„Technische Systeme sind nichts anderes als Werkzeuge“, lautete Lausters Fazit nach seinem halbstündigen Vortrag. Es seien Menschen, die jene Systeme konstruieren und auch sie würden sagen, wie die Systeme einzusetzen sind. „Zumindest noch“, so Lauster. Ob wir jemals frei handelnde künstliche Intelligenzen unter uns haben werden oder wie schnell das gehen wird, sei ungeklärt und in der Forschung umstritten.

Roboter im Mittelalter

Begonnen hatte der Zukunftsforscher mit einer Sage: Den ersten autonomen ‘Roboter’ habe es mit dem Golem, einem künstlichen Wesen aus Lehm, bereits im frühen Mittelalter gegeben. Genau wie damals stecke auch heute eine Urangst in uns, dass sich unsere Schöpfungen gegen uns wenden könnten. So wie bei ‘HAL9000’, dem fiktiven Computer des Raumschiffs ‘Discovery’ aus dem Film ‘2001: Odyssee im Weltraum’. Ein von Menschen konstruiertes Wesen gerät außer Kontrolle, begeht Unrecht. „Was HAL so interessant macht für Computerpsychologen, ist die Tatsache, dass er deswegen durchgedreht ist, weil man ihn zum Lügen veranlasst hat“, erklärte Lauster. Es gebe immer zwei Fragen zu klären: Die Frage des Unrechts und die Frage der Schuld.

Technische Autonomie vs. Menschliche Autonomie

„Stellen Sie sich einen Computer mit einem festen Programm vor. Er hat überhaupt keine Chance zu entscheiden, ob er etwas tun will oder nicht. Er folgt seinem Programm. Also ist die Frage, ob das jetzt gut oder böse ist, was er da gerade getan hat, vollkommen unsinnig.“ Mit dem Beispiel verdeutlichte der Redner, dass Gut und Böse Kategorien seien, in die man autonome Lebewesen einordne. Menschliche Autonomie bedeute die Freiheit, sich eigene Ziele zu setzen und die Mittel zu wählen, diese Ziele in die Tat umzusetzen, wurde Kant zitiert. Technische Autonomie dagegen bedeute immer eine Freiheit in Bezug auf etwas Bestimmtes und unter Rahmenbedingungen, die man nicht erwähne. „Das heißt ein technisches System kann durchaus bestimmte Dinge tun, ohne dass sofort ein Mensch eingreifen muss”, stellte Lauster klar. Aber die Grenzen lege der Mensch fest.

Schwache Intelligenz vs. starke Intelligenz

„Aber ist es vielleicht doch möglich, dass technische Systeme eine Autonomie entwickeln können, wie man sie uns zuschreibt?“, sprach Lauster eine Frage aus, die auf den Gesichtern vieler Studierender zu lesen war. „Voraussetzung für Autonomie ist Intelligenz“, versuchte Lauster sich an seiner eigenen Frage. Und im Bereich der Technik gebe es eine klare Unterscheidung zwischen schwacher und starker Intelligenz. „Wir haben noch keine Maschine, die tatsächlich intelligent ist.“ Bisher gebe es ausschließlich Systeme wie Siri oder Alexa, die menschliche Intelligenz simulieren würden. Das wird als schwache Intelligenz bezeichnet. Und wenn man es erst schaffe unser Gehirn nachzubilden, würden sich die nächsten Fragen stellen: Wie kommt unser Bewusstsein zustande? Könnte so ein System tatsächlich auch empathisch sein? – „Das weiß man nicht“, bekannte Lauster.


Autorin: Martha Peters, Technikjournalismus, 4. Semester


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert