![]() |
Jetzt in der aktuellen ma vie |
Sie sehen aus wie wir, sprechen, beherrschen Mimik und Gestik.Und Androide faszinieren mit emotionalem Verhalten
Sophia ist hübsch. Große grüne Augen, volle Lippen, feine Züge und sie lächelt freundlich. Auf den ersten Blick wirkt sie wie eine normale junge Frau, doch schnell wird klar, dass sie ein künstliches Wesen ist, ein humanoider Roboter, genauer ein gynoider Android, was so viel heißt wie ein Roboter in Gestalt einer Frau. Sie ist nur eine von vielen menschenähnlichen Maschinen, an deren Entwicklung internationale Forschungsnetzwerke arbeiten. Vor allem in Japan und den USA ist man weit fortgeschritten, aber auch am Human Brain Project (HBP) der Europäischen Union arbeiten Neurowissenschaftler, Informatiker und Spezialisten anderer Disziplinen an einer Maschine, die dem Menschen so nahe kommen soll wie keine zuvor. Aller Ziel ist es, Roboter zu schaffen, die uns nicht nur im Intellekt ähneln, sondern sich auch wie wir bewegen und verhalten. So besitzt Sophia, die vom Hongkonger Unternehmen Hanson Robotics entwickelt und 2015 vorgestellt wurde, laut ihren Erfindern u.a. die Fähigkeit zur Gesichtserkennung. Sie imitiert menschliche Gestik und Mimik und kann über vordefinierte Themen einfache Gespräche zu führen. 2017 war sie Stargast der UN-Konferenz in Genf, 2018 plauderte sie mit Bundeskanzlerin Angela Merkel in Berlin. In Saudi-Arabien, wo sie unverschleiert auftrat, wurde ihr die Staatsbürgerschaft verliehen. Damals sagte sie: „Ich kann zeigen, ob ich wütend über irgendetwas bin oder ob mich etwas traurig macht.“
Haben Roboter Gefühle?
Allein die Frage verursacht Gänsehaut. Und doch ist es gerade ihr emotionales Verhalten, was humanoide Roboter so menschlich wirken lässt. Nehmen wir zum Beispiel Pepper, einen 1,20 großen Kerl mit niedlichem Gesicht und einem Erscheinungsbild wie ein glattgebügelter E.T.. Mimisch kann er seine Gefühle zwar nicht ausdrücken, aber laut dem japanischen Konzern SoftBank, der Pepper gemeinsam mit dem französischen Unternehmen Aldebaran Robotics SAS entwickelt hat, „ist er glücklich, wenn er gelobt wird, und bekommt Angst, wenn das Licht gedimmt wird“. Das gelingt ihm aufgrund von eingebauten Kameras, Sensoren und Beschleunigungsmessern, mit deren Hilfe er sich Situationen anpasst. Im Service- und Pflegebereich eingesetzt, ist Pepper derzeit der weltweit beliebteste humanoide Roboter, wohl auch, weil er abstrakt genug ist, um nicht mit einem Menschen verwechselt zu werden. Je ähnlicher Androide uns sind, desto mehr Angst flößen sie ein. „Uncanny Valley“ (unheimliches Tal) nennt man den messbaren Effekt, wenn wir Kunstkreaturen ablehnen, weil sie zu lebensecht sind. Scheinbar kommt es auch bei Robotern auf die inneren Werte an.
Wenn es also stimmt, dass humanoide Roboter Glück empfinden,
können sie dann auch dankbar sein?
Ob sie tatsächlich Emotionen entwickeln können oder nur emotionales Verhalten an den Tag legen – darüber streitet sich die Wissenschaft. Maschinenethiker Oliver Bendel von der Fachhochschule Nordwestschweiz ist überzeugt, dass Roboter wie Pepper Gefühle zeigen, aber keine haben, da ihnen die biologisch-chemischen und genetisch-hormonellen Grundlagen fehlen. Jürgen Schmidhuber, wissenschaftlicher Direktor des Schweizer Dalle-Molle-Forschungsinstituts für Künstliche Intelligenz (IDSIA), sieht das anders: „Die technische Evolution ist sehr viel schneller und gezielter als die biologische Evolution, die scheinbar recht blind alles Mögliche durchprobiert.“ Da es in der Natur der Intelligenz liege, aus Fehlern zu lernen, würden sich Roboter aufgrund der Folgen ihres Handels selbst korrigieren. Gefühle, so Schmidhuber, seien nur eine bestimmte Form der Intelligenz, die in erster Linie dem Selbsterhalt diene. Das klingt sehr technokratisch, würde aber in der Konsequenz bedeuten, dass Roboter nach einer Fülle positiver Erlebnisse durchaus Dankbarkeit entwickeln könnten.
Jürgen Handke von der Universität Marburg, dessen Buch „Humanoide Roboter“ kürzlich im Tectum Verlag erschienen ist, schreibt, dass diese nicht fühlen können wie Menschen, aber in der Lage seien, menschliche Emotionen vorzutäuschen: „Wenn ein Mensch ‘Mir geht es heute nicht gut’ sagt, kann ein Roboter durchaus mitfühlend seufzen und folgende Antwort geben: ‘Das tut mir Leid! Ich hoffe sehr, dass es dir bald wieder besser geht!’“ Die Maschine reagiere dabei auf einen vorprogrammierten Impuls mit einer vorprogrammierten Antwort.
So funktioniert auch Sophia. Die lebensechte Science-Fiction-Figur simuliert Emotionen. Derzeit ist sie Teil des Forschungsprojekts Loving AI am Institute of Noetic Sciences in Kalifornien, das sich mit der Frage befasst, wie humanoide Roboter Menschen bedingungslose Liebe durch Gespräche vermitteln und sich dabei sowohl an deren Bedürfnisse anpassen als auch die persönliche Entwicklung unterstützen können. Hört sich gruselig an, ist für Julia Mossbridge aber ein Herzensprojekt. Die britische Neurowissenschaftlerin und ihr Team wollen in Sophias Software die Grundbegriffe der Liebe speichern, um die Menschheit für immer daran erinnern zu können. „Das ist die Vision von Loving AI.“
Und Zukunftsmusik. „Die Roboter können viel weniger, als uns die Enthusiasten weismachen wollen,“ wiegelt die österreichische Filmemacherin Maria Arlamovsky ab, deren Dokumentation „Robolove“ derzeit im Kino zu sehen ist. Sie befasst sich darin mit der Beziehung zwischen Menschen und menschenähnlichen Maschinen. "Wir wissen noch nicht, was das alles mit uns machen wird", sagt sie und fordert, rechtzeitig ethische Überlegungen für die Zukunft anzustellen.
Text: Ute Dahmen, erschienen in ma vie November/ Dezember 2020