Innovationssystem

Roboter mit Gefühl

Weltraumroboterdame AILA (Foto: DFKI/David Schikora)
Weltraumroboterdame AILA (Foto: DFKI/David Schikora)
©

Wie zwei dressierte Schlangen weichen die auf einem Kasten festgeschraubten Roboterarme den Händen des Mannes aus. Nicht nur ihre Greifzangen halten einen Sicherheitsabstand zum Menschen – der gesamte in sich sehr bewegliche maschinelle Arm ist dazu in der Lage. Die Gelenke des Robotersystems sind rund, Ecken und Kanten fehlen. Diese Maschine bewegt ihre Montagearme erstaunlich fließend, fast elegant. Das System reagiert auch auf Gesten: Als der Mann seinen Arm senkrecht in die Höhe hebt, erkennt der Roboter den Befehl und erstarrt zu Stein. (Die Funktionsweise des Roboters im Video.)

Bislang sind Maschinen nicht schlau genug, um direkt neben dem Menschen zu montieren, zu schweißen und zu lackieren. Robotersysteme arbeiten weitestgehend noch hinter Schutzgittern, damit sie Arbeiter nicht verletzen. Anders das oben beschriebene Robotersystem iMRK: Es demonstriert eindrücklich, wie eine intelligente Mensch-Roboter-Kollaboration im Zeitalter von Industrie 4.0 wohl aussehen wird. Schutzgitter sind dann überflüssig. Und die Roboter werden, wie es Wolfgang Wahlster, Informatikprofessor und CEO des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) gerne formuliert, aus ihren Käfigen befreit.

iMRK ist ein gemeinsamer Innovationsvorstoß des Robotics Innovation Centers (RIC) der DFKI GmbH und des Smart Production Labs der Volkswagen AG. Das Projekt erforscht eine kollisionsfreie Dual-Arm-Manipulation in einem geteilten Mensch-Roboter-Arbeitsraum. Es geht um die Entwicklung der hierfür notwendigen Hard- und Software. Zugleich aber um eine Zeitenwende: Intelligente, autonome Maschinen sind in der Gesellschaft umstritten. 

Werden Maschinen die Menschen ersetzen?

„Die meisten Menschen rufen ja nicht gerade ‚Juhu‘, wenn über Automatisierung, Industrie 4.0 oder den Pflegeroboter, der der Oma die Hand tätscheln soll, geredet wird. Es gibt Skepsis, es gibt Ängste, vor allem auch vor dem Ersetztwerden“, erklärt Martina Mara, Roboterpsychologin am Ars Electronica Futurelab in Linz. Die wichtigsten Fragen seien daher: Wie kann man Roboter gestalten und einsetzen, ohne dass sich Menschen durch die Technologie dominiert fühlen oder sie als Bedrohung erleben?

Damit beschäftigte sich auch das vom Stifterverband mit initiierte Hightech-Forum, das die Bundesregierung von 2015 bis zum Ende der aktuellen Legislaturperiode 2017 in Innovationsfragen berät. Ein von acatech (Deutsche Akademie der Technikwissenschaften) koordiniertes Fachforum des Hightech-Forums erarbeitete speziell Handlungsempfehlungen zum Thema Autonome Systeme und zog folgendes Fazit: Gesellschaftliche und ethische Fragen zu autonomen Systemen sollten nicht abstrakt, sondern entlang der konkreten Technologieentwicklung formuliert und beantwortet werden.

„Die Autonomie der Systeme muss der Autonomie der Menschen untergeordnet bleiben.”

Henning Kagermann (Foto: Peter Himsel)
Henning Kagermann (Foto: Peter Himsel)
©
Henning Kagermann
Sprecher des Fachforums Autonome Systeme und Präsident von acatech

Deshalb empfiehlt das Hightech-Forum, autonome Systeme stufenweise und erfahrungsbasiert in einem beständigen und transparenten Lernprozess einzuführen. Dabei seien einige Grundregeln einzuhalten, die Entscheidungshoheit müsse immer bei den Menschen bleiben. Henning Kagermann, Sprecher des Fachforums Autonome Systeme und Präsident von acatech: „Die Autonomie der Systeme muss der Autonomie der Menschen untergeordnet bleiben.“ Bei der Einführung autonomer, lernender Systeme sollten zudem frühzeitig alle gesellschaftlichen Gruppen und ihre Vertreter eingebunden sein, wie Verbraucherschützer, Verbände, Versicherungsgesellschaften oder Juristen. Nur so könnten alle Risiken benannt und entsprechend gegengesteuert werden, so Kagermann: „Wir müssen in einem offenen Dialog sicherstellen und deutlich machen, dass am Ende der Entwicklungen der Nutzen mögliche Risiken überwiegt.“

Die interdisziplinär angelegten Diskussionen im Hightech-Forum machten auch noch etwas anderes deutlich. Für einen gesellschaftlichen Konsens ist es wichtig, deutlich zu machen, dass Mensch und Maschine nicht auf Augenhöhe, nicht gleichberechtigt interagieren. Neben möglichen technischen Risiken müssen Wissenschaftler in den kommenden Jahren also noch etwas anderes in den Griff bekommen: Robotersysteme, die autonom und menschenähnlich agieren, lösen bei Menschen Aversionen aus. Dafür reicht alleine die Vorstellung aus: ein mitfühlender Roboter, der Alten und Kranken Trost spendet? Bei Hausbesuchen auf zwei Beinen die Treppe hinaufgeht? Womöglich mit Kunsthaar und Silikongesicht wie eine Pflegekraft aussehen soll? All das wirkt schnell gruselig.

image
(Foto: Hightech-Forum)
©

Zentrale Aufgabe des Hightech‐Forums war es, die Umsetzung und Weiterentwicklung der neuen Hightech‐Strategie der Bundesregierung mit konkreten Handlungsempfehlungen zu begleiten. In dem Prozess haben die Mitglieder des Forums die Bundesregierung bei der strategischen Ausgestaltung der Hightech-Strategie beraten und Debatten zu Innovations- und Technologiethemen durch konkrete Vorschläge für neue Förderformate und Instrumente vorangetrieben. Dazu wurden acht zukunftsweisende Themenfelder indentifiziert. Autonome Sytsme ist eines davon. 

Zum Abschlussbericht des Fachforums Autonome Systeme

Roboter – unheimliche Helfer?

Roboterpsychologin Martina Mara: „Maschinen, die zu menschlich aussehen, wirken unheimlichen.“
Roboterpsychologin Martina Mara (Foto: Markus Thums)
Roboterpsychologin Martina Mara (Foto: Markus Thums)
©

Was Silikongesicht und Kunsthaar angeht: Es ist lange bekannt, dass Maschinen, die beinahe realistisch menschlich aussehen, häufig uncanny wirken – also unheimlich. „Damit haben sich sogar schon Ernst Jentsch und Sigmund Freud im frühen 20. Jahrhundert beschäftigt“, erzählt Roboterpsychologin Martina Mara.

Gerade Androide wirken auf Menschen immer dann unheimlich, wenn sie auf den ersten Blick täuschend echt und lebendig aussehen, auf den zweiten Blick dann aber merkwürdig – ein Gruseleffekt, der in die Kategorie fällt: nachts alleine durchs Wachsfigurenkabinett gehen und plötzlich bewegt sich ein Schatten. Wenn der Mensch etwas nicht klar einordnen kann in Mensch oder Nichtmensch, löst das warnende Gefühle, Ablehnung – und selbst Ekel aus. Der Gedanke an Tote oder Zombies liegt nahe.

Reinhard Karger, Unternehmenssprecher des DFKI, gibt ein Beispiel: „Solche wie Menschen aussehende Roboter, wie sie Hanson Robotics mit Albert Einstein oder Sophia produziert, mögen auf den ersten Blick faszinieren. Wenn man sich ihnen aber zuwendet, sie genauer anschaut, fühlt man sich getäuscht und die erste Sympathie sackt ziemlich schnell in den Keller.“ Der sogenannte Uncanny-Valley-Effekt tritt ein. Karger beschreibt ihn so: Das künstliche Gegenüber sei entweder offensichtlich nicht menschlich oder aber ununterscheidbar von einem Menschen – in beiden Situationen reagierten Menschen im Wesentlichen positiv. Ganz anders bei einer schlechten „Kopie“, die menschenähnlich sein soll, es aber erkennbar nicht ist: Hier reagierten Menschen mit Ablehnung. Und Menschen würden Imitate außerordentlich gut erkennen, so Karger.

Werkzeuge ohne menschliche Persönlichkeit

Sollten humanoide Pflegeroboter also besser wie C-3PO aus Star Wars aussehen? Das würde helfen, allerdings kann auch das Verhalten des Roboters, die Software, einen Ablehnungseffekt à la Uncanny Valley auslösen – eine Erkenntnis, die relativ neu ist. Untersuchungen von Martina Mara und Medienpsychologe Markus Appel deuten darauf hin. Mara nennt Details: „Maschinen, die autonom Entscheidungen treffen, und noch stärker solche, die offenbar so etwas wie menschliche Persönlichkeit besitzen, unabhängig von ihrem Äußeren, werden ebenfalls als gruselig wahrgenommen.“ Und das werde Gesellschaft und Wissenschaft sicher noch länger beschäftigen.

Was die Studie verdeutlicht: Selbst da, wo ein gefühlvoller Umgang und Empathie nötig sind, wie beispielsweise in der Pflege, würden sich mitfühlende Maschinen – wenn es sie schon gäbe – auf sehr dünnem Eis bewegen. Der Mensch kommt bislang nur mit Servicerobotern klar, die wie ein Werkzeug funktionieren. „Das Auto fährt, das Smartphone verschickt Nachrichten – so ist Technologie seit Jahrzehnten in den Köpfen abgespeichert“, sagt Markus Appel, Leiter des Arbeitsbereichs Medienkommunikation am Institut Mensch-Computer-Medien an der Universität Würzburg.

Wie man Menschen nicht gruselt, demonstriert AILA, eine Weltraumroboterdame mit flotter Frisur, die tatsächlich an C-3PO erinnert. Das sei kein Zufall, erklärt Informatiker Frank Kirchner, Leiter des RIC der DFKI GmbH in Bremen, wo AILA entstand: „Astronauten schweben inmitten eines tödlichen Vakuums, um sie herum eisige Kälte, die nur ein paar Millimeter Aluminium von ihnen fernhalten.“ Das Letzte, was man auf der internationalen Raumstation ISS brauche, seien Robotersysteme, die einen demotivieren, nerven, wütend machen, gruseln oder gar anekeln.

Gerade über das Gesicht von AILA habe das Entwicklerteam deshalb lange nachgedacht: Wie sollte ihr Antlitz aussehen, damit Astronauten es monatelang mit ihr auf kleinstem Raum aushalten? Ein LED-Bildschirm, eine menschlich aussehende Maske? Es wurde ein stilisiertes Gesicht, das weder metallisch und roboterhaft wirkt noch künstlich fleischig. AILA hat menschliche Züge, tut aber nicht so, als wolle sie ein Mensch sein.

Roboterdame AILA (Foto: Foto: David Schikora/DFKI)
Roboterdame AILA (Foto: Foto: David Schikora/DFKI)
©
Roboterdame AILA hat menschliche Züge, will aber kein Mensch sein.

„Unser Ziel war, den Uncanny-Valley-Effekt so weit es geht zu umschiffen“, sagt Kirchner. Hunderte Menschen sahen die zierliche AILA schon in Aktion auf Messen oder bei Besuchertagen im Bremer Institut, wie sie mit ihren feinmotorigen Fingern Dinge fasst, Hebel umlegt, Schalter drückt und auf ihrer sechsrädrigen Plattform über den Boden rollt. Kirchner ist froh: „Wenn AILA autonom irgendwelche Objekte bewegt, wird das von den Menschen generell nicht als beängstigend wahrgenommen, sondern fast immer mit Interesse verfolgt.“ Und das liege maßgeblich an ihrem Aussehen, aber auch an ihrem Verhalten, ihren Bewegungen. 

Frank Kirchner (Foto: DFKI)
Frank Kirchner (Foto: DFKI)
©
Frank Kirchner, Leiter des Robotics Innovation Centers in Bremen

Bleibt die Frage: Wollen Menschen überhaupt empathische Technologien haben? Was wünschen sie sich konkret für das Jahr 2053? Und wie kann man das überhaupt herausfinden? Forscher suchten einen Weg und fanden ihn im Rahmen des vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekts Shaping Future, das am Fraunhofer Center for Responsible Research and Innovation CeRRI des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO (Fraunhofer IAO) angesiedelt ist. „Unser interdisziplinäres Projektteam entwickelte ein Vorgehensmodell, mit dem Bürger nicht nur ihre Ansprüche an Zukunftstechnologien herausfinden und beschreiben können, sondern auch mit Wissenschaftlern teilen“, so Marie Heidingsfelder, wissenschaftliche Mitarbeiterin am Fraunhofer IAO und verantwortlich für Shaping Future.

Kern des Projekts waren Bürgerworkshops, in denen die Teilnehmenden mithilfe von Designmethoden wie Storytelling und narratives Prototyping konkrete Lösungen für Zukunftsszenarien im Jahr 2053 entwickelten, die ihnen wichtig sind. Die Ergebnisse dieser Workshops wurden sozialwissenschaftlich analysiert und zu „Bedarfsfeldern“ geclustert.

Ein Thema, das in den Workshops hitzig diskutiert wurde, war tatsächlich digitale Empathie. Marie Heidingsfelder: „Es ging darum, wie Technik den Menschen empathischer machen kann. Aber auch, wie smarte Technologie zukünftig empathisch auf Menschen reagieren sollte.“ Eine Idee sei beispielsweise eine Brille gewesen, die dem Träger anzeigt, in welcher emotionalen Verfassung sein Gegenüber gerade ist. „Unsere Welt wird immer komplexer, weshalb sich viele Teilnehmer eine Art Big Mother an ihrer Seite gut vorstellen konnten, die ihnen bei den geistigen und körperlichen Anforderungen des Alltags hilft“, so Heidingsfelder.

Eines habe Shaping Future deutlich gezeigt, so die Wissenschaftlerin: „Dass die Antworten auf die Fragen, ob es empathische oder menschenähnliche Technologie geben sollte oder nicht, so divers sind wie die Personen, die sie geben.“

Tauchen Sie tiefer in unsere Insights-Themen ein.
Zu den Insights