Der "Gruseleffekt" der Roboter

Roboterpsychologin Martina Mara beim Kamingespräch mit „Presse“-Chefredakteur und -Herausgeber Rainer Nowak.
Roboterpsychologin Martina Mara beim Kamingespräch mit „Presse“-Chefredakteur und -Herausgeber Rainer Nowak. (c) Luiza Puiu
  • Drucken

Roboterpsychologin Martina Mara über die Angst der Menschen vor Kontrollverlust, Sexroboter und Hype-Diskurse. Und darüber, inwiefern der Roboter ein alter Mann ist.

„Also bei mir liegt kein Roboter auf dem Freud'schen Sofa herum“, erklärt die Roboterpsychologin Martina Mara gleich zu Beginn. „Das wäre ja völliger Nonsens. Roboter haben keine Psyche, keine Gefühle, kein Bewusstsein. Sie brauchen keine Gesprächspartner zu therapeutischen Zwecken.“ Mara ist seit Kurzem Professorin an der Universität Linz. Wozu sie dort forscht, erklärte sie beim Kamingespräch mit „Presse“-Chefredakteur und -Herausgeber Rainer Nowak am Donnerstag: Sie befasse sich mit den Anwendern, die mehr und mehr würden. Und häufig auch mit ihren Befürchtungen. „Bei mir geht es oft um Ängste“, sagt Mara.

Berichte über Sexroboter, Pflegeroboter oder Haushaltsroboter, die häufig humanoid dargestellt würden, würden diese Ängste teilweise noch befeuern. Aus der Forschung wisse man: Wenn die Roboter ein bisschen menschenähnlich seien, dann wecke das bei den Menschen tendenziell Sympathie („Wir können uns selten gegen das Kindchenschema wehren“). Wenn ihnen die Maschinen aber zu ähnlich seien, werde es den Menschen doch schnell unheimlich.

„Überzogene Erwartungen“

Das gelte für den – auf den ersten Blick unverdächtigen – Haushaltsroboter genauso, wenn er als Humanoid mit Schürzchen dargestellt wird, wie für den Pflegeroboter, der der dementen Oma im Heim den Arm tätschelt. „Und gerade bei Sexrobotern und bei diesen sehr realistischen, mechanischen Puppen kommt schon sehr oft auch der Gruseleffekt dazu.“

Ein besonders großes Thema sei die Angst vor Kontrollverlust. Das liege teilweise an fehlendem Wissen über Robotik und künstliche Intelligenz, sagt Mara. „Wir haben viel zu wenig Gelegenheit zu verstehen, was diese Technologien eigentlich können. Dieser Hype-Diskurs, der momentan geführt wird, ist ja mit völlig überzogenen Erwartungen und Mythen verbunden, die zu der Wahrnehmung des Kontrollverlusts beitragen.“

Es gebe diesen Kontrollverlust freilich auch tatsächlich, nur in anderen Bereichen als in denen, die ständig diskutiert würden, sagt die Forscherin. Etwa, weil vom Menschen produzierte Textmassen im Internet sozusagen als „Trainingsdaten“ für künstliche Intelligenz verwendet würden, und dadurch mitunter Fehler und Stereotype – etwa Genderklischees und rassistische Klischees – reproduziert oder sogar verstärkt würden. „Eine Art Trump-Roboter, ein Trumpboter also“, wie Nowak launig kommentiert. „Kann man überspitzt so formulieren“, sagt Mara.

Google Translate etwa sei ein konkretes Beispiel. „Da weiß man seit Längerem, dass Genderstereotype im Algorithmus drinnen stecken“, sagt die Forscherin. Wenn etwa aus dem Türkischen – das nur ein Personalpronomen kennt, das er, sie oder es bedeuten kann – ein Satz ins Deutsche übersetzt wird: Ein Satz, der heißen könnte „Er oder sie ist Arzt oder Ärztin“, werde automatisch als „Er ist Arzt“ übersetzt. Geht es um Pflegepersonal, dann sei das Umgekehrte der Fall, sagte Mara: Es heiße dann: „Sie ist Krankenschwester.“

„Das heißt, der Roboter ist ein alter, weißer Mann“, meint Nowak. „Er ist ein alter Mann“, sagt Mara. „Zumindest insofern, dass er ja auch auf alte Daten zugreift.“ Würde man nur neuere und gut kuratierte Daten als Grundlage für solche lernenden Systeme verwenden, wäre das vielleicht anders. „Vielleicht muss man sich sogar zusätzliche Regeln überlegen, was man gegen so etwas macht.“

„Ein absurder Humanoid“

Zu den potenziellen Auswirkungen von Robotern und künstlicher Intelligenz auf den Arbeitsmarkt sagt Mara: „Wir haben es mit extremen Prognosen zu tun.“ Anstreben sollte man in Bereichen wie Pflege, der immer genannt wird, wenn es um Einsatzbereiche für Roboter geht, ein komplementäres Modell.

„Der Pflegeroboter, der häufig als absurder Humanoid repräsentiert wird, der ist natürlich Blödsinn“, sagt Mara. Aber mit Unterstützung in Bereichen wie Heben, Transport oder Datenanalyse könne sich das Personal idealerweise auf Kernkompetenzen konzentrieren. „Man kann sagen, dass das eine naive Zukunftsvorstellung ist.“ Aber man müsse darüber diskutieren, damit letztlich eben nicht einfach der Pflegeschlüssel heruntergeschraubt wird, weil es eh die Roboter gebe – mit denen sich Demenzpatienten super verstehen.

„Das kann keine Maschine“

Welche Bereiche sind trotz der ständigen Weiterentwicklung der künstlichen Intelligenz dem Menschen vorbehalten? Hochkommunikative Tätigkeiten, so Mara, Verhandlungen, Beratung, Empathie. „Das kann keine Maschine dieser Welt – und es sieht auch in absehbarer Zeit nicht danach aus.“ Und echte Innovation: Etwas komplett Neues zu erdenken – das sei dem Menschen vorbehalten.

Veranstaltung

Heute, Freitag, spricht Martina Mara, die seit April Professorin für Roboterpsychologie an der Universität Linz ist, darüber, wie human die digitale Zukunft sein wird. Mit am Podium: Mirta Galesic, J. Stephen Lansing, Helga Nowotny. 10.45 bis 12.15 Uhr, Elisabeth-Herz-Kremenak-Saal im Congress Centrum.

Das nächste Kamingespräch von Rainer Nowak im Rahmen des Forums Alpbach findet am Montag, 27. August statt. Nowak spricht mit Elisabeth Lovrek, der neuen Präsidentin des Obersten Gerichtshofs (OGH). Das Kamingespräch beginnt um 9 Uhr, Ort: das Bällebad („Les Thermes“).

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.