Wie menschlich sollen Maschinen sein?: Im Gespräch mit Linda Onnasch, Junior­professorin für Ingenieur­psychologie an der Humboldt-Universität zu Berlin

04. März 2019

Wie menschlich sollen Maschinen sein?

Im Gespräch mit Linda Onnasch, Junior­professorin für Ingenieur­psychologie an der Humboldt-Universität zu Berlin

Linda Onnasch, HU © WISTA Management GmbH

Forschungspartner: Linda Onnasch mit Industrieroboter Sawyer. Bild: © WISTA Management GmbH

Therapeutin wollte sie nie werden. Stattdessen untersucht die Psychologin Linda Onnasch, wie menschlich eine Maschine sein und wer in der Zusammenarbeit zwischen Mensch und Maschine das Sagen haben sollte. Bei aller Technikbegeisterung macht sie deutlich: 
Da steckt auch viel Potenzial zur Manipulation drin. 
Seit Oktober 2017 ist Onnasch Juniorprofessorin für Ingenieurpsychologie an der Humboldt-Universität zu Berlin (HU). Schuld an ihrer Berufswahl ist wohl ein ganz besonderes Auto, wie die im Ruhrgebiet Aufgewachsene im Interview reflektiert.

Adlershof Journal: Wie menschlich sollten Maschinen sein?

Linda Onnasch: Das hängt vom Einsatzgebiet ab. Im Pflegebereich etwa ist eine humanoide Gestaltung sehr hilfreich. Pflegebedürftige haben dadurch wenige Berührungsängste und wissen intuitiv, wie sie mit einem Pflegeroboter umgehen müssen. Beispielsweise mit ihm zu reden statt Knöpfe zu drücken. Im industriellen Bereich stellt sich die Frage, was ist das gemeinsame Ziel von Mensch und Roboter, denn eine Vermenschlichung der Maschinen birgt auch Gefahren.

Welche Gefahren sind das?

Dass die Funktionalität einer Maschine aus dem Blick gerät. 
Menschen machen Maschinen unabhängig von der Gestaltung menschlicher. Sie geben ihnen Namen, übertragen in der Interaktion soziale Normen und Werte, entwickeln starke Emotionen zur Maschine. Ebenso verhält es sich mit vermenschlichenden Beschreibungen. Dadurch werden Objekte belebt wahrgenommen. Ein extremes Beispiel sind Roboter, die entwickelt wurden, um in Kriegsgebieten Bomben zu entschärfen. Um diese aus einer bedrohlichen Situation zu retten, haben sich Soldaten sogar schon selbst in Lebensgefahr gebracht.

Problematisch sehen Sie auch die Übertragung von Stereotypen auf Maschinen. Warum?

Untersuchungen haben ergeben, über 80 Prozent der Roboter im Servicebereich tragen weibliche Namen. Sie sind kleiner als Industrieroboter, die meist männlich benannt sind, und sehen pinkfarben aus. Da müssen wir langsam an eine Frauenquote für Industrieroboter denken.

Neigen wir zu einem Übervertrauen in Maschinen?

Ja, auch diese Gefahr besteht. Maschinen und Assistenzsysteme werden immer intelligenter, aber sie treffen ihre Entscheidungen aufgrund von Daten. Doch die wichtigere Frage ist: Habe ich als Mensch überhaupt noch eine Option, anders zu entscheiden als die superschlaue Maschine? Stelle ich mein Bauchgefühl über die künstliche Intelligenz? Während in deutschen Kernkraftwerken der Mensch die Verantwortung trägt, ist in koreanischen Kraftwerken alles automatisiert. Was ist besser? Der Verantwortliche ist im Zweifel auch immer der Buhmann, doch hätte er anders entscheiden können? Eine ebenso von Verantwortung entkoppelte Position ist die des Sicherheitsfahrers in autonomen Fahrzeugen. Kann ich nach stundenlangem passivem Mitfahren bei Gefahr in Sekundenschnelle noch eine richtige Entscheidung treffen? Die Aufteilung, dass der Mensch der letzte Entscheider ist, funktioniert so nicht.

Wie sieht eine gute Aufgabenverteilung zwischen Mensch und Maschine aus?

Unter Einbeziehung von Fähigkeitsverlust, Situationsbewusstsein und Leistung sind solche Assistenzen sehr gut, die Informationen vorbereiten und keine Entscheidungen vorwegnehmen. Dann heißt es für uns Menschen immer wieder: Regelmäßig trainieren, denn wir lernen nur über Fehlererfahrung und verändern so unser Verhalten.

Wie wahren Sie emotionale Distanz zu Maschinen, z. B. zu den niedlichen Robotern vom Typ NAO, mit denen Sie an der Universität forschen?

Bei den NAOs fällt mir das leicht, weil ich hinter ihre Fassade blicke. Aber zu Hause sage ich schon mal, wenn mein Staubsaugerroboter nicht richtig gesaugt hat, er hatte einen schlechten Tag.

Woher kommt Ihr Interesse für Automationspsychologie?

Das war K.I.T.T., das sprechende, mit KI ausgestattete Auto aus der Fernsehserie „Knight Rider“, die ich als Kind immer geschaut habe. So ein Auto wollte ich unbedingt haben.

Wann waren Sie das erste Mal in Adlershof?

Das war 2006. Ich studierte an der Technischen Universität Berlin Psychologie und nahm an einem Marketingseminar teil, bei dem es darum ging, den Wissenschaftsstandort Adlershof zu promoten. Als ich 2017 hier als Juniorprofessorin anfing, war ich positiv überrascht, wie sehr sich der Standort verändert hat. Als Wissenschaftlerin bin ich besonders begeistert von der räumlichen Nähe der Institute und Unternehmen, was die Zusammenarbeit fördert.

Wie verbringen Sie Ihre Freizeit?

Wandernd mit Mann und Hund im Brandenburger Umland. Außerdem liebe ich Schlägersportarten. In der warmen Jahreszeit spiele ich Padel-Tennis, sonst Squash und Tischtennis. Ich koche sehr gern, am liebsten asiatisch und verbringe viel Zeit mit Freunden.

 

Das Interview führte Sylvia Nitschke für Adlershof Journal

Kommentare

Kommentare (0)

Keine Kommentare gefunden!

Sagen Sie uns Ihre Meinung

Ihre Meinung ist uns wichtig

Meldungen dazu

Adlershof Journal März/April 2019. Titelbild
Adlershof Journal März/April 2019
K.O. oder K.I.? Was künstliche Intelligenz mit uns und unserer Zeit macht
Prof. Dr. Linda Onnasch. Foto: © HU Berlin / Matthias Heyde
„Emotionale Bindungen können gefährlich werden“
HU-Ingenieurpsychologin Linda Onnasch forscht zu Mensch-Maschine-Interaktionen