Person vor Bildschirm mit Eyetracking-VorrichtungLaila Tkotz, KIT

Mensch-Maschine-Interaktion - Prof. Barbara Deml

  • Ob helfender Roboter oder Smartphone: Die Schnittstellen zwischen Mensch und technischem Gerät sollen nicht nur nutzerfreundlich, sondern auch adaptiv sein. Sie sollen Bedürfnisse des Menschen erkennen und auf diese eingehen. Wie Maschinen diese Bedürfnisse erfassen können, untersucht die Leiterin des Instituts für Arbeitswissenschaft und Betriebsorganisation (ifab).

Wie Maschinen lernen, den Menschen zu verstehen

Prof. Barbara, Deml, KIT Laila Tkotz, KIT

Bewegliche unterstützende Roboter könnten etwa körperlich eingeschränkten Personen zur Hand gehen und ihnen so ermöglichen, länger in den eigenen vier Wänden wohnen zu bleiben. „Wenn Menschen sich gerade stark konzentrieren müssen, gestresst sind oder ein Problem haben, erkennen wir dies und reagieren darauf, indem wir uns etwa ruhig verhalten oder Hilfe anbieten. Die helfenden Roboter von morgen sollen das auch können“, sagt Barbara Deml. Die Psychologin will Maschinen beibringen, die körperliche Verfassung sowie die Gemütszustände von Menschen zu erfassen und sich entsprechend zu verhalten. Dabei sei es relativ gleichgültig, ob Assistenzsysteme in einem Maschinenleitstand, dem Cockpit eines Flugzeugs, einem Operationssaal oder eben der häuslichen Pflege zum Einsatz kämen. „Die Prinzipien der Interaktion zwischen Mensch und Maschine bleiben immer die gleichen“, sagt die Expertin. Stets seien sichere und gleichzeitig praktikable Lösungen gefragt.

Eine Möglichkeit, Maschinen erkennen zu lassen, was wir wollen oder was wir als nächstes tun werden, ist das Eyetracking. „Wohin wir schauen, wie lange unser Blick auf einer Stelle verharrt oder ob unsere Pupillen geweitet sind, lässt darauf schließen, was wir empfinden“, erläutert Deml. Darüber hinaus nutzt sie Messungen physiologischer Parameter wie Herzrhythmus, Muskelaktivität oder Hautleitfähigkeit. Diese Daten werden von der Maschine statistisch abgeglichen; gibt es Abweichungen vom Üblichen, wird sie aktiv. So könnten beispielsweise Fahrassistenzsysteme durch Beobachtung des Fahrers brenzlige Verkehrssituationen voraussehen oder Industrieroboter Arbeiter vor Überbeanspruchung schützen, indem sie etwa ihr Arbeitstempo drosseln.

„Beim Ableiten psychologischer Zustände aus physiologischen Informationen haben wir in den vergangenen Jahren große Fortschritte erzielt.“ Wobei Deml darauf hinweist, dass dies nicht mit Hilfe Künstlicher Intelligenz geschieht. Ihre Methoden sind rein statistischer Natur: „Beim sogenannten Deep Learning werden Systeme mit einer gewaltigen Menge von Daten gefüttert, die sie dann interpretieren sollen. Wir hingegen wollen aus unseren Werten ganz bestimmte Informationen herausfiltern.“

Dass die smarten Arbeitsumgebungen der Zukunft neben Erleichterungen auch Gefahren für die Nutzende bergen, dessen ist sich Deml sehr bewusst: „Dass ein Assistenzsystem auch Auskunft darüber geben kann, wie viel Unterstützung ein einzelne Mitarbeitende in Anspruch nehmen, ist klar.“ Hier gelte es, Vorsichtsmaßnahmen im Sinne der Privacy by Design zu treffen. In der Forschung sei das Thema zentral: „Vor zehn Jahren hat das noch keine Rolle gespielt, heute fragt man über die Fachgrenzen hinweg nach den Folgen – sowohl sozialer, rechtlicher und psychologischer Natur.“

Beim Ableiten psychologischer Zustände aus physiologischer Information stünden empirische Studien und deren statistische Datenauswertung im Mittelpunkt: „Uns ist es wichtig, bei der Analyse nicht nur rein datengetrieben vorzugehen, wie es im Moment mit vielen Deep-Learning-Ansätzen im Bereich der Künstlichen Intelligenz verfolgt wird, sondern entgegen des Trends auch modellbasiert zu arbeiten“, sagt Deml. (mex)

Der Presseservice des KIT stellt gerne den Kontakt zwischen den Medien und Prof. Barbara Deml her.

 

Fotonachweis:
Foto Eyetracking: Laila Tkotz, KIT
Porträt Prof. Barbara Deml, ifab: Laila Tkotz, KIT