Damit Technik uns individuell assistiert

Emotionserkennung für eine menschengerechte Arbeitsgestaltung

422

Inno Visions 01 16 Neurolab alt 001 keyvisual

© Ludmilla Parsyak, Fraunhofer IAO — 

Emotionsmessung bei der Mensch-Maschine-Interaktion

VORHERIGES BILD
NÄCHSTES BILD
09. Februar 2016 — 

Welche emotionalen Zustände lassen sich am Gehirn erkennen, wenn Menschen technische Geräte benutzen? Lassen sich Zustimmung oder Ablehnung präzise feststellen? Und wäre es nicht eine große Hilfe, wenn Assistenzsysteme dies lesen und entsprechend reagieren könnten? Im NeuroLab des Fraunhofer Institut für Arbeitswirtschaft und Organisation IAO gehen Forscher genau diesen Fragen nach. Im Oktober 2015 eröffnet, ist es Teil des Projekts »EMOIO«, welches das Fraunhofer IAO zusammen mit Partnern aus Forschung und Industrie umsetzt.

 

Technische Geräte sind aus kaum einer Arbeitsumgebung mehr wegzudenken. Aber wie gut unterstützen Assistenzsysteme wirklich die Mitarbeiter? Oft frustrieren sie eher, wenn die Bedienung nicht intuitiv ist. Um die Arbeitsmittel für den Nutzer zu optimieren, erheben Forscherteams weltweit Daten zur User Experience. Wie erleben Mitarbeiter ihren PC-Arbeitsplatz oder die Interaktion mit verschiedenen Maschinen? Belastet sie der Umgang, motiviert sie die Nutzung der Technik? Können sie sich gut konzentrieren? Die Forscher am Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO setzen verschiedene Methoden ein, um mentale Nutzerzustände zu erkennen. Sie messen Gehirnaktivitäten während der Mensch-Technik-Interaktion.

 

Kathrin Pollmann und Dr. Mathias Vukelic vom Fraunhofer IAO verantworten die Forschung im »NeuroLab«. In der Grundlagenphase wurden Daten von ca. 60 Probanden erhoben, wobei untersucht wird was bei ihren Probanden im Gehirn passiert, wenn sie mit Assistenzsystemen arbeiten. »Nach der offline Analyse der Daten aus der Grundlagenphase werden wir als nächstes onlinefähige Algorithmen entwickeln, um die Reaktionen auch in Echtzeit erkennen zu können«, sagt Dr. Vukelic. In einer dritten Phase erforschen die Wissenschaftler, welches sinnvolle Adaptationsverhalten das Assistenzsystem, in den jeweiligen Anwendungsszenarien (wie z.B. einer adaptiven Webschnittstelle, ein Fahrerassistenzsystem und ein System zur Mensch-Roboter-Kooperation), umsetzen sollte.

 

Die Probanden mussten während des Tests unter Anderem in einem Menü verschiedene Ziele erreichen, beispielsweise über die Navigation E-Mails abrufen. Zufällig wurden unterschiedliche Adaptationsverhalten der Software eingebaut. Das neurophysiologische Feedback, welches die Forscher gewinnen, gibt Aufschluss darüber, wie die Nutzer dem Verhalten des Systems zustimmen oder dieses ablehnen. »Wir sind beeindruckt, dass man die Ausprägungen der unterschiedlichen Adaptationen so deutlich unterscheiden kann«, so Vukelic. »Spannend wird auch, herauszufinden, welche Unterschiede es in den verschiedenen Altersklassen gibt. Bei älteren Menschen kann man andere Gehirnmuster erkennen als bei jüngeren.« Wie genau der Einsatz der Elektroenzephalographie (EEG), funktionaler Nahinfrarotspektroskopie (fNIRS) und die Messung der Muskelaktivitäten im Gesicht funktioniert, erklärt dieses Video:

 

 

(mk)

422 mal gelesen

0 Kommentar(e)

http://innovisions.de/beitraege/damit-technik-uns-individuell-assistiert/

Kommentare zu diesem Beitrag

0 Kommentare