Geht es nach Informatikern aus Saarbrücken und Stuttgart, dann soll die Zusammenarbeit zwischen Mensch und Computer schon bald sozialer, effizienter und flexibler werden. Gemeinsam mit Wissenschaftlern aus Australien haben sie ein System entwickelt, das die Augenbewegungen einer Person erfasst. Aus diesen Informationen berechnet dann eine Software, ob die Person verletzlich, gesellig, verträglich, gewissenhaft oder neugierig ist.
„Mit unseren Augen erfassen wir nicht nur die Umgebung, sie sind auch das Fenster zu unserer Seele. Denn sie verraten, wer wir sind, wie wir uns fühlen und was wir machen“, sagt Andreas Bulling. Er leitet am in Saarbrücken am Max-Planck-Institut für Informatik und am Exzellenzcluster der Universität des Saarlandes die Forschungsgruppe „Perceptual User Interfaces“. Zusammen mit Wissenschaftlern in Stuttgart und Australien hat Bulling das Softwaresystem so trainiert, dass es Augenbewegungen auswerten und darüber auf die Charakterzüge einer Person schließen kann. Um das zu ermöglichen, kommen spezielle Rechenverfahren des Maschinellen Lernens zum Einsatz.
Training in Australien
Daten für das Training und die Evaluierung erhielten die Wissenschaftler an der Flinders University in Australien. 50 Studenten, darunter 42 Frauen und acht Männer im Durchschnittsalter von 22 Jahren, beteiligten sich an der Studie und wurden mit so genannten Eye Trackern ausgestattet. Damit wurden die Augenbewegungen der Probanden gefilmt, während sie rund zehn Minuten über den Campus schlenderten und sich einen Kaffee oder andere Artikel im Campus-Laden kauften. Danach legten die Probanden die Spezialbrillen ab und füllten von den Forschern vorbereitete Fragebögen aus. Damit sollten auf herkömmliche Art die Persönlichkeit und der Grad der Neugierde der jeweiligen Person bestimmt werden.
Augenbewegungen ausgewertet
„Um die aufgenommenen Augendaten unabhängig von der jeweiligen Dauer der Aufnahme zu analysieren, haben wir mit einem verschiebbaren Zeitfenster gearbeitet, da so keine Charakteristika abgeschwächt werden“, so Bulling. Aus jedem der sich ergebenden Zeitfenster gewannen die Forscher 207 Merkmale. Zu diesen Merkmalen gehörte neben Blickfixierungen auch die Blinzel-Rate. Basierend darauf und auf den Informationen aus den Fragebögen fassten die Forscher pro Persönlichkeitszug rund 100 Entscheidungsbäume zu einem Klassifikator zusammen und trainierten diesen. Im anschließenden Test mit bisher noch nicht verwendetem Datenmaterial haben die Forscher laut eigenen Angaben nachgewiesen, dass das Softwaresystem sicher Charakterzüge wie emotionale Labilität, Geselligkeit, Verträglichkeit und Gewissenhaftigkeit erkennen kann.
Perspektiven für Roboterentwicklung
Von dem hohen Nutzen der Forschungsergebnisse ist Bulling überzeugt: „Das so gewonnene Wissen über nonverbales Verhalten können wir auch auf Roboter übertragen, so dass diese sich wie Menschen benehmen. Solche Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar.