Foto: flickr.com/Ally Aubry

Software erkennt Emotionen besser als Menschen – Technologie erreichte bei Vergleichstest Erfolgsquote von 72 Prozent

Rochester – Forscher der University of Rochester http://rochester.edu haben eine Software entwickelt, die aus der Sprache eines Menschen dessen derzeitige Gemütslage erkennt. In einem Praxistest mit 700 Audio-Sprechproben konnte die Technologie den jeweiligen emotionalen Zustand in 72 Prozent der Fälle korrekt analysieren. Mit diesem Wert erzielte die Software sogar ein besseres Ergebnis als eine Vergleichsgruppe mit echten Menschen. Diese kam bei ihrer Analyse der Sprechproben lediglich auf eine Erfolgsquote von rund 60 Prozent.Foto: flickr.com/Ally Aubry

Viele Anwendungen möglich

„Unsere Software ist nicht die erste, die dazu im Stande ist, aus den Äußerungen eines Menschen seine Gemütslage herauszulesen. Aber wir haben es zum ersten Mal geschafft, dass unsere Software den Menschen in einem direkten Vergleichswettstreit überflügeln kann“, erklären die beiden Projektmitarbeiter Na Yang und Emre Eskimez vom Department of Electrical and Computer Engineering der University of Rochester http://www.ece.rochester.edu . Die Quote von 70 Prozent lasse sich sogar auf bis zu 85 Prozent hochschrauben.

Die Anwendungen sind vielfältig. Melissa Sturge-Apple, Psychologin im Team der Rochester-Forscher, möchte die Software etwa einsetzen, um die Effekte von Emotionen bei Eltern-Kind-Interaktionen zu untersuchen. „Wir wollen die Software nutzen, um die Emotionen von Eltern zu erfassen, wenn sie mit ihren Kindern interagieren und hoffen, so besser zu verstehen, wie diese Gemütszustände die Entwicklung der Sprösslinge beeinflussen“, so die Expertin.

Weiterführende Verbesserungen

Zu Testzwecken hat Sturge-Apple bereits damit begonnen, Familienunterhaltungen im Labor aufzuzeichnen. „Wenn diese Tests erfolgreich verlaufen, plane ich die Anbringung von Bluetooth-Mikrofonen in den Häusern der Familien.“ Dass Computer beziehungsweise einzelne Programme bald in der Lage sein könnten, die jeweiligen Emotionen ihrer User zu erkennen, kommt nicht von ungefähr.

Schon 2012 haben ebenfalls Ingenieure an der University of Rochester mit einem Algorithmus für Aufsehen gesorgt, der gefühlserkennende Smartphones ermöglichen soll. Ähnlich wie beim aktuell präsentierten Ansatz werden auch hier verschiedene Charakteristiken gesprochener Worte – beispielsweise die Tonlage und Lautstärke – analysiert, um so auf eine bestimmte Emotion zu schließen. Die Worte selbst sind dabei unerheblich.

Aussender: pressetext, Markus Steiner
Foto: flickr.com/Ally Aubry
Redaktion: TG