Emotionale Interaktion - das fehlende Glied

,
Soroosh Mashal

In unseren letzten Blog-Beiträgen haben wir die Rolle von Emotionen in Videospielen erläutert, einen Überblick über die Mensch-Maschine-Interaktion gegeben und was dies für die Videospielindustrie bedeutet. Wir haben herausgefunden, dass wir aus technischer Sicht fast völlige Freiheit in der 3D-Umgebung erreicht haben. In CAVEs kann man sich zum Beispiel in Echtzeit auf natürliche Weise in einer virtuellen Umgebung bewegen.

Emotionale Interaktion

Der nächste Schritt besteht darin, eine weitere Ebene mit ihren Dimensionen und Modi zu unserer Interaktion hinzuzufügen. Wenn Sie jemals in ein fremdes Land gereist sind, in dem Sie die Sprache der Einwohner nicht sprechen können, wissen Sie sicher, was es bedeutet, mit Menschen zu sprechen und sie zu hören, ohne ein einziges Wort zu verstehen. Trotzdem sprechen Sie in Ihrer Muttersprache und nutzen Ihren Tonfall und Ihre Körpersprache, um eine Verbindung herzustellen und zu kommunizieren. Das ist die Magie der emotionalen Interaktion.

Erkennung von Gefühlszuständen durch die Stimme

Man muss kein Weltreisender sein, um zu wissen, dass wir Menschen uns durch eine uralte Form der Sprache verbinden: die Sprache der Gefühle. Obwohl das Ausmaß unserer Äußerungen stark von der Umgebung beeinflusst wird, in der wir aufgewachsen sind, und von der Art und Weise, wie wir sie zu regulieren glauben, sind die grundlegenden Muster für die wichtigsten Emotionen in allen Kulturen gleich. Unser Lachen und Weinen, unsere Wut und Erregung werden mit demselben Vokaltrakt ausgedrückt wie beim alten Homo sapiens vor 60 000 Jahren. Generation für Generation sind wir darauf trainiert worden, diese Hinweise in der Stimme zu erkennen und sie sofort mit emotionalen Zuständen oder Verhaltensmustern in Verbindung zu bringen.

Tausende von Stimmproben für jede Emotion

Kann künstliche Intelligenz das auch lernen? Mithilfe von Deep-Learning-Methoden werden Computer mit Abertausenden von Stimmproben für jede Emotion gefüttert. Das ist derselbe Prozess, der in unseren Gehirnen seit unserer Kindheit abläuft. Es braucht viel Rechenleistung, um das Modell zu trainieren, aber wenn es fertig ist, kann es in Echtzeit auf jedem Gerät laufen. Heutzutage kann die KI allgemeine Emotionen genauso gut erkennen wie der Mensch. Es gibt unzählige Anwendungen für diese innovative Technologie, aber wir wollen uns hier auf die Videospielindustrie und die Mensch-Computer-Interaktion beschränken.

Gefühls-KI

Emotionale KI ermöglicht es uns, den emotionalen Interaktionszyklus zu vervollständigen. Das bedeutet, dass die Computer den emotionalen Zustand des Benutzers erkennen und entsprechend reagieren können. Affective Computing ist die Untersuchung und Entwicklung von Systemen und Geräten, die menschliche Gefühle erkennen, interpretieren, verarbeiten und simulieren können. Es handelt sich dabei um ein interdisziplinäres Gebiet, das Informatik, Psychologie und Kognitionswissenschaften umfasst.
Die Idee, diesen Kreislauf zu schließen, stammt nicht aus dem Jahr 2020. Mit jedem Fortschritt in der Sensortechnologie und -erkennung haben Wissenschaftler versucht, den Zyklus zu vervollständigen. Die Verwendung von Herzschlag, Handschweiß, Augenbewegungen und Gehirnströmen sind einige Beispiele für diese Bemühungen. Obwohl sie sich alle in einer Laborumgebung und in kleinem Maßstab als wirksam erwiesen, haben sie die Videospielindustrie nicht verändert. Der Grund dafür ist einfach: Skalierung und Verfügbarkeit.

Audio Emotion AI

Trotz der Vorteile des Engagements, der natürlichen Interaktion und des zusätzlichen Eintauchens in das Spiel konnten und wollten Videospieler kein EKG (Elektrokardiogramm) oder GSR (Galvanische Hautreaktion) an sich selbst anbringen, bevor sie auf die Play-Taste drücken. So blieb die Idee der Integration von affektivem Computing und Videospielen in den wissenschaftlichen Abhandlungen und fand nie den Weg in die breite Öffentlichkeit.
Aber was wäre, wenn wir Sensoren verwenden könnten, die es bereits gibt, und eine Art des affektiven Computing nutzen, die skalierbar ist? Diese Frage bringt uns zu Audio Emotion AI. Mikrofone sind überall, und Sprechen ist für uns die natürlichste Form der Interaktion. Mit Audio Emotion AI können wir den Interaktionszyklus vervollständigen. Diesmal sind die Sensoren auf jedem Gerät vorhanden, die Modelle sind leichtgewichtig und der affektive Interaktionsmodus ist natürlich.

Der Nutzen der Integration von Emotionen

Wenn wir alle Hindernisse aus dem Weg geräumt haben, stellt sich die Frage: Warum sollten wir das eigentlich tun? Welchen Nutzen hat die Integration von Emotionen in unsere täglichen Interaktionen? Und was ist die Gefahr eines Mangels an Emotionen in diesen Interaktionen?