Roboter lernen Empathie 

Hanson Robotics in Zusammenarbeit mit audEERING - führender Innovator in Voice AI

audEERING und Hanson Robotics entwickeln Roboter mit höchster sozialer Kompetenz für den täglichen Einsatz. Einer der weltweit führenden Roboterhersteller Hanson Robotics integriert die automatisierte Emotionserkennung devAIce des deutschen KI-Unternehmens audEERING. Ein Höchstmaß an Mensch-Maschine-Interaktion eröffnet neue Chancen für den Einsatz von Robotern in der Arbeitswelt, zum Beispiel in der Pflege. Roboter erkennen die Emotionen ihres Gegenübers an der Stimme und steigern so ihre soziale Kompetenz.

devAIce® SDK 3.6.1 Aktualisierung

devAice SDK 3.6.1 Update in einem Emotionsdimensionen-Würfel: Valenz, Erregung, Dominanz

Das devAIce® Team ist stolz darauf, die Verfügbarkeit von devAIce SDK 3.6.1 bekannt zu geben, das seit der letzten öffentlich angekündigten Version 3.4.0 eine Reihe von wichtigen Erweiterungen, spannenden neuen Funktionen und kleineren Korrekturen enthält. Dieser Blogbeitrag fasst die wichtigsten Änderungen zusammen, die seither im devAIce® SDK eingeführt wurden.

SHIFT - Projekt zur Umgestaltung des kulturellen Erbes startet im Rahmen von Horizont Europa

Das Förderprogramm Horizont Europa gibt den Startschuss für neue Forschungs- und Innovationsmaßnahmen im Rahmen des Projekts SHIFT

SHIFT: MetamorphoSis of cultural Heritage Into augmented hypermedia assets For enhanced accessibiliTy and inclusion (Umwandlung von Kulturerbe in erweiterte Hypermedia-Assets für verbesserte Zugänglichkeit und Inklusion) unterstützt die Annahme von Strategien für die digitale Transformation und die Einführung von Werkzeugen in der Kreativ- und Kulturindustrie (CCI), in der die Fortschritte bisher nur langsam vorankamen.
audEERING beteiligt sich jetzt am SHIFT-Projekt mit dem Ziel, emotionale Sprachbeschreibungen historischer Exponate zu synthetisieren. Dies wird die Art und Weise, wie man ein historisches Denkmal erlebt, verändern, insbesondere für sehbehinderte Menschen.

Affektive Avatare und die Voice AI-Lösung

VR-Avatare mit Voice AI als Schlüsselfaktor - audeering

Wir verwenden Avatare, um unsere Identität zu zeigen oder andere Identitäten anzunehmen, und wollen sicherstellen, dass wir uns so ausdrücken, wie wir wollen. Der Schlüsselfaktor für den Ausdruck sind Emotionen. Ohne das Erkennen von Emotionen haben wir keine Möglichkeit, den Avatar eines Spielers so zu verändern, dass er seinen Ausdruck und seine Individualität zum Ausdruck bringt.
Mit entertAIn play wird das Erkennen von Emotionen möglich.

Schließen der Valenzlücke bei der Erkennung von Emotionen

Bloglücke zwischen der Valenzlücke bei der Erkennung von Emotionen anhand von Sprache. Endlich die Herausforderung bei der Erkennung von Emotionen in der Sprache meistern

2021 war ein spannendes Jahr für unsere Forscher, die sich mit der Erkennung von Emotionen aus Sprache beschäftigen. Dank der jüngsten Fortschritte bei transformatorbasierten Architekturen haben wir zum ersten Mal Modelle entwickelt, die die Valenz mit ähnlich hoher Genauigkeit vorhersagen wie die Erregung.

ERIK - Emotionserkennung für die Autismus-Therapie

ERIK-Roboter und Mensch - Autismus-Therapie über ein vom BMBF gefördertes Projekt

Das Erkennen und Wahrnehmen von Gefühlsäußerungen ist ein wesentlicher Bestandteil der menschlichen Kommunikation. Um die sozio-emotionalen Kommunikationsfähigkeiten autistischer Kinder zu entwickeln, muss die Therapie darauf ausgerichtet sein. Im Rahmen des ERIK-Projekts wird eine neue Form der Therapie entwickelt.

SEMULIN: Audio-KI für autonome Autos

Blaues Auto

Der Markt für autonomes Fahren wird voraussichtlich von 5,7 Milliarden im Jahr 2018 auf 60 Milliarden US-Dollar im Jahr 2030 wachsen. Dies zeigt das Potenzial, das diese Technologie in Zukunft haben wird, und ist einer der Gründe, warum die deutsche Regierung das Projekt SEMULIN gefördert hat.

Emotionen in Ihr Spiel integrieren

Spiele und KI ? Das Wachstum der Spieleindustrie audEERING. Die sozialen Auswirkungen der Emotions-KI im Gaming

Wenn Sie unsere Blogbeiträge verfolgt haben, wissen Sie, dass wir die Bedeutung von Emotionen und ihre Rolle in unseren täglichen Interaktionen erläutert haben (Link zum ersten Blog). Dann haben wir uns mit der Mensch-Computer-Interaktion im Kontext von Videospielen beschäftigt (Link zum zweiten Blogbeitrag), und schließlich haben wir erklärt, wie Emotionen die fehlende Ebene für die Mensch-Computer-Interaktion sein können (Link zum dritten Blogbeitrag). In dieser Woche werden wir uns ansehen, wie die Integration dieser emotionalen Ebene in Ihre Produkte Ihnen zugute kommen kann und somit die Welt zu einem besseren Ort macht.

Emotionale Interaktion - das fehlende Glied

Emotionale Interaktion und das fehlende Glied in der AI Gaming Series

In unseren letzten Blog-Beiträgen haben wir die Rolle von Emotionen in Videospielen erläutert, einen Überblick über die Mensch-Computer-Interaktion gegeben und was dies für die Videospielindustrie bedeutet. Wir haben herausgefunden, dass wir aus technischer Sicht fast völlige Freiheit in der 3D-Umgebung erreicht haben. In CAVEs kann man sich zum Beispiel in einer virtuellen Umgebung in Echtzeit frei bewegen.

Was AI zu sagen hat: Game of Thrones: Schlacht um Winterfell

Das Team von audEERING beim Anschauen und Aufzeichnen von Game of Thrones im Büro mit ExamAIner

Ich denke, Sie können sich vorstellen, was dann geschah. Wir brachten Mikrofone im Konferenzraum an und zeichneten das Publikum während der gesamten Vorführung auf. Dann übergaben wir die erfassten Daten an ExamAIner, eine Webanwendung, die im Backend die Emotionserkennungstechnologie audEERING nutzt.