Voice AI nimmt Emotionen in jeder Welt wahr
![Was wäre, wenn Voice AI von audEERING das Metaverse realer machen könnte?](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2022/07/2022-07-11-VRmeta-blog-Blogheader1-1024x576.jpg?lossy=1&strip=1&webp=1)
Menschliche Interaktion basiert auf einer Sprache, auf einem Kontext, auf einem Weltwissen, das wir teilen. Als Voice AI-Unternehmen wissen wir, dass Emotionen der Schlüsselfaktor sind. Emotionaler Ausdruck bringt uns in Bewegung, schafft Bewegung und eine kollektive Reaktion. Er ist ein Schlüsselfaktor in der Gesellschaft. Er ist die Grundlage für alle Entscheidungen, die wir treffen. Bei der Schaffung einer virtuellen Realität, neuer Dimensionen und erweiterter Erfahrungen darf dieser Schlüsselfaktor nicht fehlen.
Schließen der Valenzlücke bei der Erkennung von Emotionen
![Bloglücke zwischen der Valenzlücke bei der Erkennung von Emotionen anhand von Sprache. Endlich die Herausforderung bei der Erkennung von Emotionen in der Sprache meistern](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2022/04/2022-04-08-ResearchRevolution-Blogheader-1-1024x576.jpg?lossy=1&strip=1&webp=1)
2021 war ein spannendes Jahr für unsere Forscher, die sich mit der Erkennung von Emotionen aus Sprache beschäftigen. Dank der jüngsten Fortschritte bei transformatorbasierten Architekturen haben wir zum ersten Mal Modelle entwickelt, die die Valenz mit ähnlich hoher Genauigkeit vorhersagen wie die Erregung.
Neue Updates für audEERINGs Kerntechnologie: devAIce SDK/Web API 3.4.0
![Was ist neu in devAIce - Ankündigung einer neuen Klasse von Emotionen der nächsten Generation](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2022/03/2022-03-17-devAIceUpdate-Blogheader1-1024x576.jpg?lossy=1&strip=1&webp=1)
Wir sind stolz darauf, mit der neuesten Version 3.4.0 des devAIce TM SDK/Web API eine neue Klasse von Emotionsmodellen der nächsten Generation für devAIce ankündigen zu können.
Der Mensch in der Schleife - Wie schaffen wir KI?
![Menschen unterrichten zwei Roboter - wie audeerign KI schafft](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/11/2021-11-26-Blog-HumanInTheLoop-Blogheader-1024x576.jpg?lossy=1&strip=1&webp=1)
Bei der Entwicklung von KI-Technologie, wie wir sie bei audEERING betreiben, müssen wir unsere menschliche Wahrnehmung verstehen. Die alltägliche Wahrnehmung ermöglicht es uns, den emotionalen Zustand unseres Kommunikationspartners in verschiedenen Situationen zu erkennen. Im Prozess des menschlichen maschinellen Lernens müssen wir dem Algorithmus den nötigen Input geben. Wie schaffen wir bei audEERING KI?
ERIK - Emotionserkennung für die Autismus-Therapie
![ERIK-Roboter und Mensch - Autismus-Therapie über ein vom BMBF gefördertes Projekt](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/09/2021-15-09-ERIK-Blog-1024x576.jpg?lossy=1&strip=1&webp=1)
Das Erkennen und Wahrnehmen von Gefühlsäußerungen ist ein wesentlicher Bestandteil der menschlichen Kommunikation. Um die sozio-emotionalen Kommunikationsfähigkeiten autistischer Kinder zu entwickeln, muss die Therapie darauf ausgerichtet sein. Im Rahmen des ERIK-Projekts wird eine neue Form der Therapie entwickelt.
GaCha 2019: Die 3 besten Emotions-KI-Spielkonzepte
![GaCha 2029 audEERING Spiel-Herausforderung - Emtoion-Erkennung verwenden](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/09/2021-07-21-Top3EmoAIgameConcepts-Blogheader-1024x576.jpg?lossy=1&strip=1&webp=1)
Junge Entwickler aus aller Welt haben die Emotionserkennung von audEERING genutzt, um ihr eigenes Spiel zu entwickeln. Werfen Sie einen Blick darauf und genießen Sie die neue Art des Spielens.
audEERING auf dem Devcom Tech and Tools Summit: Vollständiger Vortrag 2021
![audEEING YouTube-Kanal mit devcom-Vortrag über Emotion AI für You and I - Tech and Tools Summit hochgeladen](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/04/Blogimage-test-1024x577.jpg?lossy=1&strip=1&webp=1)
In diesem Jahr habe ich einen praktischeren Ansatz gewählt und Ihnen unsere Vision für die Zukunft vorgestellt: hinter jedem dieser Themen stehen solide Fallstudien.
Fallstudie mit The Simulation Crew: Emotionale KI für Patientenkomfort
![Die Simulations-Crew arbeitet mit audEERING an der Patientenkommunikation über Emotion AI VR](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/06/2021-06-17-dataSecurity-imgMove-1024x563.jpg?lossy=1&strip=1&webp=1)
Die menschliche Interaktion zwischen einem Arzt und seinem Patienten ist einer der wichtigsten Prozesse, wenn es um die Diagnose und Behandlung einer Krankheit geht.
Datensicherheit: Die 6 häufigsten Fragen an Simone Hantke
![Fragen zur Datensicherheit mit Simone Hantke - Datenexpertin](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/09/2021-06-17-dataSecurity-blogImg-1024x683.jpg?lossy=1&strip=1&webp=1)
Datensicherheit ist das A und O, wenn es um den Einsatz von künstlicher Intelligenz in Produkten aller Art geht. Für diesen Blogbeitrag haben wir unsere Expertin Simone Hantke interviewt
Big Data AI-Gipfel: Vortrag über Sprach-Biomarker
![bitkom Big-Data-KI-Gipfel mit audEERING-Talk zum Thema Voice Biomarker](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/09/52_BLOGIMAGE_BigDataSummit-1024x576.jpg?lossy=1&strip=1&webp=1)
"Audio-KI in der Medizin - ist die Stimme das neue Blut?" Wir bei audEERING entwickeln Sprach-Biomarker und deshalb hat unsere Geschäftsführerin Dagmar Schuller kürzlich einen Vortrag auf dem diesjährigen Big Data AI Summit gehalten.
Wie sich die Sprecheridentifikation auf die Erkennung von Emotionen auswirkt
![Die Identifizierung des Sprechers hat Auswirkungen auf die Erkennung von Emotionen durch Voice AI](https://b2457689.smushcdn.com/2457689/wp-content/uploads/2021/09/51_BLOGIMAGE-Voicefact-1024x576.jpg?lossy=1&strip=1&webp=1)
Die Sprecheridentifizierung ist ein wichtiger Bestandteil sprachbasierter Technologien wie der Sprach- und Sprecherkennung. Sie kann eindeutige Informationen wie Geschlecht und Alter liefern. Wie kann sie also eine Technologie wie die Erkennung von Emotionen anhand von Sprache beeinflussen?