devAIce® Web API 4.1.0 Aktualisierung

Web-API-Update-Kopfzeile, die ein Smartphone und einen Laptop mit einem Download-Symbol darstellt

Diese neueste Version der devAIceⓇ Web API führt aktualisierte dimensionale und kategoriale Emotionsmodelle in das Emotion (Large) Modul ein. In Benchmarks hat sich gezeigt, dass die neuen Versionen dieser Modelle deutlich robuster gegenüber Hintergrundgeräuschen und unterschiedlichen Aufnahmebedingungen sind als die Vorgängermodelle, wobei die Rechenkomplexität der Modelle unverändert bleibt.

devAIce® SDK 3.7.0 Aktualisierung

devAIce Update Header präsentiert Geräte wie Smartwatch, Kopfhörer und VR-Brille

Wir freuen uns, heute die öffentliche Freigabe von devAIceⓇ SDK 3.7.0 bekannt zu geben. Dieses Update enthält mehrere bemerkenswerte Modell-Updates für die Emotions- und Alterserkennung, die Abschaffung des Sentiment-Moduls sowie zahlreiche weitere kleinere Optimierungen, Verbesserungen und Fehlerbehebungen.

devAIce Web API 4.0.0 Aktualisierung

2022 11 08 devAIceUpdateWEBAPI blogheader

Wir freuen uns, die Version 4.0.0 als wichtiges Update der devAIce Web API ankündigen zu können, die ab heute für Kunden verfügbar ist. Diese Version bietet vor allem eine modernisierte und vereinfachte Reihe neuer API-Endpunkte, völlig neue Client-Bibliotheken mit Unterstützung für mehr Programmiersprachen, OpenAPI-Kompatibilität sowie ein verbessertes Kommandozeilen-Interface-Tool. Darüber hinaus enthält sie aktuelle Modell-Updates und Leistungsverbesserungen aus dem letzten devAIce SDK-Release, z.B. Unterstützung für die Dimension Dominanz-Emotion und Genauigkeitsverbesserungen von bis zu 15 Prozentpunkten. 

devAIce® SDK 3.6.1 Aktualisierung

Gefühlsdimensionen-Würfel: Valenz, Erregung, Dominanz

Das devAIce® Team ist stolz darauf, die Verfügbarkeit von devAIce SDK 3.6.1 bekannt zu geben, das seit der letzten öffentlich angekündigten Version 3.4.0 eine Reihe von wichtigen Erweiterungen, spannenden neuen Funktionen und kleineren Korrekturen enthält. Dieser Blogbeitrag fasst die wichtigsten Änderungen zusammen, die seither im devAIce® SDK eingeführt wurden.

SHIFT - Projekt zur Umgestaltung des kulturellen Erbes startet im Rahmen von Horizont Europa

2022 10 20 SHIFTBlog Post blogheader

SHIFT: MetamorphoSis of cultural Heritage Into augmented hypermedia assets For enhanced accessibiliTy and inclusion (Umwandlung von Kulturerbe in erweiterte Hypermedia-Assets für verbesserte Zugänglichkeit und Inklusion) unterstützt die Annahme von Strategien für die digitale Transformation und die Einführung von Werkzeugen in der Kreativ- und Kulturindustrie (CCI), in der die Fortschritte bisher nur langsam vorankamen.
audEERING beteiligt sich jetzt am SHIFT-Projekt mit dem Ziel, emotionale Sprachbeschreibungen historischer Exponate zu synthetisieren. Dies wird die Art und Weise, wie man ein historisches Denkmal erlebt, verändern, insbesondere für sehbehinderte Menschen.

Affektive Avatare und die Voice AI-Lösung

2022 08 11 affectiveAvatars blog Blogheader

Wir verwenden Avatare, um unsere Identität zu zeigen oder andere Identitäten anzunehmen, und wollen sicherstellen, dass wir uns so ausdrücken, wie wir wollen. Der Schlüsselfaktor für den Ausdruck sind Emotionen. Ohne das Erkennen von Emotionen haben wir keine Möglichkeit, den Avatar eines Spielers so zu verändern, dass er seinen Ausdruck und seine Individualität zum Ausdruck bringt.
Mit entertAIn play wird das Erkennen von Emotionen möglich.

Voice AI nimmt Emotionen in jeder Welt wahr

2022 07 11 VRmeta-Blog Blogüberschrift1

Menschliche Interaktion basiert auf einer Sprache, auf einem Kontext, auf einem Weltwissen, das wir teilen. Als Voice AI-Unternehmen wissen wir, dass Emotionen der Schlüsselfaktor sind. Emotionaler Ausdruck bringt uns in Bewegung, schafft Bewegung und eine kollektive Reaktion. Er ist ein Schlüsselfaktor in der Gesellschaft. Er ist die Grundlage für alle Entscheidungen, die wir treffen. Bei der Schaffung einer virtuellen Realität, neuer Dimensionen und erweiterter Erfahrungen darf dieser Schlüsselfaktor nicht fehlen.

Schließen der Valenzlücke bei der Erkennung von Emotionen

Julia mit Kopfhörern

2021 war ein spannendes Jahr für unsere Forscher, die sich mit der Erkennung von Emotionen aus Sprache beschäftigen. Dank der jüngsten Fortschritte bei transformatorbasierten Architekturen haben wir zum ersten Mal Modelle entwickelt, die die Valenz mit ähnlich hoher Genauigkeit vorhersagen wie die Erregung.

Der Mensch in der Schleife - Wie schaffen wir KI?

Mensch unterrichtet zwei Roboter

Bei der Entwicklung von KI-Technologie, wie wir sie bei audEERING betreiben, müssen wir unsere menschliche Wahrnehmung verstehen. Die alltägliche Wahrnehmung ermöglicht es uns, den emotionalen Zustand unseres Kommunikationspartners in verschiedenen Situationen zu erkennen. Im Prozess des menschlichen maschinellen Lernens müssen wir dem Algorithmus den nötigen Input geben. Wie schaffen wir bei audEERING KI?