devAIce® SDK 3.7.0 Aktualisierung

devAIce SDK 3.7.0 Update Header präsentiert Geräte wie Smartwatch, Kopfhörer und VR-Brille

Wir freuen uns, heute die öffentliche Freigabe von devAIceⓇ SDK 3.7.0 bekannt zu geben. Dieses Update enthält mehrere bemerkenswerte Modell-Updates für die Emotions- und Alterserkennung, die Abschaffung des Sentiment-Moduls sowie zahlreiche weitere kleinere Optimierungen, Verbesserungen und Fehlerbehebungen.

devAIce Web API 4.0.0 Aktualisierung

devAIce Web API in der aktualisierten Version 4.0.0 mit modernisierten und vereinfachten API-Endpunkten

Wir freuen uns, die Version 4.0.0 als wichtiges Update der devAIce Web API ankündigen zu können, die ab heute für Kunden verfügbar ist. Diese Version bietet vor allem eine modernisierte und vereinfachte Reihe neuer API-Endpunkte, völlig neue Client-Bibliotheken mit Unterstützung für mehr Programmiersprachen, OpenAPI-Kompatibilität sowie ein verbessertes Kommandozeilen-Interface-Tool. Darüber hinaus enthält sie aktuelle Modell-Updates und Leistungsverbesserungen aus dem letzten devAIce SDK-Release, z.B. Unterstützung für die Dimension Dominanz-Emotion und Genauigkeitsverbesserungen von bis zu 15 Prozentpunkten. 

devAIce® SDK 3.6.1 Aktualisierung

devAice SDK 3.6.1 Update in einem Emotionsdimensionen-Würfel: Valenz, Erregung, Dominanz

Das devAIce® Team ist stolz darauf, die Verfügbarkeit von devAIce SDK 3.6.1 bekannt zu geben, das seit der letzten öffentlich angekündigten Version 3.4.0 eine Reihe von wichtigen Erweiterungen, spannenden neuen Funktionen und kleineren Korrekturen enthält. Dieser Blogbeitrag fasst die wichtigsten Änderungen zusammen, die seither im devAIce® SDK eingeführt wurden.

SHIFT - Projekt zur Umgestaltung des kulturellen Erbes startet im Rahmen von Horizont Europa

Das Förderprogramm Horizont Europa gibt den Startschuss für neue Forschungs- und Innovationsmaßnahmen im Rahmen des Projekts SHIFT

SHIFT: MetamorphoSis of cultural Heritage Into augmented hypermedia assets For enhanced accessibiliTy and inclusion (Umwandlung von Kulturerbe in erweiterte Hypermedia-Assets für verbesserte Zugänglichkeit und Inklusion) unterstützt die Annahme von Strategien für die digitale Transformation und die Einführung von Werkzeugen in der Kreativ- und Kulturindustrie (CCI), in der die Fortschritte bisher nur langsam vorankamen.
audEERING beteiligt sich jetzt am SHIFT-Projekt mit dem Ziel, emotionale Sprachbeschreibungen historischer Exponate zu synthetisieren. Dies wird die Art und Weise, wie man ein historisches Denkmal erlebt, verändern, insbesondere für sehbehinderte Menschen.

Affektive Avatare und die Voice AI-Lösung

VR-Avatare mit Voice AI als Schlüsselfaktor - audeering

Wir verwenden Avatare, um unsere Identität zu zeigen oder andere Identitäten anzunehmen, und wollen sicherstellen, dass wir uns so ausdrücken, wie wir wollen. Der Schlüsselfaktor für den Ausdruck sind Emotionen. Ohne das Erkennen von Emotionen haben wir keine Möglichkeit, den Avatar eines Spielers so zu verändern, dass er seinen Ausdruck und seine Individualität zum Ausdruck bringt.
Mit entertAIn play wird das Erkennen von Emotionen möglich.

Voice AI nimmt Emotionen in jeder Welt wahr

Was wäre, wenn Voice AI von audEERING das Metaverse realer machen könnte?

Menschliche Interaktion basiert auf einer Sprache, auf einem Kontext, auf einem Weltwissen, das wir teilen. Als Voice AI-Unternehmen wissen wir, dass Emotionen der Schlüsselfaktor sind. Emotionaler Ausdruck bringt uns in Bewegung, schafft Bewegung und eine kollektive Reaktion. Er ist ein Schlüsselfaktor in der Gesellschaft. Er ist die Grundlage für alle Entscheidungen, die wir treffen. Bei der Schaffung einer virtuellen Realität, neuer Dimensionen und erweiterter Erfahrungen darf dieser Schlüsselfaktor nicht fehlen.

Schließen der Valenzlücke bei der Erkennung von Emotionen

Bloglücke zwischen der Valenzlücke bei der Erkennung von Emotionen anhand von Sprache. Endlich die Herausforderung bei der Erkennung von Emotionen in der Sprache meistern

2021 war ein spannendes Jahr für unsere Forscher, die sich mit der Erkennung von Emotionen aus Sprache beschäftigen. Dank der jüngsten Fortschritte bei transformatorbasierten Architekturen haben wir zum ersten Mal Modelle entwickelt, die die Valenz mit ähnlich hoher Genauigkeit vorhersagen wie die Erregung.

Der Mensch in der Schleife - Wie schaffen wir KI?

Menschen unterrichten zwei Roboter - wie audeerign KI schafft

Bei der Entwicklung von KI-Technologie, wie wir sie bei audEERING betreiben, müssen wir unsere menschliche Wahrnehmung verstehen. Die alltägliche Wahrnehmung ermöglicht es uns, den emotionalen Zustand unseres Kommunikationspartners in verschiedenen Situationen zu erkennen. Im Prozess des menschlichen maschinellen Lernens müssen wir dem Algorithmus den nötigen Input geben. Wie schaffen wir bei audEERING KI?

Kontrastive Analyse: Baerbock, Laschet & Scholz

Annalena Baerbock, Armin Laschet und Olaf Scholz analysiert von audEERING`s Audio AI bei ihrer Kanzlerkandidatur Mit dem Oszillogramm

Die deutschen Politiker Annalena Baerbock, Armin Laschet und Olaf Scholz wurden während ihrer Kanzlerkandidatur von audEERINGs Audio-KI analysiert. audEERINGs Analysen beziehen sich nicht auf den Inhalt der Reden, sondern auf akustische, linguistische und emotionale Merkmale. Diese werden mit Hilfe wissenschaftlicher Verfahren und audEERINGs preisgekrönter KI-Technologie devAIce ™ identifiziert.

Ein Devcom 2021 Panel Rückblick: KI für Playtesting & VR

devcom-Panel 2021 Überprüfung der KI für Playtesting- und VR-Panel-Teilnehmer

Wie schon im letzten Jahr sind wir stolz darauf, dass wir die Chance bekommen haben, unsere Ideen zu präsentieren und Teil der devcom Developer Conference 2021 zu sein. Wir haben in einer Podiumsdiskussion über die Marke entertAIn gesprochen. Wenn Sie den Vortrag verpasst haben, können Sie ihn auf unserem Youtube-Kanal ansehen.