Blog

devAIce® integriert die Audioanalyse in Software und Hardware. Sie ist die Kerntechnologie von audEERING. Mit der Prodct Owner Talk Serie stellt audEERING die menschliche Intelligenz hinter dieser Technologie vor.
Der bundesweite Aktionstag, der Girls`Day 2023 bei uns im Büro. Er ist ein bundesweiter Berufsorientierungstag mit dem Fokus, MINT-Fächer populärer und bekannter zu machen. Als Voice AI Unternehmen gaben wir Kindern Einblicke in die Welt der Programmierung mit künstlicher Intelligenz.
In Zusammenarbeit mit der Technischen Universität Berlin entwickelt audEERING eine Open-Source-Plattform, um interessierten Laien maschinelles Lernen zu vermitteln.
Diese neueste Version der devAIceⓇ Web API führt aktualisierte dimensionale und kategoriale Emotionsmodelle in das Emotion (Large) Modul ein. In Benchmarks hat sich gezeigt, dass die neuen Versionen dieser Modelle deutlich robuster gegenüber Hintergrundgeräuschen und unterschiedlichen Aufnahmebedingungen sind als die Vorgängermodelle, wobei die Rechenkomplexität der Modelle unverändert bleibt.
Wir freuen uns, heute die öffentliche Freigabe von devAIceⓇ SDK 3.7.0 bekannt zu geben. Dieses Update enthält mehrere bemerkenswerte Modell-Updates für die Emotions- und Alterserkennung, die Abschaffung des Sentiment-Moduls sowie zahlreiche weitere kleinere Optimierungen, Verbesserungen und Fehlerbehebungen.
Wir freuen uns, die Version 4.0.0 als wichtiges Update der devAIce Web API ankündigen zu können, die ab heute für Kunden verfügbar ist. Diese Version bietet vor allem eine modernisierte und vereinfachte Reihe neuer API-Endpunkte, völlig neue Client-Bibliotheken mit Unterstützung für mehr Programmiersprachen, OpenAPI-Kompatibilität sowie ein verbessertes Kommandozeilen-Interface-Tool. Darüber hinaus enthält sie aktuelle Modell-Updates und Leistungsverbesserungen aus dem letzten devAIce SDK-Release, z.B. Unterstützung für die Dimension Dominanz-Emotion und Genauigkeitsverbesserungen von bis zu 15 Prozentpunkten. 
Das devAIce® Team ist stolz darauf, die Verfügbarkeit von devAIce SDK 3.6.1 bekannt zu geben, das seit der letzten öffentlich angekündigten Version 3.4.0 eine Reihe von wichtigen Erweiterungen, spannenden neuen Funktionen und kleineren Korrekturen enthält. Dieser Blogbeitrag fasst die wichtigsten Änderungen zusammen, die seither im devAIce® SDK eingeführt wurden.
SHIFT: MetamorphoSis of cultural Heritage Into augmented hypermedia assets For enhanced accessibiliTy and inclusion (Umwandlung von Kulturerbe in erweiterte Hypermedia-Assets für verbesserte Zugänglichkeit und Inklusion) unterstützt die Annahme von Strategien für die digitale Transformation und die Einführung von Werkzeugen in der Kreativ- und Kulturindustrie (CCI), in der die Fortschritte bisher nur langsam vorankamen. audEERING beteiligt sich jetzt am SHIFT-Projekt mit dem Ziel, emotionale Sprachbeschreibungen historischer Exponate zu synthetisieren. Dies wird die Art und Weise, wie man ein historisches Denkmal erlebt, verändern, insbesondere für sehbehinderte Menschen.
Wir verwenden Avatare, um unsere Identität zu zeigen oder andere Identitäten anzunehmen, und wollen sicherstellen, dass wir uns so ausdrücken, wie wir wollen. Der Schlüsselfaktor für den Ausdruck sind Emotionen. Ohne das Erkennen von Emotionen haben wir keine Möglichkeit, den Avatar eines Spielers so zu verändern, dass er seinen Ausdruck und seine Individualität zum Ausdruck bringt. Mit entertAIn play wird das Erkennen von Emotionen möglich.
Menschliche Interaktion basiert auf einer Sprache, auf einem Kontext, auf einem Weltwissen, das wir teilen. Als Voice AI-Unternehmen wissen wir, dass Emotionen der Schlüsselfaktor sind. Emotionaler Ausdruck bringt uns in Bewegung, schafft Bewegung und eine kollektive Reaktion. Er ist ein Schlüsselfaktor in der Gesellschaft. Er ist die Grundlage für alle Entscheidungen, die wir treffen. Bei der Schaffung einer virtuellen Realität, neuer Dimensionen und erweiterter Erfahrungen darf dieser Schlüsselfaktor nicht fehlen.
2021 war ein spannendes Jahr für unsere Forscher, die sich mit der Erkennung von Emotionen aus Sprache beschäftigen. Dank der jüngsten Fortschritte bei transformatorbasierten Architekturen haben wir zum ersten Mal Modelle entwickelt, die die Valenz mit ähnlich hoher Genauigkeit vorhersagen wie die Erregung.