Feature-Highlights enthüllt
Wir freuen uns, eine neue Version des devAIce® SDK 3.13 und der devAIce® Web API 4.6 ankündigen zu können. Dieser Meilenstein ist vollgepackt mit neuen Funktionen und Verbesserungen, die Entwicklern helfen, noch bessere Audioanwendungen zu erstellen.
Mehrsprachige Unterstützung für die automatische Spracherkennung (ASR)
Das Modul zur automatischen Spracherkennung (ASR) wurde um die Unterstützung mehrerer Sprachen erweitert. Zuvor war Englisch die einzige unterstützte Sprache, aber angesichts der vielfältigen Bedürfnisse unserer Kunden haben wir nun Unterstützung für 99 Sprachen integriert, die von der zugrunde liegenden whisper.cpp-Bibliothek unterstützt werden (siehe vollständige Liste der unterstützten Sprachen).
Da unsere Modelle sprachunabhängig sind, entspricht die Integration mehrsprachiger Funktionen in die ASR unserer Strategie, Sprachbarrieren abzubauen. Dieses Upgrade stellt die globale Unterstützung sicher und macht devAIce® zu einem noch leistungsfähigeren All-in-One-Audioanalysetool.
Das Modul kann die gesprochene Sprache automatisch erkennen und auch der Benutzer kann die Sprache angeben, wenn diese Information gegeben ist, was die Genauigkeit noch weiter erhöht.
Erweitertes Modul zur Lautsprecherüberprüfung mit Unterstützung für mehrere Lautsprecher
Das Modul zur Überprüfung von Sprechern unterstützt jetzt die Überprüfung mehrerer Sprecher, was die Analyse von Gesprächen mit mehreren Personen gleichzeitig erheblich erleichtert.
Die Verwendung des Moduls bleibt gleich und besteht aus zwei Schritten: dem Anmeldungsschritt und dem Verifizierungsschritt. Der Hauptunterschied in dieser Version besteht darin, dass Sie während des Registrierungsschritts nun N Sprecher registrieren können, und im Verifizierungsschritt können Sie alle zuvor registrierten Sprecher verifizieren.
Durch diese Verbesserung wird die Anzahl der erforderlichen Überprüfungsläufe reduziert und die Gesamtleistung verbessert.
Um den Benutzern den Einstieg in das aktualisierte Modul zu erleichtern, haben wir sowohl Python- als auch C++-Codebeispiele hinzugefügt, die seine Verwendung demonstrieren.
Umbenennung von Emotionen in Ausdrucksformen
KI kann nicht erkennen, wie Menschen sich fühlen, sondern nur, wie wir uns ausdrücken. Sie erkennt emotionsbezogene Verhaltensweisen durch die Analyse von Mustern in sichtbaren Ausdrücken, wie Gesichtsbewegungen, Gesten und stimmlichen Hinweisen. Aus diesem Grund haben wir den Begriff "Emotion" in "Ausdruck" umbenannt. Die bisher als Emotion bezeichneten Module - Emotion (groß), Emotion und multimodale Emotion - heißen jetzt Expression (groß), Expression und multimodale Expression. Das Gleiche gilt für alle zugrundeliegenden Funktionen und Variablen, bei denen sich Änderungen ergeben haben.
Diese Umbenennung ist eine Vorsichtsmaßnahme, um sicherzustellen, dass die Terminologie die Ergebnisse der Module genauer wiedergibt und um mögliche Missverständnisse zu vermeiden.
Zusätzlich zu diesen Änderungen wurden verschiedene andere Verbesserungen und Fehlerbehebungen vorgenommen. Wie immer empfehlen wir allen devAIce®-Anwendern, auf die neueste Version zu aktualisieren, um die Vorteile dieser spannenden Erweiterungen voll auszuschöpfen.
Weitere Informationen zu unserer Voice AI-Technologie und den Anwendungsfällen, die wir für maßgeschneiderte Lösungen anbieten, finden Sie unter audEERING®.