devAIce®
devAIce® integriert die Audioanalyse in Software und Hardware. Nutzen Sie Emotionserkennung, Umgebungsklassifizierung und vieles mehr.

Anwendungen, Programme &
Webanwendungen

Wearables &
Intelligente Geräte

IoT
Geräte
Sprache & Audio AI
für Software und Hardware
Ob Software oder Hardware - devAIce® ist die Audioanalyse von audEERING für jedes Produkt. Es kann Emotionen, Szenen und viele andere Merkmale aus Audio erkennen. Es werden sowohl Echtzeit- als auch Stapelverarbeitungsmodi unterstützt. Unsere KI-Modelle zeigen auch bei begrenzter CPU-Leistung eine solide Leistung.

Wesentliche Merkmale
Nachfolgend finden Sie eine Liste der wichtigsten Merkmale von devAIce®. Sie können auch unser Factsheet als PDF herunterladen. Für weitere Informationen setzen wir uns gerne mit Ihnen in Verbindung.
Wählen Sie aus unseren Grundmodellen oder individuellen Kombinationen. Wir können Emotionen aus Audio allein oder kombiniert aus Audio und Text erkennen.
- Emotionsklassen (aus Audio): neutral, happy, angry, sad
- Gefühlsdimensionen (aus Audio): Aktivierung, Valenz, Dominanz
- Multimodale Emotionsklassen (aus Text und Audio): neutral, happy, angry, sad
- Multimodale Emotionsdimensionen (aus Text und Audio): Aktivierung, Valenz, Dominanz
devAIce® kann zwischen Hintergrundgeräuschen und menschlicher Stimme unterscheiden. Es ist sehr stromsparend und verbraucht im Leerlauf nur wenige Ressourcen. Die Unterscheidung zwischen Sprache und Musik ist als Option verfügbar.
- Alter
- Geschlecht
Unterscheidung von bis zu 14 vordefinierten akustischen Szenen:
- Verkehrsmittel: Auto, Bus, U-Bahn, Zug
- Draußen: Natur, Park, Straße, Fußgängerzone, großer Raum
- Innen: Haus, Badezimmer, öffentliches Gebäude, Restaurant, Geschäft
Beurteilen Sie, ob der Sprecher in einer Aufnahme mit einem zuvor registrierten Referenzsprecher identisch ist.
Es werden zwei Modi unterstützt:
- Enrollment-Modus: Ein Sprechermodell für einen Referenzsprecher wird auf der Grundlage einer oder mehrerer Referenzaufnahmen erstellt oder aktualisiert.
- Überprüfungsmodus: Ein zuvor erstelltes Sprechermodell wird verwendet, um abzuschätzen, wie wahrscheinlich es ist, dass derselbe Sprecher in einer bestimmten Aufnahme vorhanden ist.
*Sprecher Verifizierung ist derzeit in der Entwicklung und in der Beta-Version verfügbar.
- Statistische Deskriptoren, die auf der Tonhöhe und Lautstärke von Stimmen basieren.
- Schätzung der Sprechgeschwindigkeit in Silben pro Sekunde.
Extrahieren Sie eine Auswahl gängiger openSMILE-basierter Featuresets direkt aus devAIce heraus.
devAIce® SDK:
- Plattformen: Linux, Windows, macOS, Android, iOS, ROS
- Prozessorarchitekturen: x86-64, ARMv7, ARMv8
devAIce® Web API:
- Zugriff von jedem Browser oder Cloud-Dienst über HTTP
- Vor-Ort-Bereitstellung als virtuelle Linux-Maschine oder Docker-Container
devAIce® ist für geringen Ressourcenverbrauch optimiert. Viele Modelle in devAIce® können in Echtzeit auf eingebetteten, stromsparenden ARM-Geräten wie dem Raspberry Pi und anderen SoCs laufen.
Durch die Stimme ausgedrückte Emotionen
Emotionaler Ausdruck wird über die Stimme vermittelt. In unserem Alltag führen wir automatisch eine auditive Analyse durch, wenn wir mit jemandem sprechen. devAIce® konzentriert sich auf den stimmlichen Gefühlsausdruck und leitet aus der Stimmanalyse emotionale Dimensionen ab.

Erkennung von Sprachaktivität
Stimme oder Hintergrundgeräusche?
devAIce® erkennt zuverlässig die An- und Abwesenheit von Sprache in Echtzeit mit minimaler Latenz.

Sprecher-Attribute
Wer spricht? devAIce® kann Ihnen Einblicke in Rednermerkmale wie Alter oder Geschlecht geben.

Akustische Szenendetektion
Wo befinden Sie sich? devAIce® kann 3 akustische Klassen unterscheiden - Innen, Außen, Verkehr. Das Modul analysiert konkrete akustische Szenen für jede akustische Klasse.


Verbessern Sie die Kundenerfahrung in Echtzeit
Während ein Zug vorbeirauscht, aktiviert der Jabra Elite 85h Kopfhörer automatisch die Geräuschunterdrückung. Dank der devAIce®-Szenenerkennung genießen Jabra-Kunden die beste Klangqualität, egal wo sie Musik hören.
devAIce® SDK:
leichtgewichtig,
natives On-Device
Das devAIce® SDK ist für alle wichtigen Desktop-, Mobil- und Embedded-Plattformen verfügbar. Es funktioniert auch gut auf Geräten mit geringen Rechenressourcen, wie Wearables und Hearables.

devAIce® Web API: Cloud-gestützt,
nativ für das Web
devAIce® Web API ist der einfachste Weg, Audio-KI in Ihre web- und cloudbasierten Anwendungen zu integrieren. Vor-Ort-Einsatzoptionen für höchste Datensicherheitsanforderungen sind verfügbar.

devAIce® XR: das Unity & Unreal Plugin
devAIce® XR integriert Emotionen und intelligente Audioanalyse in die Virtualität. Das Plugin ist so konzipiert, dass es in Ihr Unity- oder Unreal-Projekt integriert werden kann. Verpassen Sie nicht den Moment, den wichtigsten Teil der Interaktion zu integrieren: Empathie.

Kunden, Projekte &
Erfolgsgeschichten
Kontaktieren Sie uns
für weitere Informationen
Erfahren Sie mehr über devAIce® und wie es Ihr Produkt mit modernen, KI-gesteuerten Funktionalitäten erweitert und transformiert.
KI-basierte
Sprachanalyse
audEERING ist weltweit führend im Bereich der Audio-KI und innovativer Technologien. Unsere Technologie erkennt Emotionen und ist einsatzbereit im Gesundheitssektor.
audEERING, ein deutsches KI-Unternehmen mit Sitz in
Die audEERING GmbH ist ein innovatives Scale-Up mit Sitz in Gilching bei München. Erfahren Sie mehr über audEERING und die Vision des Unternehmens.