Lässt dich wohl und sicher fühlen.

Automotive

Veränderungen in der Stimme machen den Unterschied
Stimmlicher Ausdruck

Hunderte von Muskeln sind nötig, um Stimme und Sprache zu erzeugen. Daher werden die kleinsten physischen Veränderungen in Ton und Artikulation spürbar. Dies ermöglicht eindrucksvoll die akustische Analyse des stimmlichen Ausdrucks. 

Mit der Stimmanalyse-Technologie wird es einfach, das Potenzial der menschlichen Stimme zu nutzen.

  • Erkennung des stimmlichen Ausdrucks auf der Grundlage des Stimmklangs
  • Der Tonfall basiert auf Valenz, Erregung und Dominanz
  • Individuelle Stimmanalyse auf Basis von Sprechereigenschaften
Frauen tanzen im Auto

Feedback in Echtzeit 
In weniger als einer Sekunde

Die natürliche und effektive Interaktion zwischen Mensch und Auto wird durch Voice AI erreicht. Sie ermöglicht Echtzeit-Feedback für stimmliche Äußerungen in nur 1 Sekunde.

Die Zukunft des Automobils ist es, empathisch zu sein. Fahrer können bei der Interaktion mit ihrem Auto von verschiedenen Funktionen profitieren:

  • Verbesserte Kundenerfahrung
  • Sprachbasierte Einstellungsoptionen
  • Keine Videoaufnahmen erforderlich 
  • Keine Datenspeicherung erforderlich
  • Hohe Datensicherheit 

“Don’t touch turbo boost! Something tells me you shouldn’t turbo boost.”

   KITT, the voice of Knight Industry 2000’s Micro processor, K.I.T.T., aus der Serie Knight Rider.

Mensch-Auto Interaktion
Basierend auf Stimme und Kontext

Die Audio AI Lösung von audEERING® geht über Sprache hinaus.

In der alltäglichen Kommunikation macht der Kontext den Unterschied. Als Teil eines allgemeinen intelligenten Dialogsystems eröffnet audEERINGs Kerntechnologie devAIce® eine völlig neue Art der Interaktion.

Künftige Erlebnisse zwischen Mensch und Auto werden das Auto zu einem einfühlsamen Begleiter machen. Durch Audioerkennung und Interpretation kann die Interaktion verbessert werden, um eine größere Zufriedenheit und ein sichereres Fahrerlebnis für alle im und außerhalb des Fahrzeugs zu erreichen.

Die stimmliche Ausdrucksweise kann die Erfahrungen des Fahrers in Zukunft erheblich verändern.

Funktionen, die Sicherheitsaspekte betreffen, können auf der Grundlage der Stimmanalyse optimiert werden. Negative Stimmungen erhöhen das Risiko während der Fahrt. Dies zu berücksichtigen, verbessert die Sicherheit für alle Verkehrsteilnehmer entscheidend.

Affektives Fahren ist für mehr als 56 % der Verkehrsunfälle verantwortlich.

Gleichzeitig ist das intelligente Auto in der Lage, auf der Grundlage des positiven Ausdrucks und erkannten Vorlieben des Fahrers durch Echtzeitanalyse Vorschläge zu machen, die den Komfort und das Wohlbefinden auf der Straße verbessern.

80 % aller Autofahrer fahren mal wütend oder frustriert. Das Risiko eines Unfalls ist 9,8-mal so hoch bei affektiven Fahrern.

Mehrere Anwendungsfälle

Die natürliche Interaktion mit dem Sprachassistenten ist in mehreren Anwendungsfällen möglich. 

Verfolgung des Stimmausdrucks über die Zeit. 

Dies ermöglicht die Erkennung von Phasen hoher und niedriger emotionaler Energie. Im Kontext betrachtet, lassen sich so besonders stressige und depressive Phasen des Fahrers analysieren.

Das Mood Diary kann von der fahrenden Person selbständig genutzt werden und als Entscheidungsgrundlage in bestimmten Situationen dienen: 

  • Routenplanung - besonders bei langen und stressigen Fahrten
  • Entscheidungen über Fahrhilfen - physisch und technisch
  • Aufsuchen professioneller Hilfe bei stark negativen Phasen

Stimmanalyse zur Wutbewältigung: 

Wut verleitet dazu, zu schnell zu fahren, weil dieser Ausdruck die Risikobereitschaft erhöht. Ein wütender Gesichtsausdruck führt zu schnellerem Sprechen, präziserer Artikulation und weniger Pausen. Dies führt zu einem quasi hörbaren Fahrverhalten. Unsere Lösung setzt an diesem Punkt an:

  • Vorschlagen von Pausen
  • Abspielen einer bestimmten Musikauswahl - Speicherungim Mood Diary, um die beruhigende Wirkung auf den Fahrer nachweislich zu testen
  • Anpassen der Fahrzeugstimme an die Stimme des Fahrers (gezeigt Unfälle zu reduzieren: Nass et. al, 2005)
  • Authentisches Feedback zur Sensibilisierung und Schaffung von Empathie für andere Fahrer (Roidl et. al, 2014)
 

Kinder auf dem Rücksitz:

Wenn Kinder laut werden, erhöht sich das Risiko der Ablenkung und der kognitiven Überforderung des Fahrers. Um dies zu kontrollieren, wird der Sprachassistent:

  • Bietet ein automatisches Unterhaltungsprogramm für Bildschirme auf den Rücksitzen
  • Schlägt die Lieblingsmusik des Kindes oder Hörspiel
  • Bindet Kinder in Spiele, Voice-Chat mit Avataren, usw.

Signifikante Veränderungen in der Stimme des Nutzers können durch Interaktionen mit Sprachassistenten verfolgt werden. Die Stimmanalyse kann zur Gesundheitsüberwachung eingesetzt werden, um stimmliche Biomarker zu identifizieren.

 

Möglicherweise Fahrzeug Aktionen:

  • Vorschlag, den Arzt für einen Termin oder eine Untersuchung anzurufen
  • Notrufe - Krankenhaus, Arzt oder Notfallkontakt
  • Nothalt und Warnungen beim autonomen Fahren, 

 

Erkennung von Gefahrensituationen im Auto:

  • Nachweis einer Alkoholintoxikation des Fahrers oder von Nebenwirkungen von starken Medikamenten
  • Automatische Erkennung von Gewalt und Aggression durch Fahrer und Mitfahrer - Car Fahrgemeinschaften, Taxis, etc.

 

Mögliche Aktionen des Fahrzeugs:

  • Autonomes Fahren, Notstopp und Warnungen für andere Fahrer
  • Stiller Alarm für die Polizei oder den Taxibetreiber im Falle von gewalttätigen Fahrgästen

Schläfrigkeitserfassung mit mehreren Modellen, verbessert durch Audio:

  • Nichtsprachliche Geräusche: Gähnen, Schnarchen
  • Analysierte Sprache aus Sprachansagen und Telefonanrufen

Mögliche Aktionspunkte:

  • Vorschlag für eine Pause in einem nahe gelegenen Restaurant
  • Klimaeinstellungen ändern, Klänge abspielen & peppige Musik auswählen Musik
  • Autonomes Fahren, Notstopp und Warnungen für andere Fahrer

Verbesserung von Systemen zur Steuerung der Aufmerksamkeit des Fahrers mit Audiodaten :

Allgemeine Feststellung derkognitiven Belastung für ein besseres Stressmanagement.

  • Erkennt, ob der Fahrer durch ein Telefonat oder ein Gespräch mit den Fahrgästen abgelenkt ist
  • Messung von Stress oder hoher kognitiver Belastung beim Sprechen (unregelmäßiger Sprechrhythmus, Pausen, Wiederholungen, Zögern, hohe Erregung, usw.)
  • Erkennung von Schallereignissen, die auf Stress beim Fahrer hinweisen oder diesen verursachen könnten Fahrerstress (weinende Kinder, herabfallende Gegenstände usw.)
 

Mögliche Aktionen des Fahrzeugs:

  • Anpassung der Interaktionen des Sprachassistenten (Vereinfachung von Gesprächen, Verringerung der Sprechgeschwindigkeit, Anhalten oder automatische Beantwortung von Anrufen)
  • Autonomes Fahren, Not-Aus und Warnungen

 

Benutzerdefinierte Stimmungseinstellungen
Für eine komfortable Fahrt

Je nach aktueller Stimmung kann das Auto mit einem individuellen Interieur ausgestattet werden. Verschiedene Funktionalitäten eines modernen Sprachassistenten im Auto können an die Ergebnisse der Sprachanalyse angepasst werden.

Passend zum Ausdruck des Fahrers werden die Stimmungseffekte im Innenraum angepasst:

  • Stimmungsvolles Innenlicht
  • Motorgeräusch
  • Sitzkomfort
  • Temperatur

Einstellungen zur Unterhaltung
Natürliche Kommunikation und Humor

Moderne Sprachassistenten nutzen bereits humorvolle Inhalte - sogenannte Easter Eggs - für eine einfache Mensch-Maschine-Interaktion. 

Stimmungsabhängige Unterhaltungsvorschläge, Lautsprecher-ID und interaktive Erfahrungen zwischen Fahrer und Fahrzeug führen zu einer natürlichen Interaktion. Informationen über die Stimmung des Fahrers und die verfolgten Vorlieben können über verbundene Geräte weitergegeben werden:

  • Automatische Lautstärke, Pausen usw. je nach Stimmung des Stimmung des Fahrers
  • Musikauswahl je nach Stimmung
  • Unterhaltungsangebot für Rücksitze

devAIce®
Kompatibel mit dem Dashboard

devAIce®, die Kerntechnologie von audEERING®, ist als Web API, SDK und als devAIce® XR Plugin für Unity und Unreal verfügbar. Damit können Sie eine breite Palette von Anwendungsmöglichkeiten realisieren. 

Mit devAIce® auf dem Armaturenbrett erhalten Sie modernste Technologie:

  • Maschinelles Lernen mit Deep Learning zum Trainieren tiefer neuronaler Netze durch unüberwachtes Lernen
  • 7,000+ interpretierbare Stimme Parameter messbar
  • Äußerst präzise KI, trainiert auf Millionen von Datenpunkten
  • Leichter Code, niedrig Ressourcen Verbrauch

Testfahrten im Metaversum
Voice AI Plug-in für XR

Das devAIce® XR Plug-in für Unity und Unreal schafft die Zukunft des Testfahrens. Mit der Sprachanalyse wird dies im Metaverse möglich sein. Sie können tiefe Einblicke in die Erfahrung Ihres Fahrers erhalten.

Es ist einfach, es in Ihrer virtuellen Realität zu implementieren. Ausdrücke sind wichtig, also lassen Sie sie auch in der virtuellen Welt eine Rolle spielen. Sie können aus den verschiedenen Funktionen unserer Kerntechnologie devAIce® wählen.
Mit dem Plug-in werden Ausdrucksanalyse und Sprechereigenschaften Teil Ihrer virtuellen Realität.

Kontaktieren Sie uns.

Kontaktiere audEERING® jetzt, um eine Demo zu vereinbaren oder zu besprechen, wie unsere Produkte und Lösungen Ihrer Organisation helfen könnten