1. Wie erkennt audEERING® Krankheiten anhand der Stimme?
Es ist wissenschaftlich erwiesen, dass viele psychologische und physiologische Krankheiten die menschliche Stimme beeinflussen. Diese Veränderungen sind für den Menschen möglicherweise nicht erkennbar, können aber von Maschinen erkannt werden. Bei audEERING® versuchen wir, Biomarker für die Stimme zu finden, die von der Störung oder Krankheit betroffen sind. Diese Biomarker können verwendet werden, um festzustellen, ob eine Person Symptome einer bestimmten Krankheit oder Störung aufweist. Wir müssen jedoch klarstellen, dass wir keine Krankheiten diagnostizieren, sondern den Ärzten Werkzeuge an die Hand geben wollen, die sie neben den herkömmlichen Diagnosemethoden einsetzen können.
2. Wie soll die Technologie genutzt werden, um humanoiden Robotern Empathie zu vermitteln?
Die Technologie ermöglicht es humanoiden Robotern, die menschliche Mimik zu verstehen und darauf zu reagieren, ähnlich wie Menschen es tun. Indem man den Robotern beibringt, diese Ausdrücke zu erkennen, z. B. wenn sich jemand niedergeschlagen fühlt, können sie ihre Interaktionen entsprechend anpassen, z. B. langsamer oder mit einem fröhlicheren Stimmausdruck sprechen. Dies ermöglicht einfühlsamere Reaktionen und verbessert die Fähigkeit des Roboters, mit Menschen auf einer persönlichen Ebene in Kontakt zu treten.
3. Was erhofft sich das Unternehmen hiervon?
Unser Ziel ist es, die Interaktion zwischen Menschen und Maschinen zu verbessern, indem wir die Interaktion menschenähnlicher gestalten. Wir glauben, dass der Schlüssel dazu darin liegt, Maschinen in die Lage zu versetzen, menschliches Verhalten und sprachliche Äußerungen besser zu verstehen. Wir sind optimistisch, denn wir glauben, dass dieser Ansatz letztendlich allen Beteiligten zugute kommen wird.
Studien haben gezeigt, dass Menschen eine positivere Lebenseinstellung haben, sowohl was die Gesundheit als auch was das Glück betrifft, wenn sie regelmäßig kommunizieren, auch wenn es nicht mit einem anderen Menschen ist.
4. Werden in Zukunft Roboter im Gesundheitswesen und in der Praxis eingesetzt?
Gewiss! Eine der größten Herausforderungen, mit denen die Gesundheitssysteme in ganz Europa konfrontiert sind, ist der Mangel an medizinischem Personal in verschiedenen Fachbereichen, während die Bevölkerung immer älter wird. Dadurch entsteht eine Versorgungslücke. In der Zwischenzeit gibt es immer mehr Roboter in unserer Welt. Es ist sicher, dass wir in Zukunft mehr Roboter in der Gesundheitsversorgung sehen werden. Sie könnten zum Beispiel eingesetzt werden, um menschliches Pflegepersonal durch die Übernahme von Routineaufgaben zu entlasten.
Es geht jedoch nicht nur um physische Roboter, sondern auch um digitale Assistenten wie Avatare oder sogar Sprachroboter, die im Gesundheitswesen eine wichtige Rolle spielen können, wenn ein physischer Roboter nicht wirklich notwendig ist.
5. Wird die sprachbasierte Erkennung von Gesundheitsveränderungen zum Standard?
Die Sprachanalysetechnologie ist hochgradig skalierbar und stellt nur minimale Anforderungen an die Hardware - jedes Smartphone funktioniert -, so dass eine breite Anwendung sehr leicht möglich sein wird. Langfristig sehe ich, dass die Sprachanalyse ein weiterer Symptom-Checker in den Kliniken werden wird, der von Fachleuten zur Überprüfung und zum Abgleich mit anderen Diagnosen eingesetzt wird.
6. Könnte ich zu Hause in ein Gerät sprechen, das meine Stimme analysiert und eine Prognose erstellt?
Wie bereits erwähnt, ist dies ein futuristisches Szenario. Die aktive Sprachaufzeichnung, bei der der Nutzer weiß, wann die Aufzeichnung beginnt und endet, kann bereits genutzt werden, um den Nutzern einige Ratschläge zu ihrem Gesundheitszustand zu geben und Empfehlungen für einen Arztbesuch auszusprechen. Eine ständige Gesundheitsüberwachung ist aus Gründen des Datenschutzes unwahrscheinlich.
7. Welche Krankheiten können mit dieser Technologie nicht erkannt werden?
Krankheiten, die sich nicht auf die Stimme auswirken, können nicht erkannt werden - z. B. kann Voice AI einen Beinbruch nicht erkennen. Was sie jedoch erkennen kann, ist der Grad der Schmerzen, die ein Bruch verursacht. Selbst bei rein körperlichen Krankheiten ohne Auswirkungen auf die Stimme kann die Technologie also noch eingesetzt werden, z. B. für die Schmerzbehandlung.
8. Wie sicher ist die Erkennung von Krankheiten durch Sprache?
Sicher oder zuverlässig? Die Sicherheit bezieht sich auf die technologische Umsetzung, bei der die Speicherung und Übertragung von Daten gesichert und anonymisiert sein sollte.
Zuverlässigkeit bedeutet, wie sehr wir einem Modell vertrauen können, das Biomarker vorhersagt, oder wie sicher ein Modell in seiner Entscheidung ist. In diesem Fall gibt es Möglichkeiten, diese Kriterien zu messen. Um sie zu verbessern, müssen wir Modelle an größeren Datenmengen von vielen Menschen mit verschiedenen Krankheiten trainieren. Wir müssen auch auf die Kosten falsch negativer Vorhersagen achten. Eine negative Vorhersage für eine Krankheit kann dazu führen, dass Unwissenheit dazu führt, einen Arzt aufzusuchen. Im Allgemeinen sollte ein Modell, das Vorhersagen macht, auch einen Vertrauensgrad angeben, der dem Benutzer sagt, bis zu welchem Grad er den Vorhersagen vertrauen kann. Jede medizinische Entscheidung sollte von einer qualifizierten medizinischen Fachkraft überprüft werden.
9. Wie lange hat es gedauert, die Software zu entwickeln?
Das openSMILE-Toolkit wird seit fast 20 Jahren entwickelt, beginnend mit einer universitären Forschungsgruppe an der TU München. audEERING® wurde 2012 als Spin-off der Technischen Universität München gegründet. Nach jahrelanger wissenschaftlicher Arbeit an der Universität haben wir die Technologie also seit mehr als 10 Jahren weiterentwickelt und verbessern sie ständig. devAIce® und AI SoundLab zum Beispiel wurden vor etwa vier Jahren auf den Markt gebracht, aber die Forschung dahinter war ein langer Prozess.
10. Wo wird Voice AI im Gesundheitswesen bereits eingesetzt?
Im Allgemeinen gibt es im Gesundheitssektor bereits physikalische Geräte im Bereich der Sprachpathologie. Diese Geräte liefern Anhaltspunkte für eine bessere Behandlung. Unsere Technologie wird derzeit für klinische Studien, Tests, Screenings und in der Forschung eingesetzt. Die devAIce®-Technologie von audEERING wird in der iMotions-Forschungsplattform zusammen mit anderen Trackern des menschlichen Verhaltens für wissenschaftliche Studien eingesetzt.
Wir haben kürzlich eine Zusammenarbeit mit Navel Robotics angekündigt, die soziale Roboter entwickeln.
11. Mit welchen Geräten ist die Technologie kompatibel?
Unsere Technologie zeichnet sich durch breite Kompatibilität aus und unterstützt eine Vielzahl von Geräten in verschiedenen Ökosystemen. Über unsere devAIce® Web API bieten wir eine Cloud-basierte Lösung, die den Zugriff von jedem Gerät aus ermöglicht.
Alternativ dazu ermöglicht unsere On-Premise-Lösung devAIce® SDK Berechnungen auf einer Vielzahl von Geräten, von robusten Servern bis hin zu mobilen Geräten und eingebetteten Plattformen. Unsere Unterstützung erstreckt sich über die wichtigsten Betriebssysteme wie Windows, macOS, Linux, iOS und Android und gewährleistet eine nahtlose Integration unabhängig von der Plattform. Im Grunde kann es mit jedem Aufzeichnungsgerät verwendet werden.
12. Wie sieht es mit dem Datenschutz aus? Behindern Vorschriften die Nutzung der Technologie?
Der Datenschutz hat in der EU einen hohen Stellenwert, und das muss unbedingt so bleiben. Allerdings hinkt die EU bei der KI-Entwicklung einigen anderen Ländern hinterher. Wir bei audEERING® sind uns der Ernsthaftigkeit dieses Themas bewusst und sind bereits vollständig auf die neuen Vorschriften vorbereitet, die durch das KI-Gesetz eingeführt werden. Wir setzen uns dafür ein, die Fairness unserer Modelle und Regulierungsstandards zu gewährleisten.
Die Vorschriften können jedoch die Innovation bremsen. Wir brauchen große Mengen an Daten, um innovative Ideen zu erforschen und unsere Ergebnisse wissenschaftlich zu validieren. Eine Überregulierung durch die EU könnte dazu führen, dass die Forschung länger dauert oder einfach nicht durchgeführt werden kann.