Neue Wege der Mensch-Maschine-Interaktion in Videospielen

,
Soroosh Mashal

Wenn Sie Ihrem Freund eine Textnachricht schreiben, ihn anrufen oder sich mit ihm in einem Café treffen, interagieren Sie mit ihm. Jedes Gespräch kann eine Interaktion sein. Eine Interaktion findet statt, wenn zwei oder mehr Objekte oder Akteure aufeinander einwirken. Vor einigen Jahrhunderten interagierten die Menschen hauptsächlich miteinander und mit ihren Haustieren, und dank der Evolution sind wir dafür gerüstet.
Mit dem Aufkommen von Maschinen in unserem Alltag kamen mehrere Disziplinen wie Human Factors, Kommunikationsdesign, Informationstechnologie usw. zusammen, um sicherzustellen, dass wir mit neuen Objekten (Mensch-Maschine-Interaktion) und Einheiten in unserer Umgebung so natürlich interagieren können wie ein Hirte mit seinem Hund.

Interaktion zwischen Mensch und Spiel

Schauen wir uns diese Interaktion im Kontext von Videospielen an und sehen wir, ob wir einen Trend erkennen können. Wir beginnen mit der Betrachtung der visuellen und akustischen Ausgabe und gehen dann zu den Eingaben über.

Die visuelle Ausgabe war ziemlich einfach, es war ein Monitor, der durch das Zusammenfügen von Pixeln entstand. Der erste Sprung war die Hinzufügung von Farben (RGB) und der zweite war die Verwendung von LCDs, um sie kleiner zu machen. Es gab kein Aufbrechen des Baldachins und keine innovativen Sprünge mehr. Sogar in der virtuellen Realität haben wir immer noch ein Display mit sehr kleinen Pixeln in der Nähe unseres Gesichts, das an unsere Perspektive angepasst ist. Heutzutage kann man Spiele in 4K mit 60fps spielen, aber das ist nur eine verbesserte Version eines Monitors. Wenn wir die richtige Funktionalität von Augmented Reality sehen, können wir vielleicht von einem weiteren Sprung sprechen. Der große revolutionäre Sprung wird jedoch etwas in Richtung Neuralink sein, bei dem wir den Input direkt an die visuellen Neuronen im Gehirn senden. Bis dahin bleiben wir irgendwie auf dieser Ebene der Immersion stecken.

Der Audioausgang

Bei der Audioausgabe wurde der gleiche Prozess durchlaufen. Wir begannen mit einzelnen Lautsprechern, die einzelne Töne wiedergeben konnten (z. B. Dellen beim Flippern), und gingen dann zu Lautsprechern über, die alle Töne wiedergeben konnten. Der Sprung bestand darin, den 3D-Raum zu berücksichtigen und den Ton in mehreren Kanälen zu verarbeiten. Der gleiche Prozess vollzog sich bei Kopfhörern, die 3D-Audio immer besser unterstützen und auch besser isolieren. Heutzutage gibt es 3D-Kopfhörer mit aktiver Geräuschunterdrückung, die sich an die Umgebung anpassen, um eine bessere Leistung zu erzielen, z. B. von Jabra, als Verbraucherprodukt. Der nächste Sprung steht unmittelbar bevor: der haptische Klang. Unternehmen wie Woojer haben bereits eine Weste und einen Gurt entwickelt, mit denen Sie den Bass spüren können.

Die Eingabe

Werfen wir nun einen Blick auf die Eingaben. Elektroingenieure brachten ein Geschenk des Himmels mit und schenkten es den ersten Videospielentwicklern (und anderen): Tasten. Sie konnten die Linie zwischen Null und Eins ziehen. Sie funktionierten in Echtzeit und konnten unsere Entscheidungen widerspiegeln. Das reichte aus, um ein Fenster in eine virtuelle Umgebung zu schaffen. Das Konzept der Tasten ist so leistungsfähig und praktisch, dass wir sie immer noch verwenden, egal ob es sich um eine Tastatur, eine Maus oder einen Konsolengriff handelt.

Der nächste Schritt bestand darin, eine Reichweite zu haben. Obwohl die ersten Joysticks einfach ein besseres Werkzeug zum Klicken waren, konnte die nächste Generation die Bewegung erkennen und an den Computer senden. Räder erleichterten uns die Navigation in einer 2D-Umgebung, aber der Sprung war der Punkt, an dem wir das Rad zur Maus machten. FPS (First Person Shooter)-Spiele wurden geboren, nachdem wir die erforderliche Hardware-Schwelle erreicht hatten, und sie werden immer noch auf dieselbe Art und Weise und mit denselben Werkzeugen gespielt (nun, Ihre Maus verwendet zu 99,99 % ein rotes Licht anstelle der Kugel zur Navigation).

Nachdem wir nun über eine präzise Navigation in einer 2D-Umgebung verfügten, war es an der Zeit, diese intuitiver zu gestalten. Mit dem Aufkommen der Smartphones (Kondensator-Touch) wurde eine intuitive 2D-Steuerung möglich, und Multi-Touch machte sie ganz natürlich. Diese Art der Eingabe war die Geburtsstunde der mobilen Spiele, die heute etwa die Hälfte des gesamten Videospielmarktes ausmachen. Der nächste Schritt war die 3D-Eingabe und Gesten. Intel RealSense, Sony PlayStation und Nintendo Wii gehörten zu den Vorreitern in dieser Richtung. Heutzutage werden bei der Steuerung der virtuellen Realität Sensoren verwendet, die in HMDs und Griffe integriert sind. Aufwändigere Lösungen wie OptiTrack ermöglichen die Abbildung von Ganzkörperbewegungen in einer 3D-Umgebung in Echtzeit.

Verbesserung der Interaktion

Die nächsten Schritte sind Iterationen, um sie zugänglicher und verbraucherfreundlicher zu machen. Aber die Frage ist: Was kommt als Nächstes, nachdem wir nun die volle Kontrolle in Echtzeit in 3D erreicht haben? Wie können wir unsere Interaktion verbessern? Gibt es noch etwas, das wir nicht bedacht haben?

Diese Fragen werden wir in unserem nächsten Blogbeitrag beantworten.