Schau mir in die Augen, Avatar: Soziale Interaktion im Metaverse

Vom Viewpointsystem Redaktionsteam

Das Metaverse ist bislang noch nicht viel mehr als eine Vision, aber es ist auch eines der aufregendsten und vielversprechendsten technologischen Zukunftsprojekte unserer Zeit. Der Einfluss dieses künftigen virtuellen 3D-Raums auf die Art und Weise, wie wir in Zukunft arbeiten, kommunizieren und Dinge gemeinsam erleben, wird aller Voraussicht nach enorm sein. Viele Unternehmen engagieren sich, damit das Metaverse konkrete Formen annimmt, auch wir. Denn Eye Tracking und insbesondere unsere Digital Iris-Technologie bieten die Möglichkeit, authentisches menschliches Blickverhalten bei Avataren nachzubilden.

Warum ist Blickkontakt so wichtig für unsere soziale Interaktion, egal ob im realen Leben oder im Metaverse? Wir haben dazu mit Alejandro Gloriani, R&D Senior Developer im Advanced Technology Team bei Viewpointsystem, gesprochen.

ALEJANDRO, WAS SIND DIE VORTEILE VON EYE TRACKING FÜR DAS METAVERSE?  

Zunächst einmal möchte ich klarstellen, wie wir das Metaverse verstehen. Wir sehen es als einen virtuellen Raum oder viele miteinander verbundene Räume, in denen man mit anderen Menschen zusammenarbeiten kann, die sich nicht im selben physischen Raum wie man selbst befinden, oder mit ihnen etwas erschaffen und entdecken kann. Die soziale Interaktion wird eine Schlüsselrolle im Metaverse spielen.

Eye Tracking, d.h. das Verfolgen der Augenbewegungen oder des absoluten Blickpunktes einer Person, ermöglicht eine realistischere und fesselndere Erfahrung der virtuellen Interaktion zwischen Menschen. Mit der von Viewpointsystem entwickelten Technologie lassen sich digitale Zwillinge der Augen des Nutzers erstellen, welche die realen Augenbewegungen des Nutzers auf Avataren emulieren. So wird vermieden, dass der Nutzer bei seinem Gegenüber in starre, unbewegliche Augen schaut. Avatare ohne natürliche Augenbewegungen werden uns immer fremd oder sogar unheimlich vorkommen. Eye Tracking bietet die Möglichkeit, dieses so genannte “Uncanny Valley”-Phänomen zu vermeiden und negative Reaktionen des Nutzers auf ansonsten lebensechte Avatare abzuschwächen oder sogar ganz zu vermeiden.

Darüber hinaus ist es mit einem neuen Ansatz von Viewpointsystem möglich, Blickkontakt zwischen zwei Avataren zu erkennen und dann, sobald der Blickkontakt erkannt ist, automatisch eine Aktion auszulösen – wie zum Beispiel Sprachinteraktion oder das Starten der Chatbox. Oder auch die Option, die strengsten Privatsphäreeinstellungen bzw. die „Safety Bubble“ zu verlassen.

WARUM IST DER BLICKKONTAKT MIT ANDEREN FÜR UNS MENSCHEN SO WICHTIG?

Die menschlichen Augen unterscheiden sich von den Augen anderer Primaten. Wir haben eine größere und gut sichtbare Sklera (das Weiße der Augen) in Kombination mit einer farbigen Iris. Der sich daraus ergebende Kontrast macht es einfach, sich auf die Augen zu konzentrieren, wenn man von Angesicht zu Angesicht Kontakt aufnimmt, und ermöglicht es genau zu erkennen, wohin die Augen einer anderen Person blicken.

Als Homo sapiens haben wir uns so entwickelt, dass wir die Emotionen anderer Menschen “lesen” können. Von klein auf lernen wir, die Gesichtsausdrücke anderer zu deuten. Das ist eine wichtige Fähigkeit, um Kontakte zu knüpfen und Konflikte zu vermeiden. Studien zeigen, dass wir bei der Interaktion von Angesicht zu Angesicht den Augen mit Abstand die größte Aufmerksamkeit schenken, gefolgt vom Mund.

Es handelt sich um einen evolutionären Mechanismus, der Mensch hat einfach eine Neigung, Gesichter zu erkennen, sogar wenn es gar keine gibt, und die Emotionen dieser Gesichter zu deuten. Außerdem bauen wir soziale Interaktionen und Beziehungen über die Augen auf. Jemand schaut Sie an, Sie erwidern den Blick, ein Gespräch beginnt. Oder Sie schauen weg, wenn Sie nicht an einer Kontaktaufnahme interessiert sind. So funktioniert soziales Verhalten im echten Leben, und so muss es auch im Metaverse sein, damit sich Interaktionen und Erlebnisse natürlich und echt anfühlen. Ohne Herumfuchteln mit Händen oder Controllern, ohne Klicks.

WARUM IST DIE INTEGRATION VON EYE TRACKING IN EXTENDED REALITY (XR) GERÄTE SO SCHWIERIG?

Die größte Herausforderung ist die Entwicklung eines Eye Tracking-Systems, das robust, klein und effizient genug ist, um in AR- und VR-Brillen integriert zu werden. Ein solches System muss immer verlässlich funktionieren, auch bei unterschiedlichen Gesichtern, langen Wimpern oder mit Mascara, bei Schlupflidern, bei Nutzern, die Kontaktlinsen oder Brille tragen, bei unterschiedlichen Lichtverhältnissen oder wenn die Pupillen sehr klein oder sehr groß sind, bei unterschiedlichen Irisfarben oder bei Augenkrankheiten wie Schielen und Strabismus.

Beim Eye Tracking für Forschungsstudien werden für die oben genannten Faktoren Ausschlusskriterien durchgeführt oder maßgeschneiderte Lösungen entwickelt. Wenn wir jedoch über Eye Tracking in XR-Geräten für Verbraucher sprechen, geht es darum, eine Eye Tracking-Lösung bereitzustellen, die für alle Nutzer und in allen Szenarien funktioniert. Die Herausforderung besteht darin, diese für alle passende Lösung so hundertprozentig, so perfekt wie möglich zu machen.  

Was wir also brauchen, sind Eye Tracking-Lösungen für Echtwelt-Bedingungen – etwas, in dem wir bei Viewpointsystem besonders erfahren sind, da wir unser System unter anderem in der praktischen Arbeit in der Fabrikhalle oder im Freien einsetzen.

ZUM ABSCHLUSS INTERESSIERT UNS NOCH, WO DIE HERAUSFORDERUNGEN BEIM AUFBAU SOZIALER INTERAKTION DURCH BLICKKONTAKT IM METAVERSE LIEGEN?

Eine große Herausforderung besteht darin, verschiedene Arten von Blickkontakt zu unterscheiden, um die richtige Handlung auszulösen. Was ist flüchtiges Interesse, was ist eine Aufforderung zum Gespräch? Wann wünscht man sich Privatsphäre? Hier sind fundierte Kenntnisse auf dem Gebiet des menschlichen Blickverhaltens gefragt.

Auch der situative Kontext sowie kulturelle und individuelle Komponenten müssen berücksichtigt werden. Auf der Grundlage unseres Fachwissens haben wir mögliche Wege und die Technologie gefunden, um die richtigen Schlüsse zu ziehen und entsprechende Aktionen auszulösen – wie Sprachinteraktion, das Starten der Chatbox oder sogar die Möglichkeit, einen Kontakt zu blockieren.

REFERENZEN

Meta, “Building the Metaverse Responsibly”, 2021.

IEEE Spectrum, “What Is the Uncanny Valley?”, 2019.

Majaranta, P., & Bulling, A., “Eye Tracking and Eye-Based Human – Computer Interaction”, 2014.

Kobayashi, H., & Kohshima, S., “Einzigartige Morphologie des menschlichen Auges und ihre adaptive Bedeutung: Vergleichende Studien zur äußeren Morphologie des Primatenauges”, Journal of Human Evolution, 40(5), 419-435, 2001.


IMMER UP TO DATE SEIN

Sie möchten sich künftig regelmäßig über spannende Zukunftsthemen und Innovationen für die Industrie informieren? Dann abonnieren Sie am besten unseren Newsletter!