What you see is what you do

eyetracking overview
Manche Blicke können töten und ein Zwinkern der bezaubernden Jeanny sogar die Welt verändern. Da reizt es, auch seinen Computer mit einem Augenaufschlag in Aktion zu setzen. Der futuristische Klang von Eyetracking macht die Entwicklung eines Interface-Prototypen natürlich zu einer aufregenden Angelegenheit.

Wir lenken den Blick auf den Bereich des Bildschirms in dem wir etwas unternehmen wollen, wo wir höchstwahrscheinlich also auch gleich den Cursor brauchen werden. Per Augensteuerung wäre er dann schon da, ohne irgendetwas weiter tun zu müssen. Außerdem ließe sich der Bildschirm rasend schnell überqueren, was bedeutet, dass auch weit auseinanderliegende Objekte schnell erreicht werden können. Auf welche Eigenarten würden wir da stoßen?

Ein solches System bietet natürlich einige Tücken, selbst wenn man praktische Problem wie die korrekte Positionierung vor dem Bildschirm/Tracking-System, Licht, etc. außen vor lässt. Bemerkenswert zum Beispiel das Problem von Midas (der griech. Sagen nach alles zu Gold werden ließ, was er berührte): Wie unterscheide ich, ob etwas nur angesehen wird (etwa zufällig oder während des Lesens) oder ob der Blick nun den Start eines Programms auslösen will (Klick)? Wie funktionieren jetzt so einfache Dinge wie die Organisation des Desktops? Aus meinem Dummy ist hier mein Vorschlag für ein Flyout-Context-Menu:
eyetracking contextmenu

Alle Buttons wurden mit einem Timeout-Balken versehen, der abläuft solange der Cursor auf einem Objekt ruht (die Bewegung des Balkens unterstützt die unruhigen Augen gleichzeitig dabei, auf das Objekt zu fokusieren). Auch die denkbaren Systemeinstellungen lassen sich auf diese Weise vornehmen:
eyetracking settings

Der Dummy selbst enthält eine kleine Textdatei, die einige weitere Details und alle Teile der Bedienung erklärt.

no Responses so far to What you see is what you do