Wie viel ‚Gesicht‘ braucht die Mensch-Computer-Interaktion?

Gestenerkennung über direkte Hardwaresysteme wie Maus, Digital Pen und Touchpad sowie mittels berührungslosem Tracking von Körperhaltung -drehung und -verlagerung sind heutzutage aus Softwareapplikationen nicht mehr wegzudenken.

Jedoch ist diese vornehmlich auf die Interaktion durch die Händen beschränkt. Noch zu wenig werden der Kopf, insbesondere jedoch die Gesichtsregionen mit einbezogen. Dabei ist Mimik als nonverbale Kommunikationsart sehr viel mehr instinktiver Natur. Sie erlaubt durch feinste Abstufungen eine weitaus größere Bandbreite an Mittteilungsmöglichkeiten und ist somit unverzichtbarer Bestandteil zwischenmenschlicher Verständigung. Im Gegensatz dazu sind Gesten meist nur kommunikationsbegleitend und darüber hinaus interpretationsabhängig und erfordern einen weitaus höheren Lernaufwand.

Die Schwierigkeit besteht aber gerade in der Interpretation dieser fein abgestuften Nuanciertheit der menschlichen Mimik, durch welche die mannigfaltigen Gesichtsregungen entstehen und die es von Computersystemen zu interpretieren gilt.

Noch kommen ‚Facetracking‘ und ‚Mimic Detection‘ nur marginal zum Einsatz. Technologien und Algorithmen zur Mimikinterpretation sind aber in der Entwicklung. Ein Pionierprojekt wurde am Fraunhofer Institut entwickelt – ‚Real Time Face Detector‘. Gemütszustände wie glücklich, traurig, sauer, überrascht werden durch einen zuverlässig funktionierenden Erkennungsalgorithmus als Gauge-bar neben dem Gesicht visualisiert.

GERMANY-IT-CEBIT-FRAUNHOFER-FACE DETECTION

http://maltekueppers.de/wp/?p=1253

http://www.daylife.com/photo/0dtr4QuaUhfR1

Auch das Ermitteln von Herzfrequenzen  bietet möglicher Weise einen interessanten Ansatzpunkt. ‚MIT – Medical Lab Mirror‘ –  eine Spiegel-Web-Cam Kombination – ist genau dazu in der Lage und wurde ursprünglich für den medizinischen Bereich konzipiert. Wäre es aber nicht durchaus vorstellbar, über Änderungen der Herzschläge Gefühlszustände abzuleiten und auf diese entsprechend reagieren zu können?

pulse-mirror-2010-10-07-6002

Mimikerkennung bietet demnach unheimlich viel Potential für die MCI. Sicher werden es am Anfang primär Applikationen mit spielerischem Ansatz sein, in welchen Mimik zum Einsatz kommt. Das Ziel muss es jedoch sein, dieses Potential sinnvoll einzusetzen und adäquate Anwendungsszenarien zu entwickeln.

Denkbar sind noch mehr personalisierte und individualisierte Informations- sowie Produktangebote innerhalb des World Wide Web, welche aus der Mimik des Nutzers abgeleitet und entsprechend auf ihn zugeschnitten sind. Auch Spracherfassungs-Applikationen könnten in Kombination mit Mundbewegung noch präziser werden. Große Bedeutung wird Mimikerkennung in der Kriminalistik im Bereich Wahrheitsfindung/Lügendetektion erlangen.

Aber können Gefühlsregungen darüber hinaus Einfluss auf die Art und die Anzahl gezeigter Informationen nehmen? Kann ein fragender oder erstaunter Blick in einem bestimmten Kontext bereits automatisch weiterführende Information liefern? Kann die Gefühlslage Einfluss auf die Gestaltung des Interface nehmen – möglicher Weise durch das Offerieren beruhigender Musik oder Farben in Stresssituationen? Dieser Gedanke ist in alle Richtungen weiterführbar. Die MCI wird menschlicher, erlebbarer, emotionaler, noch intuitiver.

Darüber hinaus gilt es zu überlegen, inwieweit Mimik die MCI weg von der abstrakten Befehlsformulierung hin zur Nachempfindung natürlicher Kommunikation verlagern kann. Ein Beispiel dafür wäre eine Unterhaltung mit einem Computersystem, was ein enormer Schritt in Richtung künstliche Intelligenz bedeuten würde. Davon ist man noch weit entfernt.

ft

WENN INTERFACES EIN ‚GESICHT‘ BEKOMMEN, kann eine ganz neue Qualität der MCI entstehen!

Kategorie: Allgemeines, Interface Design Kommentieren »


Kommentar schreiben

Kommentar

CAPTCHA-Bild
*