Irgendwie habe ich es dieses Woche mit Datenbrillen… Während es aber Dienstag um Virtual Reality über Oculus Rift und deren Verwendung für Zwecke des Realistic Job Preview ging, geht es heute eher um die Verwendung von Datenbrillen zu Zwecken des – sagen wir mal – „Assessments“.
Vor kurzem stellte nämlich das Fraunhofer Institut (konkret das IIS) eine App für Google Glass vor, mit deren Hilfe Emotionen des Gegenübers analysiert („Valence Detection“) und auch Merkmale wie Alter und Geschlecht bestimmt werden können.
Die App analysiert die Mimik, also verschiedene Erscheinungszustände des Gesichts, und unterscheidet so Gefühlszustände wie wütend, glücklich, traurig oder überrascht.
Man könnte jetzt meinen, dass die Fähigkeit genau dies zu tun eine über zwei Millionen Jahr Evolutionsgeschichte trainierte, also ureigenste Fähigkeit des Menschen ist, es sich also die Frage stellt, wozu es einer solchen App bedarf.
Nun, vorerst wird der Sinn der App daher auch vor allem im klinischen Kontext gesehen, nämlich bei Personen, bei denen die Fähigkeit zur intuitiven Erkennung nonverbaler oder parasprachlicher Signale schwach oder schwächer ausgeprägt ist, also wohl vor allem Personen mit Asperger-Syndrom.
Jetzt kann man allerdings trefflich darüber streiten, wie groß und vor allem wie valide die Fähigkeit durchschnittlicher Assessoren etwa in einem Präsenz-AC ist, die Gefühls- und Gemütsverfassung der unter Beobachtung stehenden Personen wirklich akkurat einzuschätzen.
Jeder, der mal an einer Assessoren-Konferenz im Anschluss an ein Assessment Center teilgenommen hat, bei der dann die Eindrücke der Assessoren über den Auftritt und das Abschneiden der Kandidaten diskutiert werden, weiß dass diese Eindrücke oftmals meilenweit auseinander liegen.
Hier könnte unter Umständen – ich sage das mit aller Vorsicht, weil ich weiß, dass viele Recruiter die Fähigkeit zur intuitiven Beurteilung für eine uneinnehmbare menschliche Bastion der Personalauswahl halten – mehr oder weniger zurecht… – eine solche App hilfreiche Dienste leisten, weil eine Maschine nicht subjektiv urteilen kann und infolgedessen auch keinem subjektiven Beurteilungsfehler unterliegen kann. Der „Befund“ der App könnte mithin als zusätzlicher Beurteilungsparameter in einer solchen Situation berücksichtigt werden. Nicht mehr aber auch nicht weniger.
Mal schauen, vorerst ist das noch Zukunftsmusik… Aber das hat man 2002 von Minority Report auch gedacht, und heute verhindert Big Data bereits Verbrechen, bevor sie passieren und es gibt es Spektralkameras, die den Sauerstoffgehalt im Blut analysieren und darüber auf das Stresslevel der Personen schließen…
Eigentlich nichts wirklich neues nur das es nun in form einer Datenbrille vorliegt. Bei den Sicherheitskameras gibt es sowas schon lange..und wer eine gute Menschenkenntnis hat der kann das auch ohne einschätzen :-)
Das wäre eine tolle Idee wenn man sich im asiatischen Ausland aushält. Die Asiaten sollen unsere Gesichtszüge nicht so recht deuten kennen. Bei uns ist es gegenüber Asiaten genauso. Allerdings würden dann alle nur noch mit Brillen herumlaufen.