Immer wieder taucht die Frage in der Debatte auf: Wie gut kann KI Menschen einschätzen? Diese Frage liegt natürlich insb. im Zusammenhang mit der Personalgewinnung sehr nahe, denn die Fragen „wen stellen wir ein?“, „wer ist wie geeignet?“ sind hier ja das täglich Brot. Die Hoffnung, dass KI diese Bewertung ggf. schneller und auch irgendwie „besser“, also weniger verunreinigt durch Wahrnehmungs- und Beurteilungsfehler – sog. Biases -, leisten kann, schwingt hier immer mit.
Ich habe hier ja vor einiger Zeit mal einen Artikel zu der „Persönlichkeitsanalyse“ mit Retorio geschrieben. Dort wurde ein und derselben Person verschiedenste Persönlichkeiten angedichtet, die sich stark unterschieden. Und zwar nicht etwa auf Basis dessen, was diese Person in einem Interview von sich preisgab oder über sich erzählte, sondern aufgrund äußerer Merkmale wie Kopftuch oder Brille…
Auch den (inzwischen sechs Jahre alten, aber immer noch ganz gut passenden) Artikel „KI findet Waldo, erkennt sie auch Persönlichkeit?“ lege ich euch hier noch einmal ans Herz.
Inspiriert durch Andreas Schoening habe ich nun auch mal „Theyseeyourphotos“ ausprobiert – eine KI-basierte „Analyse der Person“ auf Basis von Bildern.
Das Ganze steht auf der Google Vision API.
Ich habe vier Bilder von mir verwendet.
Das erste ist relativ aktuell (ca. 1 Jahr) alt und zeigt mich in einem Outfit, das bis vor ein paar Jahren als Casual gegolten hätte, inzwischen aber eher dem normalen Businesslo9ok in der einschlägigen HR Tech-Bubble zu entsprechen scheint.
Das zweite ist inzwischen ca. 15 Jahre alt und war lange Zeit mein „Presse- bzw. Business-Foto“, etwa wenn ich in irgendeiner Programmankündigung auftauchte.
Das dritte ist wiederum ca. 1,5 Jahre alt, also recht frisch, dafür mit umgedrehtem Basecap eher „privat“, wenngleich dieses Bild bspw. meinen Blue Sky Account schmückt.
Und schließlich habe ich noch eines verwendet, das ebenfalls recht aktuell ist (etwa ein Jahr) alt. So sieht man mich zwar nicht oft, aber es kommt vor – meist eher zu privaten Anlässen wie hier zu einem Ball meiner Tochter.
Wenn man das so liest, dann denkt man bei einigen Beschreibungen: Ach ja, so so ganz falsch liegt die Deutung nicht, auch wenn natürlich hier und da etwas „reininterpretiert“ wurde. Hier dürfte aber auch eine gehörige Portion Barnum- (bzw. Forer-)Effekt am Werk sein, also das Phänomen, dass man in eher allgemeinen Zuschreibungen immer dasjenige bevorzugt herausliest, was man selber für passend erachtet.
Aber es gibt auch Zuschreibungen, die erstens schlichtweg falsch sind und die ich auch als bedrohlich empfinde. Mit Baseball-Cap mich die KI z.B. gleich für etwas einfacher gestrickt und politisch weiter rechts. Im Anzug ist werde ich vom Demokraten zum Republikaner und neige zu Substance Abuse, verdiene dafür aber mehr…
Was hierbei auch sehr deutlich wird, ist die erheblich große Streuung der „Deutung“ meiner Person auf Basis der verschiedenen Bilder. Es scheitert bei dieser „Messung“ also ganz offenkundig schon an der Reliabilität (was naturgemäß bedeutet, dass man über etwaige Validität eigentlich gar nicht weiter nachdenken muss).
Was heißt das nun?
Jetzt könnte man es sich als KI-Skeptiker natürlich leicht machen und sagen „siehst du, wusste ich es doch, KI kann es nicht“. Doch ganz so einfach ist es nicht.
Was hieran sehr verdeutlicht wird ist, dass die KI erstmal nicht „erkennt“. Konzepte wie politische Einstellungen oder auch Persönlichkeitsausprägungen o.ä. haben ja für KI keine „Bedeutung“. „Offenheit für Neues“ oder „Demokratisch“ hat für KI keinerlei Sinn, es sind im Prinzip nur Begriffe (im Modell: mathematische Vektoren). Man erkennt, dass die KI „nichts weiß“, sondern nur auf Basis von Wahrscheinlichkeiten rät.
Aber: Sie bildet dennoch ggf. recht akkurat das ab, was auch Menschen sich für ein (biased) Bild machen. Und das ist eben in der Tat durch Merkmale wie Kopftuch, Anzug, Mütze etc. beeinflusst… Die Wahrscheinlichkeiten, auf denen die KI ihre Beurteilung aufbaut, sind wahrscheinlich ein ziemlich akkurates Abbild dessen, was auch (viele) Menschen „raten“.
Insofern ist KI erstaunlich gut darin, automatisiert menschliche Biases anzuwenden.
Ein Beispiel: Die KI hält mich auf allen vier Bildern für (deutlich) jünger als ich bin. Sie liegt also faktisch falsch. Das tun die meisten Menschen allerdings auch. Insofern bildet die KI ganz passabel das ab, was Menschen auch falsch wahrnehmen…
Das ist aber das genaue Gegenteil von „weniger biased“… Die KI liefert keine „höheren Wahrheiten“ als Menschen und ist ganz bestimmt NICHT weniger biased. Aber sie macht die Biases sehr gut sichtbar, die uns alle ständig (miss)leiten… Die Software heißt darum ja auch „They see your Photos“, man könnte auch sagen „how they (many other humans) see your photos“…
Die KI liefert einem also möglicherweise eine ganz manierliche Rückmeldung, wie ein Bild eines Menschen auf andere Menschen denn womöglich wirkt und von diesen wahrgenommen wird.
Die KI hat keine für sich genommen irgendwie „bessere“ Menschenkenntnis.
Think.
Übrigens: Das Beispiel sollte dem einen oder der anderen PersonalerIn insoweit Warnung sein, sollte er oder sie auf die Idee kommen, solche Tools wie das hier beschriebene etwa zur „Persönlichkeitsanalyse“ von Bewerbenden einzusetzen. Man kann mit nahezu 100% Sicherheit davon ausgehen, dass einem das vor dem Hintergrund des AI-Acts teuer zu stehen käme (im direkten und im übertragenen Sinne)… Hier wird schon Emotionserkennung sehr streng reguliert werden und Emotionen sind als sog. „State-Merkmale“ sogar noch in gewissem Maße durch KI erkennbar. „Trait“-Merkmale wie Persönlichkeit oder Charakter aber eben nicht.
Wer sich übrigens über den rechtlichen Rahmen des Einsatzes von KI im Recruiting aufschlauen lassen möchte, dem empfehle ich einen Besuch der „Schicht im Schacht“ am 9. Mai in Duisburg. Nina Diercks wird dort dazu – personalerverständlich – einen Vortrag halten…
Wer sich zu diesem Artikel einen kleinen Podcast anhören möchte, der kann ja mal hier reinhören – der Podcast ist komplett KI-generiert mit NotebookLM – und erstaunlich gut… (Google-Konto nötig):
:-)
Jeder Mensch, der über etwas grips in der Birne verfügt beurteilt Menschen
nicht ausschließlich an den Klamotten oder am Kopfschmuck. Diese KI-Spielerei kostet gigantische Mengen an CO2 und bringt nicht wirklich einen Mehrwert. Haben wir keine realen Probleme die (mit KI) wir lösen müssen?
Ganz genau! Das Problem ist nur: Es gibt diese „Heilsversprechen“ ja leider im Markt. Und diese werden dann leider auch teilweise von Firmen gekauft (schlimm) und zur Bewerberbewertung eingesetzt (noch viel schlimmer). Darum werden wir nicht müde, dies immer wieder zu betonen und vor allem zu erklären…