Gesichtserkennung

Ich kenne dich irgendwoher…

Ein kritischer Blick auf die Entwicklung und den Einsatz von Gesichtserkennung im Social Web

I’ve grown a acccustomed to her face“ sinniert Rex Harrison 1956 im Musical „My Fair Lady“. 59 Jahre später automatisiert ein kanadischer Entwickler die Speeddating-App Tinder durch Gesichtserkennung und „gewöhnt“ sein Smartphone so an hunderte von Damen, die ihm gefallen könnten. Datengiganten wie Facebook und Google forschen fleißig mit, lehren ihre Computer anhand von Face Recognition zu erkennen, wer oder was zu wem passt. Technisch genial? Oh ja. Creepy? Oh ja.

Eins vorweg: automatisierte Gesichterkennung ist nicht neu. Entsprechende Verfahren und Technologien wurden schon vor Jahrzehnten entwickelt. Dahinter stecken in der Regel drei einfache Schritte: ein Computer „lernt“ Gesichtsstrukturen anhand von einer bestimmten Datenmenge, verdichtet sie zu einer Maske und gleicht diese mit anderen Gesichtern ab. Ein einfaches Beispiel dafür ist die Eigengesicht-Methode.

10 potenzielle Dates in 48 Stunden

Wie simpel man derartige Verfahren für eigene Zwecke einsetzen kann, beweist der kanadische Entwickler Justin Long. Er hat mithilfe der Eigengesicht-Methode einen Tinder-Bot zusammengebastelt. „Tinderbox“ lokalisiert automatisch Tinder-Matches und spielt dem jeweiligen User Notifications aus, wenn ein Match gefunden wurde. Alles, was der Bot braucht, um zu funktionieren, sind 60 „yes“ oder „no“ Entscheidungen des Tinder-Users. Den Code hinter seiner Entwicklung stellt Long auf Github jedem zum Download und zur Weiterentwicklung bereit. Der Entwickler hat laut eigenen Angaben Tinderbox deaktiviert, weil es „zu gut funktioniere“. 70 % der Bot-Entscheidungen seien Treffer gewesen. Um all die daraus resultierenden Matches zu daten, braucht es vermutlich viel Ausdauer.

Deepface und die große Frage nach dem „Ob“

Eine 70prozentige Trefferquote ist nicht schlecht. Dass Gesichtserkennung noch viel akkurater und größer funktioniert, zeigt Facebook. Seit einigen Jahren geistert deren Forschungsprojekt „Deepface“ durch die Medien. Dahinter verbirgt sich ein komplexes, technisches Verfahren, das laut Facebooks Angaben Gesichter in 97,35 % der Fälle wiedererkennt (Untersuchungsgrundlage: über 4 Millionen Bilder aus über 4.000 Facebook-Profilen). Viel akkurater erkennen Menschen einander nicht (97,5prozentige Erkennungsquote). Facebook erkennt uns User also derzeit fast genau so gut, wie wir einander im Real Life erkennen. Wow…

Deepface generiert anhand von unterschiedlichen fotografischen Aufnahmen eines Gesichts ein 3D-Modell, das wie eine Universalmaske exakt jenem Gesicht passt und es identifizierbar macht. Daraus entsteht eine Art Foto-ID für jeden Facebook-User.
Facebook weiß dementsprechend ohne weitere Angaben wie Location, Text oder Tags anhand von Fotos, wo sich ein User aufgehalten hat, mit wem er unterwegs war und wofür er sich interessiert. Die bisher von Facebook gesammelten Personendaten werden also sozusagen um eine sehr persönliche und eindeutig zuordenbare Komponente ergänzt.

Was Facebook mit den Ergebnissen aus Deepface macht? Laut eigenen Angaben dient Deepface nur Forschungszwecken. Es werde nicht aktiv angewendet. Was Facebook mit den Daten machen könnte, liegt auf der Hand: Geld. Ad-Targeting würde sich zum Beispiel nicht mehr nur auf Nutzerangaben- und verhalten beschränken. Werbebotschaften ließen sich so um ein vielfaches treffsicherer an den Mann oder die Frau bringen: „We know you like these glasses because we saw you wearing similar ones!“ Dass diese Entwicklung von vielen Datenschützern und Privacy-Verfechtern mehr als kritisch gesehen wird, liegt auf der Hand.

Schlagworte: , ,
  • Zu den bekanntestesten Gesichtserkennungs-Verfahren gehört die „Eigengesicht-Methode“.
  • Menschen erkennen Gesichter in 97,5 Prozent der Fälle wieder.
  • Facebooks Deepface unterbietet diesen Wert laut eigenen Angaben nur knapp: 97,35 %.
  • Angeblich wird Deepface nur zu Forschungszwecken verwendet werden. Angeblich.