Am Fraunhofer IGD setzen die Forscherinnen und Forscher alles daran, die oft kritisch beäugten Technologien »gesellschaftstauglich« zu machen – mit Erfolg: Unsere Forschungsergebnisse sind hochgefragt und bewirken einen besseren, sichereren und faireren Einsatz biometrischer Erkennungssysteme. Ein Forschungsüberblick.
Fairness und Privatsphäre in der Gesichtserkennung
Aktuelle Gesichtserkennungssysteme erreichen eine hohe Leistungsfähigkeit, weil modernste Deep-Learning-Strategien im Einsatz sind, die neben der Identität einer Person allerdings auch indirekt weitere Merkmale wie demografische Daten, Accessoires und Gesundheitszustände verarbeiten. Dies kann dazu führen, dass diese Systeme die Privatsphäre einschränken und Personen unfair behandeln. In der Regel liegt nur ein zweckgebundenes Einverständnis der Nutzenden vor, solcherlei Daten für die Erkennung nutzen zu lassen – wenn Gesichtserkennungssysteme datenschutztechnisch relevante Informationen indirekt verarbeiten, erhöht sich die Gefahr für einen Datenmissbrauch. Eine indirekte Informationsverarbeitung macht das Erkennungssystem des Weiteren dahingehend »leistungsfähig«, von solchen Informationen »abhängig« zu sein: So kann das Tragen einer Brille, das Alter oder die Hautfarbe einer Person zu einer deutlich höheren Fehlerrate führen. Daher entwickeln wir am Fraunhofer IGD anwendungsnahe Lösungen, um ungewollte Informationen aus solchen Erkennungssystemen zu entfernen und einen fairen Einsatz dieser Systeme gegenüber allen Menschen zu ermöglichen.
Wie geeignet ist ein Bild für die Gesichtserkennung?
Leistungsfähige Gesichtserkennungssysteme sind nur mit entsprechend gutem Input möglich. Sind die vorliegenden Bilder von minderer Qualität oder wegen der Kopfposition oder der Beleuchtung weniger gut geeignet, wirkt sich das nachhaltig auf die Performanz der Systeme aus. Bisherige Ansätze arbeiten mit fehleranfälligen Modellen, bei dem zuvor eine geeignete Qualitätsbeurteilung definiert werden muss, die aber in den seltensten Fällen mit dem »Qualitätsempfinden« des verwendeten Gesichtserkennungssystems übereinstimmt. Am Fraunhofer IGD wurde ein neues Konzept entwickelt, das die Qualitätsbeurteilung direkt dem Gesichtserkennungssystem überlässt, indem dieses als Qualitätsmaß definiert, wie robust – gegen ausfallende Neuronen – die Identitätsrepräsentationen des Systems sein sollen. Das Ergebnis ist eine stabile und leistungsfähige Methode, die ohne aufwendiges Training auskommt und sich leicht in bestehende Systeme integrieren lässt.
Face Morphing – Mehrere Gesichter in einem Pass
Beim Face Morphing können mehrere Gesichter in einem Passbild untergebracht werden, sodass sich verschiedene Personen mit demselben Pass ausweisen können. Da diese »Morphing-Angriffe« sowohl automatisierte Systeme als auch Grenzbedienstete auszutricksen vermögen, stellt dies eine Gefahr dar, auf die die Regierung reagiert hat: In Zukunft sind Fotostudios und Fotografen dazu verpflichtet, ein Passfoto ausschließlich digital zu erstellen und über eine sichere Übermittlung an die Pass- beziehungsweise Personalausweisbehörde zu versenden. Alternativ kann das Lichtbild auch direkt vor Ort in der Behörde und unter Mitarbeiteraufsicht angefertigt werden. Das Mitbringen von Fotos zur Integration in den Ausweis ist nicht mehr möglich. Wir arbeiten an Erkennungsalgorithmen, um diese Art von Angriffen zu entdecken. Weiterhin simulieren wir neue Arten von Morphingangriffen, um auch diese sicher detektieren zu können, bevor Kriminelle sich dieser Technik bedienen können.