Neuronale Netze haben viele Vorteile und schleichen sich derzeit in viele Anwendungen ein. Ein großer Vorteil ist, dass Kombinationen zwischen Input und Output sehr effizient ausgedrückt werden können, ohne das komplette System zu modellieren. Ein großer Nachteil ist jedoch, dass nicht alle Entscheidungen, die ein neuronales Netz trifft, korrekt sind. In Bezug auf neuronale Netze wird dies als Verlust und Genauigkeit ausgedrückt. Die Tatsache, dass neuronale Netze zwar Wissen über ein Modell haben, dieses aber nicht in einem eindeutigen und lesbaren Format ausgedrückt ist, hilft bei Authentifizierungsszenarien, das Thema Datenschutz abzudecken. Zum Beispiel muss in einem Authentifizierungssystem kein Fingerabdruck gespeichert werden, aber das Modell darin wird auf allen Fingern mit Zugang trainiert. In der Theorie klingt das toll! Aber ein neuronales Netz zu trainieren und die Verlust- und Genauigkeitsparameter richtig zu bestimmen, hängt sehr von den Trainings-, Validierungs- und Testdaten ab. Ein Beispiel für das Austricksen (aber auch Härten) biometrischer Authentifizierung mit Zufallsraten ist [1]. Unser Ziel ist es, solche auf neuronalen Netzen basierenden Systeme zu analysieren und Sicherheitsrisiken für neuronalnetzbasierte Anwendungen zu identifizieren. Zusätzlich möchten wir Richtlinien erstellen, um solche Systeme resistent gegen die von uns herausgefundenen Angriffe zu machen.
[1] Benjamin Zi and Hao Zhao. “On the Resilience of Biometric Authentication Systems against Random Inputs. (arXiv:2001.04056v2 [cs.CR] CROSS LISTED)”. In: February (2020). url: https://arxiv.org/abs/2001.04056.