Original title:
Vysvětlitelnost klasifikace živosti tváří
Translated title:
Explainable Face Liveness Classification
Authors:
Mičulek, Petr ; Beran, Vítězslav (referee) ; Špaňhel, Jakub (advisor) Document type: Master’s theses
Year:
2023
Language:
eng Publisher:
Vysoké učení technické v Brně. Fakulta informačních technologií Abstract:
[eng][cze]
Cílem této práce je analýza, vývoj a vyhodnocení vysvětlitelných systémů klasifikace živosti obličeje. Klasifikace živosti obličeje slouží jako bezpečnostní filtr vyřazující podvrhy před provedením rozpoznávání obličeje. Klasifikátory živosti obličeje proto nezbytně stojí v pozadí vzestupu biometrických systémů v chytrých telefonech a bezpečnostních kamerách. Standardní neuronové sítě pro tuto úlohu však neposkytují vysvětlení pro svá rozhodnutí. V této práci jsou tedy prozkoumány a použity metody vysvětlitelnosti, konkrétně atribuce vstupních dat. V rámci těchto metod jsou provedeny experimenty na zhodnocení jejich vhodnosti a jako nejvhodnější je vybrán GradCAM používající dodatečné augmentace. Dosahuje hodnoty AUC metriky při umazávání snímku o hodnotě 0,658 a AUC při vkládání do snímku 0,908. Ačkoli další experimenty ukazují limity věrnosti těchto vysvětlení a jejich ne vždy jasnou srozumitelnost, je ukázáno, že poskytují vodítka pro vylepšení prediktivních schopností systémů pro vyhodnocení živosti obličejů.
The goal of this thesis is to explore, develop, and evaluate explainable face presentation attack detection (PAD) systems. PAD systems act as security filters for face recognition, preventing spoofed faces from reaching the identification phase. These systems are a necessary component enabling the recent rise of biometric systems used in smartphones and security cameras. While neural networks are the standard method for this task, they are commonly a black-box method providing no explanation. To provide a better understanding of the detection process, input attribution methods are applied. Their suitability is studied and various variants are compared. Of the seven methods compared, GradCAM using test-time augmentation is evaluated as the best, achieving a deletion metric AUC of 0.658 and an insertion metric AUC of 0.908. Experiments with the explanations show their limited capability at helping understand the model, but provide hints at how the predictive accuracy of the PAD system can be verified, and possibly improved.
Keywords:
interpretovatelné strojové učení; klasifikace živosti tváří; konvoluční neuronové sítě; Strojové učení; vysvětlitelnost strojového učení; Convolutional Neural Networks; Face Liveness; Face Presentation Attack Detection; Interpretable ML; Machine Learning (ML); ML Explainability
Institution: Brno University of Technology
(web)
Document availability information: Fulltext is available in the Brno University of Technology Digital Library. Original record: http://hdl.handle.net/11012/213795