Název:
Vysvětlitelnost klasifikace živosti tváří
Překlad názvu:
Explainable Face Liveness Classification
Autoři:
Mičulek, Petr ; Beran, Vítězslav (oponent) ; Špaňhel, Jakub (vedoucí práce) Typ dokumentu: Diplomové práce
Rok:
2023
Jazyk:
eng
Nakladatel: Vysoké učení technické v Brně. Fakulta informačních technologií
Abstrakt: [eng][cze]
Cílem této práce je analýza, vývoj a vyhodnocení vysvětlitelných systémů klasifikace živosti obličeje. Klasifikace živosti obličeje slouží jako bezpečnostní filtr vyřazující podvrhy před provedením rozpoznávání obličeje. Klasifikátory živosti obličeje proto nezbytně stojí v pozadí vzestupu biometrických systémů v chytrých telefonech a bezpečnostních kamerách. Standardní neuronové sítě pro tuto úlohu však neposkytují vysvětlení pro svá rozhodnutí. V této práci jsou tedy prozkoumány a použity metody vysvětlitelnosti, konkrétně atribuce vstupních dat. V rámci těchto metod jsou provedeny experimenty na zhodnocení jejich vhodnosti a jako nejvhodnější je vybrán GradCAM používající dodatečné augmentace. Dosahuje hodnoty AUC metriky při umazávání snímku o hodnotě 0,658 a AUC při vkládání do snímku 0,908. Ačkoli další experimenty ukazují limity věrnosti těchto vysvětlení a jejich ne vždy jasnou srozumitelnost, je ukázáno, že poskytují vodítka pro vylepšení prediktivních schopností systémů pro vyhodnocení živosti obličejů.
The goal of this thesis is to explore, develop, and evaluate explainable face presentation attack detection (PAD) systems. PAD systems act as security filters for face recognition, preventing spoofed faces from reaching the identification phase. These systems are a necessary component enabling the recent rise of biometric systems used in smartphones and security cameras. While neural networks are the standard method for this task, they are commonly a black-box method providing no explanation. To provide a better understanding of the detection process, input attribution methods are applied. Their suitability is studied and various variants are compared. Of the seven methods compared, GradCAM using test-time augmentation is evaluated as the best, achieving a deletion metric AUC of 0.658 and an insertion metric AUC of 0.908. Experiments with the explanations show their limited capability at helping understand the model, but provide hints at how the predictive accuracy of the PAD system can be verified, and possibly improved.
Klíčová slova:
Convolutional Neural Networks; Face Liveness; Face Presentation Attack Detection; Interpretable ML; Machine Learning (ML); ML Explainability; interpretovatelné strojové učení; klasifikace živosti tváří; konvoluční neuronové sítě; Strojové učení; vysvětlitelnost strojového učení
Instituce: Vysoké učení technické v Brně
(web)
Informace o dostupnosti dokumentu:
Plný text je dostupný v Digitální knihovně VUT. Původní záznam: http://hdl.handle.net/11012/213795