Název:
Rozpoznávání textu pomocí hlubokých neuronových sítí
Překlad názvu:
Deep Neural Networks for Text Recognition
Autoři:
Kavuliak, Daniel ; Hradiš, Michal (oponent) ; Kišš, Martin (vedoucí práce) Typ dokumentu: Diplomové práce
Rok:
2023
Jazyk:
slo
Nakladatel: Vysoké učení technické v Brně. Fakulta informačních technologií
Abstrakt: [slo][eng]
Cieľom tejto práce je zostrojiť model na rozpoznanie rukou písaných slov, ktorý bude používať non-autoregresívny dekóder. Tento typ dekóderu počíta predikcie znakov nezávisle na ostatných predikovaných znakoch, čo môže byť výhodné z hľadiska rýchlosti inferencie, ale kvalita predikcie je horšia. Motiváciou je navrhnúť non-autoregresívny dekóder, ktorý bude mať za úlohu spresňovať predikcie enkóderu. Úloha bola riešená pomocou dekóderov, ktoré predikcie enkóderu maskujú alebo čiastočne potláčajú informáciu kvôli využitiu informácie o nemaskovaných symboloch resp. využitiu informácie vstupnej sekvencie. Následne bola vykonaná séria experimentov, kde najlepší model dosiahol znakovej chybovosti 8.92 %. Zadanie ale nebolo splnené, pretože samotný enkóder dosiahol 6.38 %.
The aim of this work is to build a model for handwritten text recognition, which will use non-autoregressive decoder. This type of decoder calculates character predictions independently of other predicted characters, which can be advantageous in terms of inference speed, but the quality of the prediction is worse. The motivation is to design a non-autoregressive decoder, which will have the task of refining the encoder's predictions. The task was solved with the help of decoders, which mask the encoder's predictions or partially suppress the information due to the use of information about unmasked symbols or using input sequence information. Subsequently, a series of experiments was performed, where the best model reached a character error rate of 8.92 %. But the assignment was not fulfilled, because the encoder itself reached 6.38 %.
Klíčová slova:
handwritten text recognition; non-autoregressive decoders; recurrent neural networks; Transformer
Instituce: Vysoké učení technické v Brně
(web)
Informace o dostupnosti dokumentu:
Plný text je dostupný v Digitální knihovně VUT. Původní záznam: http://hdl.handle.net/11012/213226