Original title:
Automatická vizuální podpora pro Q-řazení
Authors:
Kán, Dávid ; Hradiš, Michal (referee) ; Vaško, Marek (advisor) Document type: Bachelor's theses
Year:
2024
Language:
slo Publisher:
Vysoké učení technické v Brně. Fakulta informačních technologií Abstract:
[slo][eng]
Táto bakalárska práca sa zaoberá integráciou Q-triedenia a metód počítačového videnia na detekciu objektov. Cieľom práce je vytvoriť program, ktorý pomocou vizuálnej podpory uľahčí proces a zároveň zabraňuje vzniknutiu chýb vykonávania Q-triedenia. Ďalej sa práca zaoberá vytvorením vhodnej dátovej sady pre natrénovanie modelu a pre experimenty, ktorá zohľadňuje spôsob rozloženia kariet a prostredia. Implementovaný program má formu konzolovej aplikácie a je napísaný pomocou programovacieho jazyka Python. Program používa pre detekciu objektov YOLOv8 a pre získanie textu z kartičiek využíva Pero OCR. S využitím vytvorenej testovacej sady boli na natrénovanom modeli vykonané experimenty a~otestovaný program.
This bachelor thesis deals with the integration of Q-sorting and computer vision methods for object detection. The goal of the work is to create a program that, with the help of~visual support, will facilitate the process and at the same time prevent errors in Q-sorting. Furthermore, the work deals with the creation of~a suitable data set for training the model and for experiments, which takes into account the way the cards are laid out and the~environment. The implemented program takes the form of a console application and is written using the Python programming language. The program uses YOLOv8 to detect objects and uses Pero OCR to retrieve text from cards. Using the created test set, experiments were performed on the trained model and the program was tested.
Keywords:
convolutional neural network; dataset; object detection; OCR; Pero OCR; Python; Q-grid; Q-methology; Q-sort; trained model; YOLOv8
Institution: Brno University of Technology
(web)
Document availability information: Fulltext is available in the Brno University of Technology Digital Library. Original record: https://hdl.handle.net/11012/247868