Original title:
Pokročilá analýza obrazu využitím hlubokých neuronových sítí
Translated title:
Advanced image analysis using deep neural networks
Authors:
Hynek, Vojtěch ; Přinosil, Jiří (referee) ; Kiac, Martin (advisor) Document type: Bachelor's theses
Year:
2022
Language:
cze Publisher:
Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií Abstract:
[cze][eng]
Tato bakalářská práce se zabývá problematikou detekce objektů v obraze s využitím konvoluční neuronové sítě. Výsledkem této práce je vlastní datová sada, model neuronové sítě YOLOv4 a skript sloužící pro zpracování výsledných dat modelu. Datová sada obsahuje 8080 snímků, na kterých je anotováno 14 objektů. Modelu neuronové sítě byla zmenšena jeho hloubka, díky které významně vzrostla rychlost samotné detekce. Skript zpracovávající výsledná data vypočítává 3D a GPS souřadnice detekovaného objektu v prostoru. V závěru práce jsou shrnuty výsledky modelu a současně je uvedeno, jakým způsobem by mohlo dojít ke zlepšení kvality datové sady.
This bachelor thesis deals with the problem of object detection in images using a convolutional neural network. The result of this work is a custom dataset, a neural network model YOLOv4 and a script used to process the resulting model data. The dataset contains 8080 images on which 14 objects are annotated. The neural network model was reduced in depth, which significantly increased the speed of the detection itself. The script processing the resulting data calculates the 3D and GPS coordinates of the detected object in space. The paper concludes by summarizing the results of the model and at the same time suggesting how the quality of the dataset could be improved.
Keywords:
classification; convolutional neural networks; dataset; dron; object detection; YOLOv4; datová sada; detekce objektů; dron; klasifikace; konvoluční neuronová síť; YOLOv4
Institution: Brno University of Technology
(web)
Document availability information: Fulltext is available in the Brno University of Technology Digital Library. Original record: http://hdl.handle.net/11012/205510