Original title:
Rozpoznávání emocí pomocí konvolučních neuronových sítí
Translated title:
Convolutional Neural Networks for Emotion Recognition
Authors:
Jileček, Jan ; Najman, Pavel (referee) ; Hradiš, Michal (advisor) Document type: Bachelor's theses
Year:
2016
Language:
cze Publisher:
Vysoké učení technické v Brně. Fakulta informačních technologií Abstract:
[cze][eng]
Konvoluční neuronové sítě se dnes používají v mnoha oblastech, především ale pro strojové učení, kde vykazují velkou úspěšnost. Tato práce nejprve představí existující frameworky, další algoritmy pro rozpoznávání a pak popisuje, jak probíhalo vytváření vlastní datové sady a trénink modelu pro rozpoznávání emocí. Tento model má úspěšnost klasifikace 60%. Model je následně využit pro získání statistik o emocích z filmových trailerů a z těchto statistik je sestaven model pro rozpoznávání žánrů, který je konečně použit v naší aplikaci pro určení žánru vstupního traileru s přesností až 47%.
Convolutional neural networks are used for various tasks, but foremost in machine learning, in which they excel. This work is going to introduce some existing frameworks, other algorithms for recognition and then we describe the training dataset creation and the model for emotion recognition training process. Mentioned model has accuracy of 60%. It is used for emotion statistics retrieval from movie trailers. Model for genre recognition is created from those statistics and then finally used in our application for genre recognition of the input trailer, with best accuracy of 47%.
Keywords:
AMFED; Brazilian FEI; Caffe framework; CK; Convolutional neural networks; Emotion recognition; Facial recognition; K-nearest neigbours; KDEF; Movie genre recognition; OpenCV.; SFEW; Algoritmus K-nejbližších sousedů; AMFED; Brazilian FEI; Caffe framework; CK; KDEF; Konvoluční neuronové sítě; OpenCV; Rozpoznávání emocí; Rozpoznávání obličejů; Rozpoznávání žánrů; SFEW
Institution: Brno University of Technology
(web)
Document availability information: Fulltext is available in the Brno University of Technology Digital Library. Original record: http://hdl.handle.net/11012/62220