Original title:
Optimalizační metody prvního řádu v úlohách strojového učení
Translated title:
First order optimization methods in machine learning problems
Authors:
Janáček, Patrik ; Branda, Martin (advisor) ; Kozmík, Karel (referee) Document type: Bachelor's theses
Year:
2020
Language:
cze Abstract:
[cze][eng] Cílem práce je představit metodu stochastického gradientu pro optimalizaci diferenco- vatelné účelové funkce a diskutovat její konvergenci. Nejprve je formulována úloha učení s učitelem a princip minimalizace empirického rizika (ERM). Následuje představení sto- chastického gradientu (SG) a jeho analýza, nejprve v případě silně konvexní účelové funkce a následně pro obecnou nekonvexní funkci. V poslední části je prakticky vyřešena klasi- fikace emailového spamu. 1The goal of the thesis is to introduce the stochastic gradient method for optimizing differentiable objective function and discuss its convergence. First, supervised learning and empirical risk minimization (ERM) are explained. Then stochastic gradient descent (SG) is itroduced and analysed, first in the context of strictly convex objective function and then for the general non-convex function. In the last part, the classification of email spam is practically solved. 1
Keywords:
machine learning; optimization; Stochastic gradient; optimalizace; Stochastický gradient; strojové učení
Institution: Charles University Faculties (theses)
(web)
Document availability information: Available in the Charles University Digital Repository. Original record: http://hdl.handle.net/20.500.11956/119762