Název:
Optimalizační metody prvního řádu v úlohách strojového učení
Překlad názvu:
First order optimization methods in machine learning problems
Autoři:
Janáček, Patrik ; Branda, Martin (vedoucí práce) ; Kozmík, Karel (oponent) Typ dokumentu: Bakalářské práce
Rok:
2020
Jazyk:
cze
Abstrakt: [cze][eng] Cílem práce je představit metodu stochastického gradientu pro optimalizaci diferenco- vatelné účelové funkce a diskutovat její konvergenci. Nejprve je formulována úloha učení s učitelem a princip minimalizace empirického rizika (ERM). Následuje představení sto- chastického gradientu (SG) a jeho analýza, nejprve v případě silně konvexní účelové funkce a následně pro obecnou nekonvexní funkci. V poslední části je prakticky vyřešena klasi- fikace emailového spamu. 1The goal of the thesis is to introduce the stochastic gradient method for optimizing differentiable objective function and discuss its convergence. First, supervised learning and empirical risk minimization (ERM) are explained. Then stochastic gradient descent (SG) is itroduced and analysed, first in the context of strictly convex objective function and then for the general non-convex function. In the last part, the classification of email spam is practically solved. 1
Klíčová slova:
optimalizace; Stochastický gradient; strojové učení; machine learning; optimization; Stochastic gradient