Název:
Věty o univerzalitě a konzistenci neuronových sítí
Překlad názvu:
Universality and consistency theorems for neural networks
Autoři:
Raab, Petr ; Pešta, Michal (vedoucí práce) ; Hlubinka, Daniel (oponent) Typ dokumentu: Diplomové práce
Rok:
2024
Jazyk:
cze
Abstrakt: [cze][eng] Práce se zabývá neuronovými sítěmi a modelem hlubokého učení, kdy se autor snaží na neuronové sítě dívat jako na statistický model podobný zobecněným lineárním modelům. Po představení tohoto modelu a zavedení značení se práce věnuje schopnosti neuronových sítí aproximovat spojité funkce, kdy je předveden důkaz věty o univerzalitě. Následně jsou zkoumány asymptotické vlastnosti neuronových sítí, pomocí sítového odhadu je také dokázána jejich konzistence a asymptotická normalita. Právě tyto dvě vlastnosti jsou objektem zkoumání v simulační studii na generovaných datech. 1The work deals with neural networks and deep learning models, where the author attempts to view neural networks as a statistical model similar to generalized linear models. After introducing this model and introducing the notation, the work focuses on the ability of neural networks to approximate continuous functions, with a proof of the universality theorem presented. Subsequently, the asymptotic properties of neural networks are examined, and using network estimation, their consistency and asymptotic normality are also proven. These two properties are precisely the subject of investigation in a simulation study on generated data. 1
Klíčová slova:
věty o univerzalitě|věty o konzistenci|neuronové sítě|hluboké učení|asymptotické chování|sítový odhad; universality theorems|consistency theorems|neural networks|deep learning|asymptotic behavior|sieve estimator