Národní úložiště šedé literatury Nalezeno 61 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Demonstrační program pro předmět IZU
Hreha, Tomáš ; Šůstek, Martin (oponent) ; Zbořil, František (vedoucí práce)
Táto bakalárska práca sa zaoberá návrhom aplikácie pre vizualizáciu základných algoritmov umelej inteligencie. V úvodnej časti popisuje teoretický základ pre jednotlivé témy a metódy spracované v rámci tejto práce, ďalej stručne popisuje vybrané technológie a dôvody ich použitia a základne prvky použité v rámci implementácie. Ďalšia časť práce je venovaná návrhu užívateľského rozhrania, jeho hlavným komponentám a popisuje spôsoby akými aplikácia interaguje s užívateľom a ako užívateľ interaguje s aplikáciou. Posledná časť obsahuje porovnanie s pôvodnými demo aplikáciami a zhrnutie výsledkov testovania.
Hraní deterministických her s učením
Knoflíček, Jakub ; Rozman, Jaroslav (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá tvorbou umělé inteligence pro počítačového hráče deterministických her, jako je například dáma. Je rozebrán princip myšlenky a metody pro nalezení nejlepšího tahu pro daný herní stav v rozsáhlém stavovém prostoru v kombinaci s metodou posilovaného učení, která nám umožňuje ohodnocení jednotlivých herních stavů. Práce zahrnuje také rozbor metody pro nalezení všech možných tahů v konkrétní implementované hře dáma, návrh efektivního nakládání s ohodnocenými herními stavy a mechanismus náhradního ohodnocení při absenci některého z nich. V závěru je výsledná aplikace podrobena souboru testů, v nichž je porovnána s konkurenčním programem a jsou rozebírány dosažené vlastnosti metod hledání nejlepšího tahu a posilovaného učení.
Hluboké neuronové sítě pro posilované učení
Ludvík, Tomáš ; Bambušek, Daniel (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je použití hlubokých neuronových sítí na problém v posilovaném učení. Používám moji úpravu 2D hry Tuxánci jako testovací prostředí. Jedná se o úpravu, která zajišťuje možnosti využití hry jako prostředí pro strojového učení. Následně řeším problémy s naučením agenta pomocí posilovaného učení algoritmem Double DQN. Pomocí experimentů si prokazuji správné nastavení funkce odměn. 
Sdílení zkušeností v posilovaném učení
Mojžíš, Radek ; Šůstek, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je využít metod sdílení zkušeností při učení neuronových sítí na problém posilovaného učení. Jako testovací prostředí používám staré 2D konzolové hry, jako například space invaders nebo Phoenix. Testuji vliv přeučení již natrénovaných modelů na nová podobná prostředí. Dále zkouším metody pro přenášení rysů domén. Nakonec se zaměřuji na možnosti trénování modelu na několika prostředích simultánně. Z výsledků získáme přehled o možnostech sdílení zkušeností při trénování modelů pro algoritmy posilovaného učení.
Strojové učení - aplikace pro demonstraci základních přístupů
Kefurt, Pavel ; Král, Jiří (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá především základními algoritmy strojového učení. V první části práce jsou vybrané algoritmy popsány. Zbývající část se následně věnuje implementaci těchto algoritmů a vytvoření demonstračních úloh pro každý z nich.
Posilované učení pro pohyb robota
Hás, David ; Zemčík, Pavel (oponent) ; Hradiš, Michal (vedoucí práce)
Tato práce se zabývá využitím posilovaného učení pro pohyb robota v simulovaném fyzikálním prostředí. Pro posilované učení se jedná o náročné úlohy, kde agenti čelí několika výzvám. Jednou z nich je spojitý prostor akcí, jelikož agent obvykle ovlivňuje prostředí aplikací síly na jednotlivé klouby. Druhým problémem je, že části robota se často vzájemně ovlivňují složitým způsobem a navíc jsou ovlivněny gravitací, setrvačností a dalšími fyzikálními efekty. Z těchto a dalších důvodů nejsou pro tyto úlohy jednoduché algoritmy posilovaného učení vhodné. Jedním z relativně nových řešení je algoritmus Soft Actor-Critic (SAC), který se objevil současně s podobně performním TD3, a oba překonávají starší DDPG. Agent SAC je odměňován za více náhodné chování, jeho cílem je tedy kromě maximalizace odměny také maximalizace entropie. Tato práce ukazuje použití tohoto algoritmu při učení agenta na úloze robotického pohybu. Je popsána implementace s použitím frameworku PyTorch a úspěšnost algoritmu je vyhodnocena na úlohách z prostředí PyBullet a OpenAI Gym. Algoritmus je na závěr použit na vlastní upravené prostředí s robotem Atlas.
Hluboké neuronové sítě pro posilované učení
Košák, Václav ; Dobeš, Petr (oponent) ; Hradiš, Michal (vedoucí práce)
Práce popisuje trénovací prostředí pro trénování postavičky chodící po dvou končetinách. Prostředí je implementováno v AI Gym pomocí fyzikálního modelu PyBullet. Úlohy z prostředí jsou řešené pomocí posilovaného učení algoritmem ActorCritic. Každá z úloh je zaměřená na základní pohyby postavičky. Práce ukazuje, pomocí jakých funkcí odměn je algoritmus schopen dospět k řešení úloh.
Inteligentní reaktivní agent pro hru Ms.Pacman
Bložoňová, Barbora ; Zbořil, František (oponent) ; Drahanský, Martin (vedoucí práce)
Tato práce se zabývá umělou inteligencí pro složitější rozhodovací problémy, jako je hra s neurčitostí Ms. Pacman. Cílem práce je navrhnout inteligentního reaktivního agenta využívajícího metodu strojového učení, demonstrovat jej ve vizuálním demu Ms. Pacman a jeho inteligenci srovnat se známými informovanými metodami hraní her (Minimax, Alfa-Beta řezy, Expectimax). Práce je rozdělena primárně na dvě části. V teoretické části je řešena problematika metod hraní her, reaktivita agenta a možnosti strojového učení (vše v kontextu Ms. Pacman). Druhá část práce je zaměřena na samotný popis návrhu a implementace verzí agenta a na závěr jeho srovnání se zmíněnými známými metodami hraní her, zhodnocení dosažených výsledků a několik návrhů na vylepšení do budoucna.
Analýza různých přístupů k řešení optimalizačních úloh
Knoflíček, Jakub ; Samek, Jan (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá řešením optimalizačních úloh při použití různých přístupů. Na úvod je formálně definován pojem optimalizační úloha a následuje zavedení pojmu fitness funkce, která je společná pro všechny optimalizační metody. Poté jsou rozebrány přístupy při optimalizaci pomocí hejna částic, mravenčí kolonií, simulovaným žíháním, genetickými algoritmy a posilovaným učením. Pro testování slouží dvě diskrétní (problém více batohů a problém pokrytí množiny) a dvě spojité úlohy (hledání globálního minima Ackleyho a Rastriginovy funkce), jež popisujeme v další kapitole. Následuje popis implementačních detailů pro jednotlivé optimalizační metody, například způsoby reprezentace řešení či jakým způsobem jsou stávající řešení v průběhu algoritmu měněna. Nakonec jsou prezentovány výsledky měření, které ukazují optimální nastavení parametrů zkoumaných metod vzhledem k testovacím úlohám.
Hraní nedeterministických her s učením
Bukovský, Marek ; Rozman, Jaroslav (oponent) ; Zbořil, František (vedoucí práce)
Práce se věnuje studiu a implementaci metod použitých pro učení z průběhu hraní. Zvolenou hrou pro tuhle práci jsou Vrhcáby. Algoritmus použitý pro učení neuronové sítě se nazývá učení z časového rozdílu s použitím stop vhodnosti. Tento algoritmus je známý i pod jménem TD(lambda). V teoretické části práce jsou popsány algoritmy pro hraní her bez učení, úvod do posilovaného učení, učení z časových rozdílů a úvod do umělých úvod neuronových sítí. Praktická část se zabývá aplikováním kombinace neuronových sítí a TD(lambda) algoritmů.

Národní úložiště šedé literatury : Nalezeno 61 záznamů.   začátekpředchozí21 - 30dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.