Národní úložiště šedé literatury Nalezeno 9 záznamů.  Hledání trvalo 0.00 vteřin. 
Hraní her pomocí neuronových sítí
Buchal, Petr ; Kolář, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je naučit neuronovou síť pohybu v prostředích s klasickou kontrolou řízení, hraní tahové hry 2048 a několika Atari her. Jedná se o oblast zpětnovazebního učení. Jako zpětnovazební algoritmus využívající neuronové sítě jsem použil Hluboké Q-učení. Ten jsem pro zvýšení efektivity učení obohatil o několik vylepšení. Mezi vylepšení patří přidání cílové sítě, DDQN, duální architektura neuronové sítě a prioritní vzpomínková paměť. Experimenty s klasickou kontrolou řízení zjistily, že nejvíce zvedá efektivitu učení přidání cílové sítě. V prostředích her dosáhlo Hluboké Q-učení několikanásobně lepších výsledků než náhodný hráč. Výsledky a jejich analýza mohou být využity ke vhledu do problematiky zpětnovazebních algoritmů využívajících neuronové sítě a zdokonalení použitých postupů.
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Vesmírná hra s umělou inteligencí
Bašta, Přemysl ; Pilát, Martin (vedoucí práce) ; Gemrot, Jakub (oponent)
Součástí této práce je implementace mé vlastní, jednoduché, vesmírné hry, která slouží jako experimentální prostředí pro testování různých přístupů umělé inteligence. Nad stavy a akcemi hry byly vytvořeny abstrakce ve formě senzorických metod a akčních plánů, které umožňují jednoduše přecházet z informací nízké úrovně do informací vyšší úrovně a tak pomáhají algoritmům umělé inteligence jednodušeji manipulovat s agenty, kteří se ve hře pohybují. Jako algoritmy umělé inteligence byly pro hledání inteligentních agentů zvoleny genetické programování a hluboké Q-učení. Závěrečná část se soustředí na popsání chování nalezených agentů a vzájemné porovnání výsledků z provedených ex perimentů.
Hraní her pomocí neuronových sítí
Buchal, Petr ; Kolář, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je naučit neuronovou síť pohybu v prostředích s klasickou kontrolou řízení, hraní tahové hry 2048 a několika Atari her. Jedná se o oblast zpětnovazebního učení. Jako zpětnovazební algoritmus využívající neuronové sítě jsem použil Hluboké Q-učení. Ten jsem pro zvýšení efektivity učení obohatil o několik vylepšení. Mezi vylepšení patří přidání cílové sítě, DDQN, duální architektura neuronové sítě a prioritní vzpomínková paměť. Experimenty s klasickou kontrolou řízení zjistily, že nejvíce zvedá efektivitu učení přidání cílové sítě. V prostředích her dosáhlo Hluboké Q-učení několikanásobně lepších výsledků než náhodný hráč. Výsledky a jejich analýza mohou být využity ke vhledu do problematiky zpětnovazebních algoritmů využívajících neuronové sítě a zdokonalení použitých postupů.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.