Národní úložiště šedé literatury Nalezeno 46 záznamů.  začátekpředchozí26 - 35dalšíkonec  přejít na záznam: Hledání trvalo 0.02 vteřin. 
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Řízení entit ve strategické hře založené na multiagentních systémech
Knapek, Petr ; Kočí, Radek (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zaměřuje na návrh a implementaci systému podpory učení a plánování agentů schopných hry real-time strategických her typu StarCraft. Budou vysvětleny problémy ovládání herních objektů a protivníků počítačem a představeny obvykle používané způsoby řešení. Na základě analýzy je navržen a implementován nový systém využívající multiagentního přístupu k ovládání hry a metod strojového učení, který je schopný porážet protivníky a přizpůsobovat se novým výzvám.
Hraní her pomocí neuronových sítí
Buchal, Petr ; Kolář, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je naučit neuronovou síť pohybu v prostředích s klasickou kontrolou řízení, hraní tahové hry 2048 a několika Atari her. Jedná se o oblast zpětnovazebního učení. Jako zpětnovazební algoritmus využívající neuronové sítě jsem použil Hluboké Q-učení. Ten jsem pro zvýšení efektivity učení obohatil o několik vylepšení. Mezi vylepšení patří přidání cílové sítě, DDQN, duální architektura neuronové sítě a prioritní vzpomínková paměť. Experimenty s klasickou kontrolou řízení zjistily, že nejvíce zvedá efektivitu učení přidání cílové sítě. V prostředích her dosáhlo Hluboké Q-učení několikanásobně lepších výsledků než náhodný hráč. Výsledky a jejich analýza mohou být využity ke vhledu do problematiky zpětnovazebních algoritmů využívajících neuronové sítě a zdokonalení použitých postupů.
Řízení boje ve hře Starcraft II pomocí umělé inteligence
Krajíček, Karel ; Fajčík, Martin (oponent) ; Smrž, Pavel (vedoucí práce)
Táto práca sa zaoberá využitím umelej inteligencie a návrh funkčného modulu pre strategickú hru StarCraft II. Riešenie využíva neurónové siete a Q-learning pre boj. Pre implementáciu systému a jej prepojenie s hrou StarCraft používam StarCraft 2 Learning Environment. Vyhodnotenie systému je založené na jej schopnosti vykonať pokrok.
Posilované učení pro hraní hry Starcraft
Chábek, Lukáš ; Fajčík, Martin (oponent) ; Smrž, Pavel (vedoucí práce)
Práce se zabývá metodami strojového učení aplikovanými pro hraní strategických her v realném čase. V práci se zabývám metodou strojového učení Q-learning založenou na zpětnovazebním učení. Praktická část práce je implementování agenta pro hraní hry Starcraft II. Mnou navržené řešení se učí spolupráci 4 jednoduchých sítí, které se nadále učí optimálně provádět jim přístupné akce ve hře. Analýza a vyhodnocení systému jsou provedeny experimentováním a sbíráním statistik z odehraných her.
Posilované učení pro hraní robotického fotbalu
Bočán, Hynek ; Škoda, Petr (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá tvorbou umělé inteligence schopné ovládat robotického hráče fotbalu simulovaného v prostředí SimSpark. Vytvořená umělá inteligence rozšiřuje již hotového agenta, který poskytuje implementaci základních dovedností jako je orientace na hřišti, pohyb v osmi směrech a nebo driblování s balonem. Umělá inteligence se stará o výběr nejvhodnější akce v závislosti na situaci na hřišti. Pro její implementaci byla použita metoda posilovaného učení - Q-learning. Pro výběr nejlepší akce je situace na hřišti převedena do formy 2D obrazu s několika rovinami. Tento obraz je následně analyzován hlubokou konvoluční neuronovou sítí implementované pomocí C++ knihovny DeepCL.
Umělá inteligence pro hraní her
Bayer, Václav ; Škoda, Petr (oponent) ; Smrž, Pavel (vedoucí práce)
Práce se zabývá metodami umělé inteligence aplikovanými pro hraní strategických her, ve kterých probíhá veškerá interakce v reálném čase (tzv. real-time strategic - RTS). V práci se zabývám zejména metodu strojového učení Q-learning založenou na zpětnovazebním učení a Markovovu rozhodovacím procesu. Praktická část práce je implementována pro hraní hry StarCraft: Brood War.Mnou navržené řešení, implementované v rámci pravidel soutěže SSCAIT, se učí sestavit optimální konstrukční pořadí budov dle hracího stylu oponenta. Analýza a vyhodnocení systému jsou provedeny srovnáním s ostatními účastníky soutěže a rovněž na základě sady odehraných her a porovnání počátečního chování s výsledným chováním natrénovaným právě na této sadě.
Inteligentní reaktivní agent pro hru Ms.Pacman
Bložoňová, Barbora ; Zbořil, František (oponent) ; Drahanský, Martin (vedoucí práce)
Tato práce se zabývá umělou inteligencí pro složitější rozhodovací problémy, jako je hra s neurčitostí Ms. Pacman. Cílem práce je navrhnout inteligentního reaktivního agenta využívajícího metodu strojového učení, demonstrovat jej ve vizuálním demu Ms. Pacman a jeho inteligenci srovnat se známými informovanými metodami hraní her (Minimax, Alfa-Beta řezy, Expectimax). Práce je rozdělena primárně na dvě části. V teoretické části je řešena problematika metod hraní her, reaktivita agenta a možnosti strojového učení (vše v kontextu Ms. Pacman). Druhá část práce je zaměřena na samotný popis návrhu a implementace verzí agenta a na závěr jeho srovnání se zmíněnými známými metodami hraní her, zhodnocení dosažených výsledků a několik návrhů na vylepšení do budoucna.
Strojové učení - aplikace pro demonstraci základních přístupů
Kefurt, Pavel ; Král, Jiří (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá především základními algoritmy strojového učení. V první části práce jsou vybrané algoritmy popsány. Zbývající část se následně věnuje implementaci těchto algoritmů a vytvoření demonstračních úloh pro každý z nich.
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu
Ondroušek, Vít ; Maga,, Dušan (oponent) ; Maňas, Pavel (oponent) ; Singule, Vladislav (oponent) ; Březina, Tomáš (vedoucí práce)
Disertační práce je zaměřena na využití opakovaně posilovaného učení pro řízení chůze čtyřnohého robotu. Hlavním cílem je předložení adaptivního řídicího systému kráčivého robotu, který budem schopen plánovat jeho chůzi pomocí algoritmu Q-učení. Tohoto cíle je dosaženo komplexním návrhem třívrstvé architektury založené na paradigmatu DEDS. Předkládané řešení je vystavěno na návrhu množiny elementárních reaktivních chování. Prostřednictvím simultáních aktivací těchto elementů je vyvozena množina kompozitních řídicích členů. Obě množiny zákonů řízení jsou schopny operovat nejen na rovinném, ale i v členitém terénu. Díky vhodné diskretizaci spojitého stavového prostoru je sestaven model všechn možných chování robotu pod vlivem aktivací uvedených základních i složených řídicích členů. Tento model chování je využit pro nalezení optimálních strategií řízení robotu prostřednictvím schématu Q-učení. Schopnost řídicí jednotky je ukázána na řešení tří komplexních úloh: rotace robotu, chůze robotu v přímém směru a chůze po nakloněné rovině. Tyto úlohy jsou řešeny prostřednictvím prostorových dynamických simulací čtyřnohého kráčivého robotu se třemi stupni volnosti na každou z noh. Výsledné styly chůze jsou vyhodnoceny pomocí kvantitativních standardizovaných ukazatelů. Součástí práce jsou videozáznamy verifikačních experimentů ukazující činnost elementárních a kompozitních řídicích členů a výsledné naučené styly chůze robotu.

Národní úložiště šedé literatury : Nalezeno 46 záznamů.   začátekpředchozí26 - 35dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.