Národní úložiště šedé literatury Nalezeno 46 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Plánování cesty robotu pomocí posilovaného učení
Veselovský, Michal ; Liška, Radovan (oponent) ; Dvořák, Jiří (vedoucí práce)
Tato práce se zabývá plánováním cesty pro autonomního robota v prostředí se statickými překážkami. Součástí práce je analýza různých přístupů k plánování cesty robota, a v implementační části popis metod využívajících posilovaného učení a experimenty s nimi. Hlavními výstupy práce jsou funkční algoritmy pro plánování cesty založené na Q-učení, ověření jejich funkčnosti a vzájemné srovnání.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Posilované učení pro hraní hry Starcraft
Chábek, Lukáš ; Fajčík, Martin (oponent) ; Smrž, Pavel (vedoucí práce)
Práce se zabývá metodami strojového učení aplikovanými pro hraní strategických her v realném čase. V práci se zabývám metodou strojového učení Q-learning založenou na zpětnovazebním učení. Praktická část práce je implementování agenta pro hraní hry Starcraft II. Mnou navržené řešení se učí spolupráci 4 jednoduchých sítí, které se nadále učí optimálně provádět jim přístupné akce ve hře. Analýza a vyhodnocení systému jsou provedeny experimentováním a sbíráním statistik z odehraných her.
Strojové učení - aplikace pro demonstraci základních přístupů
Kefurt, Pavel ; Král, Jiří (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá především základními algoritmy strojového učení. V první části práce jsou vybrané algoritmy popsány. Zbývající část se následně věnuje implementaci těchto algoritmů a vytvoření demonstračních úloh pro každý z nich.
Design of autonomous vehicle simulator
Machač, Petr ; Králík, Jan (oponent) ; Věchet, Stanislav (vedoucí práce)
This thesis deals with simulation tools for algorithm development for autonomous automobiles control. The thesis can be divided into two parts, first a research of currently available simulation tools, both open-source and proprietary is made. Then ways of modelling of physical systems and dynamic equations solving engines are described. An emphasis is given on a Box2D physical engine which is then used in the second part of the thesis as a base for own environment for autonomous vehicle simulation.
Inteligentní reaktivní agent pro hru Ms.Pacman
Bložoňová, Barbora ; Zbořil, František (oponent) ; Drahanský, Martin (vedoucí práce)
Tato práce se zabývá umělou inteligencí pro složitější rozhodovací problémy, jako je hra s neurčitostí Ms. Pacman. Cílem práce je navrhnout inteligentního reaktivního agenta využívajícího metodu strojového učení, demonstrovat jej ve vizuálním demu Ms. Pacman a jeho inteligenci srovnat se známými informovanými metodami hraní her (Minimax, Alfa-Beta řezy, Expectimax). Práce je rozdělena primárně na dvě části. V teoretické části je řešena problematika metod hraní her, reaktivita agenta a možnosti strojového učení (vše v kontextu Ms. Pacman). Druhá část práce je zaměřena na samotný popis návrhu a implementace verzí agenta a na závěr jeho srovnání se zmíněnými známými metodami hraní her, zhodnocení dosažených výsledků a několik návrhů na vylepšení do budoucna.
Strategická desková hra s neurčitostí
Tulušák, Adrián ; Šimek, Václav (oponent) ; Zbořil, František (vedoucí práce)
Táto práca rieši autonómne fungovanie hry Scotland Yard za využitia metód umelých inteligencií pre hranie hier a strojového učenia. Daný problém je úspešne vyriešený pomocou algoritmu pre hranie hier - Alfa-beta. Strojové učenie bolo riešené, ale nebolo úspešné najmä pre veľkú stavovú expanziu a pre nedostatočné možnosti vlastných zdrojov výpočtového výkonu. Riešenie pomocou algoritmu Alfa-beta bolo testované ľudským protihráčom a výsledok testovania ukázal schopnosť AI plnohodnotne konkurovať ľudskému hráčovi. Výsledkom práce je funkčná verzia autonómneho systému, ktorý hrá hru Scotland Yard v zmenšenej hernej ploche. Na základe experimentov so strojovým učením som navrhol niekoľko vylepšení, ktoré by v budúcnosti mohli viesť k funkčnému riešeniu problému strojovým učením.
Artificial Intelligence for the Santorini Board Game
Rybanský, Adam ; Kocour, Martin (oponent) ; Beneš, Karel (vedoucí práce)
The aim of this thesis was to use create an intelligent agent using Reinforcement learning to play Santorini, a 2-player zero-sum board game. The specific algorithm that was implemented was a modified version of Deep Q-learning, with the use of convolutional neural networks (one for training and the other for estimating future Q-value) and a memory of previously executed moves, from which the agent chooses randomly during training. Numerous experiments resulted in 2 final models. One was trained by playing against basic bots, with gradually increasing difficulty. The other was trained by playing against itself from the start. The outcome shows that the model playing against itself produces better results, however both models still perform worse than a bot which uses heuristic function.
Multiagentní systém učící se maximalizovat komfort uživatelů v rámci Smart Home
Bednařík, Radim ; Zbořil, František (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce je zaměřena na tvorbu multiagentního systému pro subsystém chytré domácnosti vytápění, jež se snaží učit vzory uživatelů, pomocí algoritmu posilovaného učení. Práce dále popisuje tvorbu potřebných modulů, kterými jsou digitální termostatická hlavice, figurující v systému jako koncový agent, a modul pro detekci přítomnosti osob. Vytvořený systém byl nasazen v reálném prostředí a je funkční.
Deep Learning Methods for Machine Playing the Scotland Yard Board Game
Hrkľová, Zuzana ; Janoušek, Vladimír (oponent) ; Zbořil, František (vedoucí práce)
This theses concerns with deep learning methods applied to machine playing board games containing movement uncertainty. Reinforcement learning principles with main focus on Q-learning algorithms were studied, among which Deep Q--Network had been chosen and applied on simplified rules of the Scotland Yard board game. The final implementation was put to test against Alpha-Beta and Monte Carlo Tree Search. The results have shown that the hider driven by DQN represented the hardest opponent for the other two methods, while the DQN seekers did not manage to surpass past results. Although the implemented method did not reach better results than currently known methods, it proved to be the least demanding when considering computational resources and time needed to perform a given move, making it the most perspective to implement on original version of the game in the future.

Národní úložiště šedé literatury : Nalezeno 46 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.