Národní úložiště šedé literatury Nalezeno 11 záznamů.  1 - 10další  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Aplikace posilovaného učení v řízení Smart Home
Biel, Gabriel ; Zbořil, František (oponent) ; Janoušek, Vladimír (vedoucí práce)
This thesis investigates how machine learning can improve smart home management by focusing on optimizing temperature control and boosting energy efficiency. Specifically, it examines and compares two sophisticated reinforcement learning algorithms, Deep Q-Learning (DQL) and Proximal Policy Optimization (PPO). These models are tested in a simulated environment that replicates real-world conditions to evaluate their effectiveness in adapting to user behaviors and environmental changes. The study finds that the PPO model is particularly effective due to its stability and ability to predict when occupants will return, thus maintaining a comfortable temperature more efficiently. This research offers valuable insights into the practical applications of AI technologies in smart homes.
Hraní her pomocí neuronových sítí
Buchal, Petr ; Kolář, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je naučit neuronovou síť pohybu v prostředích s klasickou kontrolou řízení, hraní tahové hry 2048 a několika Atari her. Jedná se o oblast zpětnovazebního učení. Jako zpětnovazební algoritmus využívající neuronové sítě jsem použil Hluboké Q-učení. Ten jsem pro zvýšení efektivity učení obohatil o několik vylepšení. Mezi vylepšení patří přidání cílové sítě, DDQN, duální architektura neuronové sítě a prioritní vzpomínková paměť. Experimenty s klasickou kontrolou řízení zjistily, že nejvíce zvedá efektivitu učení přidání cílové sítě. V prostředích her dosáhlo Hluboké Q-učení několikanásobně lepších výsledků než náhodný hráč. Výsledky a jejich analýza mohou být využity ke vhledu do problematiky zpětnovazebních algoritmů využívajících neuronové sítě a zdokonalení použitých postupů.
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Artificial Intelligence for the Santorini Board Game
Rybanský, Adam ; Kocour, Martin (oponent) ; Beneš, Karel (vedoucí práce)
The aim of this thesis was to use create an intelligent agent using Reinforcement learning to play Santorini, a 2-player zero-sum board game. The specific algorithm that was implemented was a modified version of Deep Q-learning, with the use of convolutional neural networks (one for training and the other for estimating future Q-value) and a memory of previously executed moves, from which the agent chooses randomly during training. Numerous experiments resulted in 2 final models. One was trained by playing against basic bots, with gradually increasing difficulty. The other was trained by playing against itself from the start. The outcome shows that the model playing against itself produces better results, however both models still perform worse than a bot which uses heuristic function.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Na simulaci založený vývoj systému řízení distribuce tepla
Tomeček, Jan ; Rozman, Jaroslav (oponent) ; Janoušek, Vladimír (vedoucí práce)
Tato práce se zabývá optimalizací ohřevu bojleru z externích zdrojů. V práci jsem vytvořil simulační model systému ohřevu vody. Následně jsem pomocí simulačního modelu navrhl možné optimalizace řízení ohřevu vody. Použitou metodou pro optimalizaci byl algoritmus hlubokého Q-učení. Výsledek této práce ukazuje vyžití simulace pro vývoj a optimalizaci řídících systémů.
Posilované učení pro hraní robotického fotbalu
Brychta, Adam ; Švec, Tomáš (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá vytvořením agenta pro hraní robotického fotbalu. V práci používám metodu hlubokého Q-učení, která využívá hlubokou neuronovou síť. Praktická část práce se zabývá implementací agenta pro posilované učení. Cílem agenta je vybrat nejlepší akci pro daný stav prostředí. Trénování agenta probíhá v různých scénářích situací na hřišti. Výsledek této práce ukazuje přístup k hraní fotbalu pomocí strojového učení.
Vesmírná hra s umělou inteligencí
Bašta, Přemysl ; Pilát, Martin (vedoucí práce) ; Gemrot, Jakub (oponent)
Součástí této práce je implementace mé vlastní, jednoduché, vesmírné hry, která slouží jako experimentální prostředí pro testování různých přístupů umělé inteligence. Nad stavy a akcemi hry byly vytvořeny abstrakce ve formě senzorických metod a akčních plánů, které umožňují jednoduše přecházet z informací nízké úrovně do informací vyšší úrovně a tak pomáhají algoritmům umělé inteligence jednodušeji manipulovat s agenty, kteří se ve hře pohybují. Jako algoritmy umělé inteligence byly pro hledání inteligentních agentů zvoleny genetické programování a hluboké Q-učení. Závěrečná část se soustředí na popsání chování nalezených agentů a vzájemné porovnání výsledků z provedených ex perimentů.

Národní úložiště šedé literatury : Nalezeno 11 záznamů.   1 - 10další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.