Národní úložiště šedé literatury Nalezeno 11 záznamů.  1 - 10další  přejít na záznam: Hledání trvalo 0.02 vteřin. 
Aplikace posilovaného učení v řízení Smart Home
Biel, Gabriel ; Zbořil, František (oponent) ; Janoušek, Vladimír (vedoucí práce)
This thesis investigates how machine learning can improve smart home management by focusing on optimizing temperature control and boosting energy efficiency. Specifically, it examines and compares two sophisticated reinforcement learning algorithms, Deep Q-Learning (DQL) and Proximal Policy Optimization (PPO). These models are tested in a simulated environment that replicates real-world conditions to evaluate their effectiveness in adapting to user behaviors and environmental changes. The study finds that the PPO model is particularly effective due to its stability and ability to predict when occupants will return, thus maintaining a comfortable temperature more efficiently. This research offers valuable insights into the practical applications of AI technologies in smart homes.
Heuristiky pro hraní hry Scotland Yard
Cejpek, Michal ; Zbořil, František (oponent) ; Zbořil, František (vedoucí práce)
Tato práce se zabývá možností použití algoritmů hlubokého a posilovaného učení pro řešení problémů s neúplnou informací. Konkrétně je hlavním zkoumaným algoritmem PPO – Proximal Policy Optimization (optimalizace proximální politiky). K účelu otestování vhodnosti algoritmu PPO, byla vytvořena zjednodušená implementace hry Scotland Yard a také prostředí pro trénování a testování algoritmů. Z provedených experimentů této práce vzešlo, že algoritmus PPO je velmi vhodný na řešení problémů s neúplnou informací. Agenti při trénování velmi rychle získali pojem o cílech hry a vybudovali vhodné strategie pro naplnění těchto cílů.
Using Reinforcement learning and inductive synthesis for designing robust controllers in POMDPs
Hudák, David ; Holík, Lukáš (oponent) ; Češka, Milan (vedoucí práce)
A significant challenge in sequential decision-making involves dealing with uncertainty, which arises from inaccurate sensors or only a partial knowledge of the agent's environment. This uncertainty is formally described through the framework of partially observable Markov decision processes (POMDPs). Unlike Markov decision processes (MDP), POMDPs only provide limited information about the exact state through imprecise observations. Decision-making in such settings requires estimating the current state, and generally, achieving optimal decisions is not tractable. There are two primary strategies to address this issue. The first strategy involves formal methods that concentrate on computing belief MDPs or synthesizing finite state controllers, known for their robustness and verifiability. However, these methods often struggle with scalability and require to know the underlying model. Conversely, informal methods like reinforcement learning offer scalability but lack verifiability. This thesis aims to merge these approaches by developing and implementing various techniques for interpreting and integrating the results and communication strategies between both methods. In this thesis, our experiments show that this symbiosis can improve both approaches, and we also show that our implementation overcomes other RL implementations for similar tasks.
Aplikace posilovaného učení při řízení modelu vozidla
Maslowski, Petr ; Uhlíř, Václav (oponent) ; Šůstek, Martin (vedoucí práce)
Tato práce se zabývá vytvořením autonomního agenta pro řízení modelu vozidla. Rozhodování agenta je řízeno pomocí posilovaného učení (reinforcement learning) s využitím neuronových sítí. Agent získává snímky z přední kamery vozidla a na základě jejich interpretace vybírá vhodné akce pro řízení vozidla. V rámci práce jsem navrhl několik funkcí odměn a s vytvořenými modely jsem experimentoval úpravou hyperparametrů. Výsledný agent pak simuluje řízení vozidla na silnici. Výsledek této práce ukazuje možný přístup k ovládání autonomního vozidla, které se učí řídit metodou strojového učení v simulátoru CARLA.
Hluboké neuronové sítě pro posilované učení
Ludvík, Tomáš ; Bambušek, Daniel (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je použití hlubokých neuronových sítí na problém v posilovaném učení. Používám moji úpravu 2D hry Tuxánci jako testovací prostředí. Jedná se o úpravu, která zajišťuje možnosti využití hry jako prostředí pro strojového učení. Následně řeším problémy s naučením agenta pomocí posilovaného učení algoritmem Double DQN. Pomocí experimentů si prokazuji správné nastavení funkce odměn. 
Sdílení zkušeností v posilovaném učení
Mojžíš, Radek ; Šůstek, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je využít metod sdílení zkušeností při učení neuronových sítí na problém posilovaného učení. Jako testovací prostředí používám staré 2D konzolové hry, jako například space invaders nebo Phoenix. Testuji vliv přeučení již natrénovaných modelů na nová podobná prostředí. Dále zkouším metody pro přenášení rysů domén. Nakonec se zaměřuji na možnosti trénování modelu na několika prostředích simultánně. Z výsledků získáme přehled o možnostech sdílení zkušeností při trénování modelů pro algoritmy posilovaného učení.
Deep Learning Methods for Machine Playing the Scotland Yard Board Game
Hrkľová, Zuzana ; Janoušek, Vladimír (oponent) ; Zbořil, František (vedoucí práce)
This theses concerns with deep learning methods applied to machine playing board games containing movement uncertainty. Reinforcement learning principles with main focus on Q-learning algorithms were studied, among which Deep Q--Network had been chosen and applied on simplified rules of the Scotland Yard board game. The final implementation was put to test against Alpha-Beta and Monte Carlo Tree Search. The results have shown that the hider driven by DQN represented the hardest opponent for the other two methods, while the DQN seekers did not manage to surpass past results. Although the implemented method did not reach better results than currently known methods, it proved to be the least demanding when considering computational resources and time needed to perform a given move, making it the most perspective to implement on original version of the game in the future.
Hluboké neuronové sítě pro posilované učení
Ludvík, Tomáš ; Bambušek, Daniel (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je použití hlubokých neuronových sítí na problém v posilovaném učení. Používám moji úpravu 2D hry Tuxánci jako testovací prostředí. Jedná se o úpravu, která zajišťuje možnosti využití hry jako prostředí pro strojového učení. Následně řeším problémy s naučením agenta pomocí posilovaného učení algoritmem Double DQN. Pomocí experimentů si prokazuji správné nastavení funkce odměn. 
Sdílení zkušeností v posilovaném učení
Mojžíš, Radek ; Šůstek, Martin (oponent) ; Hradiš, Michal (vedoucí práce)
Cílem této práce je využít metod sdílení zkušeností při učení neuronových sítí na problém posilovaného učení. Jako testovací prostředí používám staré 2D konzolové hry, jako například space invaders nebo Phoenix. Testuji vliv přeučení již natrénovaných modelů na nová podobná prostředí. Dále zkouším metody pro přenášení rysů domén. Nakonec se zaměřuji na možnosti trénování modelu na několika prostředích simultánně. Z výsledků získáme přehled o možnostech sdílení zkušeností při trénování modelů pro algoritmy posilovaného učení.
Aplikace posilovaného učení při řízení modelu vozidla
Maslowski, Petr ; Uhlíř, Václav (oponent) ; Šůstek, Martin (vedoucí práce)
Tato práce se zabývá vytvořením autonomního agenta pro řízení modelu vozidla. Rozhodování agenta je řízeno pomocí posilovaného učení (reinforcement learning) s využitím neuronových sítí. Agent získává snímky z přední kamery vozidla a na základě jejich interpretace vybírá vhodné akce pro řízení vozidla. V rámci práce jsem navrhl několik funkcí odměn a s vytvořenými modely jsem experimentoval úpravou hyperparametrů. Výsledný agent pak simuluje řízení vozidla na silnici. Výsledek této práce ukazuje možný přístup k ovládání autonomního vozidla, které se učí řídit metodou strojového učení v simulátoru CARLA.

Národní úložiště šedé literatury : Nalezeno 11 záznamů.   1 - 10další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.