Národní úložiště šedé literatury Nalezeno 45 záznamů.  začátekpředchozí36 - 45  přejít na záznam: Hledání trvalo 0.02 vteřin. 
Plánování cesty robotu pomocí posilovaného učení
Veselovský, Michal ; Liška, Radovan (oponent) ; Dvořák, Jiří (vedoucí práce)
Tato práce se zabývá plánováním cesty pro autonomního robota v prostředí se statickými překážkami. Součástí práce je analýza různých přístupů k plánování cesty robota, a v implementační části popis metod využívajících posilovaného učení a experimenty s nimi. Hlavními výstupy práce jsou funkční algoritmy pro plánování cesty založené na Q-učení, ověření jejich funkčnosti a vzájemné srovnání.
Řízení nestacionárních soustav pomocí Q-učení
Věchet, S. ; Krejsa, Jiří
Článek je věnován použití metody Q-učení (speciální verze opakovaně posilovaného učení) pro řízení nestacionárních soustav.
Using modified Q-learning with LWR for inverted pendulum control
Věchet, S. ; Míček, P. ; Březina, Tomáš
Paper shows modified version of Q-learning together with locallz weighted learning method used for simple control task.
Walking gait of four-legged robot obtained throug Q learning
Březina, Tomáš ; Houška, P. ; Singule, V. ; Sedlák, P.
The possible method of walking policy obtaining of four-legged robot through Q-learning is discussed in the contribution. Q-learning is implemented using architecture represented by nondeterministic state machine that defines both possible discrete states and admissible transitions between them.
The control of active magnetic bearing using two-phase Q-learning
Březina, Tomáš ; Krejsa, Jiří
The paper compares controllers based on two phase Q-learning with PID controller on active magnetic bearing control task.
Active magnetic bearing control through Q-learing
Březina, Tomáš ; Krejsa, Jiří ; Kratochvíl, Ctirad
Paper is focused on the control of active magnetic bearing using improved version of Q-learning. The improvement subsists in separating Q-learning into two phases - efficient prelearning phase and tutorage phase working with real system.
Using Modified Q-learning with LWR for Inverted Pendulum Control
Věchet, S. ; Krejsa, Jiří ; Březina, Tomáš
Locally Weighted Regression together with Q-learning is demonstrated in control task of a simple model of inverted pendulum.
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
Řídící systém čtyřnohého robota založený na učení
Březina, Tomáš ; Houška, P. ; Singule, V.
V příspěvku je popsán možný diskretizační postup spojitého stavového prostoru čtyřnohého robota užitím simultánních kompozicí chování. Kompozice jsou generovány pomocí instancí dvou základních řídících členů. Cílem je automaticky vyvinout způsob chůze. Přípustné kompoziční strategie jsou implementovány prostřednictvím nedeterministického konečného automatu. Počet stavů a přechodů může být podstatně redukován již v etapě návrhu automatu.
Q-learning used for control of AMB: reduced state definition
Březina, Tomáš ; Krejsa, Jiří
Previous work showed that stochastic strategy improved model free RL method known as Q-learning used on active magnetic bearing (AMB) model. So far the position, velocity and acceleration were used to describe the state of the system. This paper shows simplified version of controller which uses reduced state definition - position and velocity only. Furthermore the controlled initial conditions domain and its development during learning are shown.

Národní úložiště šedé literatury : Nalezeno 45 záznamů.   začátekpředchozí36 - 45  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.