Národní úložiště šedé literatury Nalezeno 46 záznamů.  začátekpředchozí36 - 45další  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu
Ondroušek, Vít ; Březina, Tomáš (vedoucí práce)
Disertační práce je zaměřena na využití opakovaně posilovaného učení pro řízení chůze čtyřnohého robotu. Hlavním cílem je předložení adaptivního řídicího systému kráčivého robotu, který budem schopen plánovat jeho chůzi pomocí algoritmu Q-učení. Tohoto cíle je dosaženo komplexním návrhem třívrstvé architektury založené na paradigmatu DEDS. Předkládané řešení je vystavěno na návrhu množiny elementárních reaktivních chování. Prostřednictvím simultáních aktivací těchto elementů je vyvozena množina kompozitních řídicích členů. Obě množiny zákonů řízení jsou schopny operovat nejen na rovinném, ale i v členitém terénu. Díky vhodné diskretizaci spojitého stavového prostoru je sestaven model všechn možných chování robotu pod vlivem aktivací uvedených základních i složených řídicích členů. Tento model chování je využit pro nalezení optimálních strategií řízení robotu prostřednictvím schématu Q-učení. Schopnost řídicí jednotky je ukázána na řešení tří komplexních úloh: rotace robotu, chůze robotu v přímém směru a chůze po nakloněné rovině. Tyto úlohy jsou řešeny prostřednictvím prostorových dynamických simulací čtyřnohého kráčivého robotu se třemi stupni volnosti na každou z noh. Výsledné styly chůze jsou vyhodnoceny pomocí kvantitativních standardizovaných ukazatelů. Součástí práce jsou videozáznamy verifikačních experimentů ukazující činnost elementárních a kompozitních řídicích členů a výsledné naučené styly chůze robotu.
Plánování cesty robotu pomocí posilovaného učení
Veselovský, Michal ; Liška, Radovan (oponent) ; Dvořák, Jiří (vedoucí práce)
Tato práce se zabývá plánováním cesty pro autonomního robota v prostředí se statickými překážkami. Součástí práce je analýza různých přístupů k plánování cesty robota, a v implementační části popis metod využívajících posilovaného učení a experimenty s nimi. Hlavními výstupy práce jsou funkční algoritmy pro plánování cesty založené na Q-učení, ověření jejich funkčnosti a vzájemné srovnání.
Řízení nestacionárních soustav pomocí Q-učení
Věchet, S. ; Krejsa, Jiří
Článek je věnován použití metody Q-učení (speciální verze opakovaně posilovaného učení) pro řízení nestacionárních soustav.
Using modified Q-learning with LWR for inverted pendulum control
Věchet, S. ; Míček, P. ; Březina, Tomáš
Paper shows modified version of Q-learning together with locallz weighted learning method used for simple control task.
Walking gait of four-legged robot obtained throug Q learning
Březina, Tomáš ; Houška, P. ; Singule, V. ; Sedlák, P.
The possible method of walking policy obtaining of four-legged robot through Q-learning is discussed in the contribution. Q-learning is implemented using architecture represented by nondeterministic state machine that defines both possible discrete states and admissible transitions between them.
The control of active magnetic bearing using two-phase Q-learning
Březina, Tomáš ; Krejsa, Jiří
The paper compares controllers based on two phase Q-learning with PID controller on active magnetic bearing control task.
Active magnetic bearing control through Q-learing
Březina, Tomáš ; Krejsa, Jiří ; Kratochvíl, Ctirad
Paper is focused on the control of active magnetic bearing using improved version of Q-learning. The improvement subsists in separating Q-learning into two phases - efficient prelearning phase and tutorage phase working with real system.
Using Modified Q-learning with LWR for Inverted Pendulum Control
Věchet, S. ; Krejsa, Jiří ; Březina, Tomáš
Locally Weighted Regression together with Q-learning is demonstrated in control task of a simple model of inverted pendulum.
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
Řídící systém čtyřnohého robota založený na učení
Březina, Tomáš ; Houška, P. ; Singule, V.
V příspěvku je popsán možný diskretizační postup spojitého stavového prostoru čtyřnohého robota užitím simultánních kompozicí chování. Kompozice jsou generovány pomocí instancí dvou základních řídících členů. Cílem je automaticky vyvinout způsob chůze. Přípustné kompoziční strategie jsou implementovány prostřednictvím nedeterministického konečného automatu. Počet stavů a přechodů může být podstatně redukován již v etapě návrhu automatu.

Národní úložiště šedé literatury : Nalezeno 46 záznamů.   začátekpředchozí36 - 45další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.