|
Využití opakovaně posilovaného učení pro řízení čtyřnohého robotu
Ondroušek, Vít ; Březina, Tomáš (vedoucí práce)
Disertační práce je zaměřena na využití opakovaně posilovaného učení pro řízení chůze čtyřnohého robotu. Hlavním cílem je předložení adaptivního řídicího systému kráčivého robotu, který budem schopen plánovat jeho chůzi pomocí algoritmu Q-učení. Tohoto cíle je dosaženo komplexním návrhem třívrstvé architektury založené na paradigmatu DEDS. Předkládané řešení je vystavěno na návrhu množiny elementárních reaktivních chování. Prostřednictvím simultáních aktivací těchto elementů je vyvozena množina kompozitních řídicích členů. Obě množiny zákonů řízení jsou schopny operovat nejen na rovinném, ale i v členitém terénu. Díky vhodné diskretizaci spojitého stavového prostoru je sestaven model všechn možných chování robotu pod vlivem aktivací uvedených základních i složených řídicích členů. Tento model chování je využit pro nalezení optimálních strategií řízení robotu prostřednictvím schématu Q-učení. Schopnost řídicí jednotky je ukázána na řešení tří komplexních úloh: rotace robotu, chůze robotu v přímém směru a chůze po nakloněné rovině. Tyto úlohy jsou řešeny prostřednictvím prostorových dynamických simulací čtyřnohého kráčivého robotu se třemi stupni volnosti na každou z noh. Výsledné styly chůze jsou vyhodnoceny pomocí kvantitativních standardizovaných ukazatelů. Součástí práce jsou videozáznamy verifikačních experimentů ukazující činnost elementárních a kompozitních řídicích členů a výsledné naučené styly chůze robotu.
|
|
Plánování cesty robotu pomocí posilovaného učení
Veselovský, Michal ; Liška, Radovan (oponent) ; Dvořák, Jiří (vedoucí práce)
Tato práce se zabývá plánováním cesty pro autonomního robota v prostředí se statickými překážkami. Součástí práce je analýza různých přístupů k plánování cesty robota, a v implementační části popis metod využívajících posilovaného učení a experimenty s nimi. Hlavními výstupy práce jsou funkční algoritmy pro plánování cesty založené na Q-učení, ověření jejich funkčnosti a vzájemné srovnání.
|
| |
| |
| |
| |
| |
| |
|
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
|
|
Řídící systém čtyřnohého robota založený na učení
Březina, Tomáš ; Houška, P. ; Singule, V.
V příspěvku je popsán možný diskretizační postup spojitého stavového prostoru čtyřnohého robota užitím simultánních kompozicí chování. Kompozice jsou generovány pomocí instancí dvou základních řídících členů. Cílem je automaticky vyvinout způsob chůze. Přípustné kompoziční strategie jsou implementovány prostřednictvím nedeterministického konečného automatu. Počet stavů a přechodů může být podstatně redukován již v etapě návrhu automatu.
|