| |
| |
| |
| |
| |
|
Determination of Q-function optimum grid applied on active magnetic bearing control task
Březina, Tomáš ; Krejsa, Jiří
AMB control task can be solved using reinforcement learning based method called Q learning. However there are certain issues remaining to solve, mainly the convergence speed. Two-phase Q learning can be used to speed up the learning process. When table is used as Q function approximation the learning speed and precision of found controllers depend highly on the Q function table grid. The paper is denoted to determination of optimum grid with respect to the properties of controllers found by given method.
|
| |
|
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
|
|
Řídící systém čtyřnohého robota založený na učení
Březina, Tomáš ; Houška, P. ; Singule, V.
V příspěvku je popsán možný diskretizační postup spojitého stavového prostoru čtyřnohého robota užitím simultánních kompozicí chování. Kompozice jsou generovány pomocí instancí dvou základních řídících členů. Cílem je automaticky vyvinout způsob chůze. Přípustné kompoziční strategie jsou implementovány prostřednictvím nedeterministického konečného automatu. Počet stavů a přechodů může být podstatně redukován již v etapě návrhu automatu.
|
| |