Národní úložiště šedé literatury Nalezeno 316 záznamů.  začátekpředchozí292 - 301dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Markovská lokalizace pro mobilní roboty: simulace a experiment
Krejsa, Jiří ; Věchet, S.
Lokalizací robotu se míní odhad jeho polohy na základě senzorických údajů. Článek popisuje základní principy metody Markovské lokalizace, úspěšně použité pro danou úlohu. Metoda je robustní vůči chybám sensorů a je schopná určit polohu robota i v případě že je tato zcela neznámá. Článek obsahuje jak simulační tak experimentální verifikaci použitelnosti metody.
Plánování cesty pro čtyřnohého kráčejícího robota použitím rychlých náhodných stromů
Krejsa, Jiří ; Věchet, S.
Problém plánování cesty lze řešit řadou metod. Metoda rychlých náhodných stromů je schopná pracovat s omezeními typickými pro kráčející roboty, např. omezené rozlišení rotačního pohybu. Článek popisuje vlastní metodu a její použití na plánování cesty čtyřnohého kráčivého robotu, včetně poruchových stavů kdy je robot schopen rotace jen v jednom směru. Metoda je rychlá a robustní.
The control of active magnetic bearing using two-phase Q-learning
Březina, Tomáš ; Krejsa, Jiří
The paper compares controllers based on two phase Q-learning with PID controller on active magnetic bearing control task.
Active magnetic bearing control through Q-learing
Březina, Tomáš ; Krejsa, Jiří ; Kratochvíl, Ctirad
Paper is focused on the control of active magnetic bearing using improved version of Q-learning. The improvement subsists in separating Q-learning into two phases - efficient prelearning phase and tutorage phase working with real system.
Using Modified Q-learning with LWR for Inverted Pendulum Control
Věchet, S. ; Krejsa, Jiří ; Březina, Tomáš
Locally Weighted Regression together with Q-learning is demonstrated in control task of a simple model of inverted pendulum.
Determination of Q-function optimum grid applied on active magnetic bearing control task
Březina, Tomáš ; Krejsa, Jiří
AMB control task can be solved using reinforcement learning based method called Q learning. However there are certain issues remaining to solve, mainly the convergence speed. Two-phase Q learning can be used to speed up the learning process. When table is used as Q function approximation the learning speed and precision of found controllers depend highly on the Q function table grid. The paper is denoted to determination of optimum grid with respect to the properties of controllers found by given method.
Contribution to solution of drive sytem with tooth wheels
Kratochvíl, Ctirad ; Krejsa, Jiří ; Grepl, Robert
Present contribution deals with optimalization of magnetic drives with permanent magnets.
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
Q-learning used for control of AMB: reduced state definition
Březina, Tomáš ; Krejsa, Jiří
Previous work showed that stochastic strategy improved model free RL method known as Q-learning used on active magnetic bearing (AMB) model. So far the position, velocity and acceleration were used to describe the state of the system. This paper shows simplified version of controller which uses reduced state definition - position and velocity only. Furthermore the controlled initial conditions domain and its development during learning are shown.

Národní úložiště šedé literatury : Nalezeno 316 záznamů.   začátekpředchozí292 - 301dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.