Národní úložiště šedé literatury Nalezeno 359 záznamů.  začátekpředchozí349 - 358další  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Markovská lokalizace pro mobilní roboty: simulace a experiment
Krejsa, Jiří ; Věchet, S.
Lokalizací robotu se míní odhad jeho polohy na základě senzorických údajů. Článek popisuje základní principy metody Markovské lokalizace, úspěšně použité pro danou úlohu. Metoda je robustní vůči chybám sensorů a je schopná určit polohu robota i v případě že je tato zcela neznámá. Článek obsahuje jak simulační tak experimentální verifikaci použitelnosti metody.
Plánování cesty pro čtyřnohého kráčejícího robota použitím rychlých náhodných stromů
Krejsa, Jiří ; Věchet, S.
Problém plánování cesty lze řešit řadou metod. Metoda rychlých náhodných stromů je schopná pracovat s omezeními typickými pro kráčející roboty, např. omezené rozlišení rotačního pohybu. Článek popisuje vlastní metodu a její použití na plánování cesty čtyřnohého kráčivého robotu, včetně poruchových stavů kdy je robot schopen rotace jen v jednom směru. Metoda je rychlá a robustní.
Using modified Q-learning with LWR for inverted pendulum control
Věchet, S. ; Míček, P. ; Březina, Tomáš
Paper shows modified version of Q-learning together with locallz weighted learning method used for simple control task.
The using some approximating methods by inverse modelling
Míček, P. ; Věchet, S. ; Březina, Tomáš
Paper compares making of inverse kinematic models using different approximation methods.
Using Modified Q-learning with LWR for Inverted Pendulum Control
Věchet, S. ; Krejsa, Jiří ; Březina, Tomáš
Locally Weighted Regression together with Q-learning is demonstrated in control task of a simple model of inverted pendulum.
Stochastická strategie při Q-učení užitá pro řízení AML
Březina, Tomáš ; Krejsa, Jiří ; Věchet, S.
V poslední době je značná pozornost věnována metodám opakovaně posilovaného učení (RL). Článek se zabývá zlepšením RL metody bez modelu známé jako Q-učení, použité na modelu aktivního magnetického ložiska. Stochastická strategie a adaptivní integrační krok zvýšily rychlost učení přibližně stokrát. Nemožnost spřaženého použití navrženého zlepšení je nevýhodou, i když jej může být použito při předučení s následným provedením spřaženého doučování.
Aplikace metody spojitého Q-učení
Věchet, S. ; Krejsa, Jiří ; Míček, P.
Standardní algoritmus Q-učení je omezen na použití diskrétních stavů a akcí a Q-funkce je obvykle reprezentována diskrétní tabulkou. Aby bylo možno se tomuto omezení vyhnout a rozšířit použití Q-učení na spojité stavy a akce, bylo nutné algoritmus modifikovat. Tato modifikace je předmětem článku. Diskrétní tabulka je zde nahrazena vhodným aproximátorem.
Aproximace modelu stability kráčivého robotu
Krejsa, Jiří ; Grepl, Robert ; Věchet, S.
Příspěvek srovnává globální a lokální aproximační metody použité pro model stability kráčivého robotu. Globální aproximátory zastupuje dopředná vícervrstvá neuronová síť trénovaná pomocí gradientní metody; lokální aproximátory zastupují lokálně vážená regrese a vážená regrese recepčních polí.

Národní úložiště šedé literatury : Nalezeno 359 záznamů.   začátekpředchozí349 - 358další  přejít na záznam:
Viz též: podobná jména autorů
7 Věchet, Stanislav
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.