Národní úložiště šedé literatury Nalezeno 62 záznamů.  začátekpředchozí53 - 62  přejít na záznam: Hledání trvalo 0.01 vteřin. 
On the Information Capacity of Hopfield Network
Frolov, A. A. ; Húsek, Dušan
Plný tet: v607-94 - Stáhnout plný textPDF
Plný text: content.csg - Stáhnout plný textPDF
Shlukování jako nástroj pro data mining
Řezanková, H. ; Húsek, Dušan ; Snášel, Václav
V práci jsou studovány moderní algoritmy pro shlukovou analýzu včetně algoritmů založených na neuronových sítích. Speciální pozornost je věnována algoritmům vhodným pro analýzu rozsáhlých datových souborů a algoritmům inkrementálním.
Vyhledávání a grafová struktura webu
Húsek, Dušan ; Řezanková, H. ; Snášel, Václav
Příspěvek je věnován možnostem využití grafové struktury webu při vyhledávání a prezentování výsledků vyhledávání. Využití strukturních vlastností webu umožňuje obohacení existujících přístupů k vyhledávání o nové principy. Vzhledem k rozsáhlosti dané problematiky je v příspěvku uveden stručný přehled známých výsledků a řešení.
Zjišťování skupin podobných proměnných v systémech SAS a SPSS
Marková, Monika ; Řezanková, Hana (vedoucí práce) ; Húsek, Dušan (oponent)
Diplomová práce se zaměřuje na porovnání možností statistických programových systémů SAS a SPSS v oblasti faktorové a shlukové analýzy a vícerozměrného škálování. Jde o metody, pomocí nichž lze identifikovat skupiny podobných statistických znaků (proměnných). Zjištěné vazby mezi proměnnými mohou sloužit ke snížení rozměru vektorů hodnot, které charakterizují jednotlivé sledované objekty (statistické jednotky), což usnadňuje aplikaci dalších vícerozměrných metod, například regresní či diskriminační analýzy. Při shlukové analýze a vícerozměrném škálování je jedním ze způsobů zjišťování podobnosti proměnných zkoumání jejich závislosti. Zatímco základem pro faktorovou analýzu je vyjádření vztahu mezi dvěma proměnnými pomocí kovariance, případně Pearsonova korelačního koeficientu, pro shlukovou analýzu a vícerozměrné škálování lze použít i koeficienty pořadové korelace, případně jiné míry. Práce vychází především ze syntaxe příkazů vybraných procedur implementovaných v systémech SAS a SPSS. Je vysvětlován význam jednotlivých parametrů každého příkazu a jejich dílčích specifikací. Na základě analýzy reálných dat jsou pak porovnávány výsledky získané pomocí různých typů analýz. V závěru jsou zhodnoceny možnosti systémů SAS a SPSS při aplikaci sledovaných typů analýz, je poukázáno na jejich výhody i nevýhody. Pozornost je věnována například způsobům zadávání analýz, kvalitě výstupů a množství dílčích metod nabízených při daném typu analýzy.
Aplikace shlukové analýzy v modelech životního pojištení
Peřina, Milan ; Řezanková, Hana (vedoucí práce) ; Húsek, Dušan (oponent)
Vzhledem ke vzrůstajícím požadavkům na přesnost vyhodnocování fair value v oblasti životního pojištění je v současné době potřebné nalézt vhodnou metodu, která umožňuje rozdělit smlouvy do shluků. Shluky definované pro tento účel nemají rozumnou interpretaci a i v jiných ohledech se liší od ?klasických? shluků, nicméně některé závěry zde publikované lze jistě zobecnit. V této práci jsou po teoretické stránce popsány metody k-průměrů a metoda SOM, založená na umělých neuronových sítích. V rámci diplomové práce byly navrženy vlastní modifikace těchto postupů. V další části jsou tyto metody kvantitativně zhodnoceny podle klasického hlediska shlukové analýzy a rovněž podle vhodnosti k modelování fair value. Bude ukázáno, že lze celkem úspěšně pomocí vlastních modifikací získat shluky, jejichž vnitroskupinová variabilita je menší, než je tomu u ostatních uvažovaných metod, a jejich fair value se neliší příliš od fair value původních smluv. Na přiloženém CD je uloženo několik zdrojových kódů v Matlabu/Scilabu, které byly vyvinuty speciálně pro účely této práce, a rovněž několik souborů s výstupy z těchto metod.
Shlukovací metody pro velké soubory dat
Vilikus, Ondřej ; Fialová, Hana (vedoucí práce) ; Húsek, Dušan (oponent)
S rostoucím množstvím shromažďovaných a ukládaných dat vzniká potřeba shlukovacích metod, které by se dokázaly vypořádat i s rozsáhlými datovými soubory. Proto se objevuje množství nových algoritmů, vycházejících jak ze statistických přístupů, tak i z oblasti strojového učení. Cílem této diplomové práce je stručně představit dostupné metody shlukové analýzy a zhodnotit jejich silné a slabé stránky při analýze velkých souborů. Obsahem teoretické části je shrnutí základních pojmů a principů, které jsou všem metodám společné, a popisu nejznámějších metod shlukové analýzy. Ten obsahuje stručné vysvětlení, na jakém principu fungují a jaké výhody nebo případné nedostatky můžeme při jejich použití očekávat. Praktická část práce je věnována vlastnímu testování osmi metod dostupných v komerčním (SPSS, S-PLUS, STATISTICA) nebo akademickém (Weka) softwaru. Pro testování jsou použity umělé soubory se specifickými charakteristikami, které jsem vygeneroval pomocí vlastního algoritmu. Ten je rozšířením Neyman-Scottova procesu a kromě sférických shluků generuje i shluky nepravidelných tvarů. Výsledky potvrzují očekávání vycházející z teoretických předpokladů. Přinášejí však možnost kvantifikace vlivu charakteru dat na vhodnost jednotlivých metod.

Národní úložiště šedé literatury : Nalezeno 62 záznamů.   začátekpředchozí53 - 62  přejít na záznam:
Viz též: podobná jména autorů
1 HUŠEK, David
3 Husek, Daniel
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.