Národní úložiště šedé literatury Nalezeno 10 záznamů.  Hledání trvalo 0.01 vteřin. 
Analýza indexů akciových trhů a režimů na komoditních trzích
Kuchina, Elena ; Cahlík, Tomáš (vedoucí práce) ; Máša, Petr (oponent) ; Lukáčik, Martin (oponent)
Disertační práce se zaměřuje na identifikaci typických scénářů vzájemných vztahů mezi akciovými trhy s přihlednutím k různým režimům na komoditních trzích. Pro nalezené scénáře byly navrženy investiční doporučení. S ohledem na různé režimy, kterými komoditní trhy procházejí, a na vzájemnou provázanost mezi akciovými trhy během různých situací na komoditních trzích, bylo analyzováno šest scénářů vzájemných vztahů mezi akciovými trhy. Bylo ukázano, že v době nejvíce nestabilního období, kdy vysoce volatilní stav převládá současně na energetickém trhu, na trhu drahých kovů a na neenergetickém komoditním trhu, se celá ekonomika stává více svázaná se silnějšími vzájemnými závislostmi mezi indexy akciových trhů, a jako důsledek začínají selhávat přínosy diverzifikace. Při současné přítomnosti nízké volatility na všech třech sledovaných komoditních trzích je shoda mezi výskyty vysoce volatilních stavů většiny indexů, kromě indexů v rámci evropského trhu (DAX, CAC 40, IBEX 35), poměrně slabá. Podobně i korelace v rámci regionů a s ostatními regiony je slabší ve srovnání s jinými situacemi na komoditních trzích, takže standardní investiční strategie může být zachovována. Rovněž bylo ukázano, že provázanost mezi akciovými trhy během období vysoké volatility na energetickém trhu se liší v závislosti na zdroji ropného šoku, způsobujícím vyšší volatilitu. Skrytý Markovův model je použit k určení režimů, převládajících na různých komoditních a akciových trzích během různých časových období. K měření podobnosti akciových trhů z hlediska výskytu stavu s vysokou volatilitou na daném trhu je použit Jaccardův koeficient podobnosti. Korelace mezi akciovými trhy byla vypočtena pomocí Spearmanova korelačního koeficientu. Závěrečná část výzkumu je věnována modelovému přístupu použivanému k analýze závislosti směru pohybu hodnoty SSEC indexu na ostatních analyzovaných akciových indexech mezi dvěma obchodními dny během různých situací na komoditních trzích. Analýza závislosti byla provedena pomocí Stochastického Gradientního Boostingu.
Dolování asociačních pravidel jako podpora pro OLAP
Chudán, David ; Svátek, Vojtěch (vedoucí práce) ; Máša, Petr (oponent) ; Novotný, Ota (oponent) ; Kléma, Jiří (oponent)
Cílem této práce je identifikovat možnosti komplementárního využití dvou metod datové analýzy, OLAP analýzy a dobývání znalostí z databází reprezentovaného GUHA asociačními pravidly. Použití těchto dvou metod v rámci navrhovaných scénářů na jednom datasetu se prokazuje synergický efekt, kdy výsledné znalosti získané z dat předčí výsledky použití obou těchto analytických metod nezávisle na sobě. To je hlavní přínos této práce. Dalším přínosem je originální využití GUHA asociačních pravidel jakožto techniky dobývání znalostí z databází, kdy dolování probíhá na agregovaných datech. GUHA asociační pravidla ve svých možnostech předčí klasická asociační pravidla uváděná v literatuře. Výsledky experimentů na reálných datech prokazují nalezení nestandardních trendů v datech, jejichž identifikace standardními metodami OLAP analýzy by vyžadovala ruční procházení dané OLAP kostky, což je časově velice náročné. Naopak při samotném použití asociačních pravidel se ztrácí celkový pohled na data, který je velmi dobře prezentován OLAP kostkou. Je možné prohlásit, že se tyto dvě metody velmi dobře doplňují. Součástí řešení je rovněž využití skriptovacího jazyka LMCL, který automatizuje vybrané části procesu dobývání znalostí z databází. Navrhovaný doporučovací nástroj by následně odstínil uživatele od asociačních pravidel a umožnil tak i běžným analytikům neznalým teorie využít jejich možnosti. Práce kombinuje kvantitativní a kvalitativní výzkum. Kvantitativní výzkum je reprezentován experimenty s reálnými daty, návrhem doporučovacího systému a implementací vybraných částí procesu dobývání znalostí z databází s využitím skriptovacího jazyka LMCL. Kvalitativní výzkum je reprezentován strukturovaným rozhovorem s vybranými experty z dané oblast, kteří potvrzují smysluplnost navrhovaných metod v této práci.
Komplexní řízení kvality dat a informací
Pejčoch, David ; Rauch, Jan (vedoucí práce) ; Máša, Petr (oponent) ; Novotný, Ota (oponent) ; Kordík, Pavel (oponent)
Tato práce pojednává o problematice kvality dat a informací. Kriticky hodnotí současný stav poznání v oblasti jednotlivých metod používaných pro audit a zvyšování kvality dat (resp. informací) a navrhuje nové principy tam, kde toto zhodnocení odhalilo mezery. Hlavní myšlenkou této práce je koncept řízení kvality dat a informací napříč celým univerzem dat. Toto univerzum představují všechny datové zdroje, se kterými přichází dany subjekt do styku, a které jsou používány v rámci jeho stávajících nebo zamýšlených procesů. Pro všechny tyto zdroje uvažuji nastavení shodné sady pravidel, politik a principů vycházejících ze současných a potenciálních přínosů těchto zdrojů při současném zohlednění případných rizik jejich užití. Jakousi pomyslnou červenou nití, která se táhne celým textem, je důležitost dodatečných znalostí pro proces řízení kvality dat / informací. Zavedení znalostní báze orientované na podporu řízení kvality dat a informací (QKB) je proto jedním ze základních principů autorem navržené sady doporučených postupů CADAQUES, které představují sumarizaci dílčích závěrů jednotlivých kapitol této práce.
Benchmark nástrojů pro řízení datové kvality
Černý, Jan ; Pejčoch, David (vedoucí práce) ; Máša, Petr (oponent)
Společnosti po celém světě stále více a více promrhávají své rozpočty v důsledku nekvalitních dat. Logicky, se zvyšujících se množstvím zpracovávaných informací roste i množství chyb v nich. Tato práce vysvětluje co je datová kvalita, příčiny vzniku chyb v datech, jejich důsledky i to jakým způsobem lze datovou kvalitu měřit. A pokud něco lze měřit, lze to i zlepšit. K tomu slouží nástroje pro řízení datové kvality. Trh s nástroji pro řízení datové kvality nabízí jak komerční, tak open-source řešení. Porovnáním nástroje DataCleaner (open-source) a DataFlux (komerční) na modelovém příkladu dle definovaných kritérií bylo v této práci dokázáno, že nástroje si mohou být rovné v oblasti profilace dat, obohacování a monitorování. Standardizaci a validaci zvládá lépe DataFlux. Deduplikace v DataCleaneru chybí, přestože byla výrobcem uváděna. Jednou z velkých překážek bránících firmám nákupu nástroje pro řízení datové kvality může být právě jeho vysoká cena. V tuto chvíli je již možné považovat DataCleaner za plnohodnotné levné řešení v oblasti profilace dat. Za podmínky, že společnost Human Inference doplní do DataCleaneru i deduplikaci dat, bude ho možné považovat za konkurenci v oblasti celého procesu řízení dat.
Reálná aplikace metod dobývání znalostí z databází na praktická data
Mansfeldová, Kateřina ; Máša, Petr (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato práce se zabývá kompletní analýzou reálných dat v oblasti her pro více hráčů dostupných zdarma. Analýza je postavena na metodice CRISP-DM s použitím metody GUHA a systému LISp-Miner. Cílem práce je analýza odchodu hráče ve hře kulečník od společnosti Geewa a.s.. Praktická část se zabývá celým procesem dobývání znalostí z databází od teoretických znalosti týkajících se odchodu hráče, stanovení definice odchodu, přes porozumění dat, jejich extrakci, modelování až po získané výsledky. V rámci práce jsou nalezeny hypotézy závislé na různých faktorech hry.
Reálná úloha dobývání znalostí
Pešek, Jiří ; Berka, Petr (vedoucí práce) ; Máša, Petr (oponent)
Diplomová práce "Reálná úloha dobývání znalostí" se ve své praktické části zabývá predikcí odchodu zákazníků mobilního operátora. Úloha je řešena nad reálnými daty telekomunikační společnosti a pokrývá všechny kroky procesu dobývání znalostí. V souladu s metodikou CRISP-DM práce detailně rozebírá tyto fáze: porozumění problematice, porozumění datům, příprava dat, modelování, vyhodnocení výsledků a využití výsledků. Coby systém pro dobývání znalostí byl zvolen nástroj IBM SPSS Modeler. V úvodní kapitole teoretické části se čtenář seznámí s problematikou tzv. churn managementu, do níž spadá řešená úloha, nechybí zde vymezení základních pojmů v rámci data miningu. Pozornost je věnována rovněž základním typům úloh dobývání znalostí a algoritmům, které jsou relevantní ke zvolené úloze (rozhodovací stromy, regrese, neuronové sítě, bayesovské sítě a SVM). Samostatnou kapitolu tvoří metodiky popisující jednotlivé fáze procesu dobývání znalostí, přičemž větší prostor je věnován metodice CRISP-DM, z níž se vycházelo při řešení praktické úlohy. V závěru teoretické části jsou zmíněny komerční i volně dostupné systémy pro dobývání znalostí.
Zpracování asociačních pravidel metodou vícekriteriálního shlukování
Kejkula, Martin ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Máša, Petr (oponent)
Cílem této práce je navrhnout metodu, která by umožňovala zpracovat množinu asociačních pravidel: měla by poskytovat strukturovaný, přehledný popis celé množiny asociačních pravidel, získané libovolnou implementací nějakého algoritmu pro hledání asociačních pravidel v analyzovaných datech. Měla by uživateli poskytnout přehled o množině vygenerovaných asociačních pravidel a usnadnit její zpracování. Způsob dosažení cíle, zvolený v této práci je: rozdělit množinu asociačních pravidel do podmnožin. Asociační pravidla v jedné podmnožině by si měla být vzájemně více podobná než pravidla ze dvou různých podmnožin. Hlavním přínosem této práce je nová originální metoda zpracování asociačních pravidel. Vedlejším přínosem práce je rozsáhlá rešerše publikovaných metod zpracování asociačních pravidel. Metoda vícekriteriálního shlukování poskytuje rozdělení asociačních pravidel do skupin vzájemně si podobných pravidel (tzv. "přirozených shluků"), kterého není možné dosáhnout žádnou z doposud známých metod. Metoda používá nový způsob reprezentace asociačních pravidel, inspirovaný vektorovým modelem, používaným v oblasti zpracování informačních fondů (information retrieval). V práci je popsán převod asociačních pravidel do vektorového modelu, analogickému k vektorové reprezentaci dokumentů. Jádrem metody je dvojí, na sobě nezávislé shlukování asociačních pravidel: shlukování kvantitativních charakteristik (jako jsou např. spolehlivost, podpora, faktor zajímavosti) a cedentální shlukování asociačních pravidel (inspirované shlukováním dokumentů). Struktura práce: na úvodní kapitolu navazuje kapitola, popisující proces dobývání znalostí z databází. Proces je popsán na základě vybraných metodik (CRISP-DM, SEMMA, GUHA, RAMSYS).Třetí kapitola je věnována pojmu asociační pravidlo a charakteristikám asociačních pravidel. Další kapitola obsahuje rešerši současných metod post-processingu asociačních pravidel. Pátá kapitola seznamuje s problematikou shlukování. Šestá kapitola obsahuje popis metody vícekriteriálního shlukování asociačních pravidel. Další kapitola se věnuje experimentům. Osmá kapitola se zabývá možnostmi využití metody.
Empirické porovnání komerčních systémů dobývání znalostí z databází
Faruzel, Petr ; Berka, Petr (vedoucí práce) ; Máša, Petr (oponent)
Předkládaná práce "Empirické porovnání komerčních systémů dobývání znalostí z databází" se zabývá systémy dobývání znalostí z databází od předních světových dodavatelů statistického softwaru. Cílem této práce je porovnat komerční systémy IBM SPSS Modeler a SAS Enterprise Miner na základě jejich specifikace a funkčnosti vzhledem k vybrané množině srovnávacích kritérií. Zvoleného cíle chci dosáhnout jednak rozborem vybraných vlastností analyzovaných systémů, jednak jejich aplikací na reálných datech. Základem srovnání je 29 dílčích kritérií odrážejících základní požadavky uživatele na funkcionalitu, použitelnost a otevřenost systému. Stěžejní částí celého srovnávacího procesu je praktické nasazení těchto systémů na datech o meningoencefalitidě. Jeho výsledkem je zhodnocení výkonnosti zkoumaných systémů při analýze malého a velkého objemu dat. Kvalita generovaných výstupů a doba jejich odvození jsou stanoveny na základě aplikace šesti srovnatelných klasifikačních metod dobývání znalostí z databází. Ukázalo se, že systému IBM SPSS Modeler vyhovuje spíše menší objem dat. Nepatrně nižší přesnost klasifikace nalezených datových modelů je zastíněna podstatně vyšší rychlostí jejich odvození. S růstem objemu analyzovaných dat se však situace mění ve prospěch konkurenčního systému. Při analýze velkých dat dosahuje výrazně lepších výsledků systém SAS Enterprise Miner. Podstatně vyšší přesnost klasifikace nalezených modelů je umocněna mírně kratší dobou jejich odvození. Zatímco funkcionalitu analyzovaných systémů lze označit za srovnatelnou, ze srovnání jejich použitelnosti vyšel jako jasný vítěz systém IBM SPSS Modeler. Zhodnocení otevřenosti těchto systémů staví do role mírného favorita systém SAS Enterprise Miner.
Finding Optimal Decision Trees
Máša, Petr ; Ivánek, Jiří (vedoucí práce) ; Berka, Petr (oponent) ; Jiroušek, Radim (oponent)
Rozhodovácí stromy jsou rozšířenou technikou pro popis dat. Používají se často teké pro predikace. Zajímavým problémemje, že konkrétní distribuce může být popsána jedním či více rozhodovacími stromy.Obvykle nás zajímá co nejjednodušší rozhodovací strom(který budeme nazývat též optimální rozhodovací strom).Tato práce navrhuje rozšíření prořezávácí fáze algoritmů pro rozhodovací stromytak, aby umožňovala více prořezávání. V práci byly zkoumány teoretické i praktické vlastnosti tohoto rozšířeného algoritmu. Jako hlavní teoretický výsledek bylo dokázano, že pro jistou třídu distribucí nalezne algoritmus optimální rozhodovací strom(tj.nejmenší rozhodovací strom, který reprezentuje danou distribuci). V praktických testech bylo zkoumáno, jak je schopen algoritmus rekonstruovat známý strom z dat. Zajímalo nás, zdali dosáhne naše rozšíření zlepšení v počtu správně rekonstruovaných stromů zejména v případě, že data jsou dodatečně velká ( z hlediska počtu záznamů). Tato doměnka byla potvrzena praktickými testy. Obdobný výsledek byl před několika lety prokázán pro Bayesovské sítě. Algoritmus navržený v této disertační práci je polynomiální v počtu listů stromu, který je výstupem hladového algoritmu pro růst stromů, což je vylepšení oproti jednoduchému algoritmu prohledávání všech možných stromů, který je exponenciální.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.