Národní úložiště šedé literatury Nalezeno 33 záznamů.  začátekpředchozí24 - 33  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Využití XML databází pro zpřístupnění specifikací úloh dobývání znalostí z databází
Marek, Tomáš ; Kliegr, Tomáš (vedoucí práce) ; Kosek, Jiří (oponent)
Cílem této práce je vytvořit systém dotazování ve vytvořených analytických zprávách uložených jako PMML dokumenty. Tyto PMML dokumenty jsou uloženy v nativní XML databázi, protože se jedná o strukturované dokumenty, které využívají prostředky XML. Vybraná XML databáze je k dispozici zdarma a její prostředky a možnosti vyhovují navrženému řešení. Dále byl vytvořen algoritmus pro vyhledávání v těchto dokumentech pomocí prostředků jazyka XQuery. Vzhledem k tomu, že prohledávaná data mají charakter XML dat nabízí se právě využití jazyka pro dotazování v XML datech. V rámci využití XQuery jazyka bylo třeba prozkoumat strukturu PMML dokumentů a využít různá propojení dat v těchto dokumentech pro zajištění správných výsledků vyhledávání. Výsledkem vyhledávání jsou asociační pravidla z těchto analytických zpráv uložených v PMML dokumentech, požadavkem vyhledávání jsou atributy, které se mají v pravidlech objevovat, jejich hodnoty a další omezení vyhledávání. Aby celý systém byl kompletní a mohl být plně využíván, je třeba vytvořit komunikační prostředí, pomocí kterého práce s uloženými daty probíhá. Pro tento účel jsou využity prostředky jazyka Java a architektura REST(ful) pro tvorbu aplikací.
Indexování a vyhledávání XML dokumetů pomocí Lucene
Beránek, Lukáš ; Kliegr, Tomáš (vedoucí práce) ; Pinkas, Otakar (oponent)
Vytváření analytických zpráv je proces, kterým se snažíme získat a uchovat výsledky data minigových úloh pro další použití. Dalším krokem je jejich transformace a zobrazení v uživatelsky srozumitelné a dostupné podobě například jako online HTML dokument v projektu SEWEBAR. Rostoucí počet výsledných reportů je pak důvodem vzniku potřeby efektivně vyhledávat ve strukturovaných XML dokumentech odpovídajících standardu PMML, ve kterém jsou zprávy uloženy. Cílem této práce bude stanovení dostupných metod pro indexování a plnotextové vyhledávání XML dokumentů se zaměřením na hledání asociačních pravidel z výstupů programů LISp-Miner nebo Ferda. Po stanovení a zhodnocení dostupných metod a zhodnocení současného stavu bude ve formě rozšíření pro CMS Joomla! vytvořen systém pro vyhledávání a indexování těchto souborů. Zdrojem dat pro vzniklou aplikaci Jucene jsou analytické zprávy uložené v databázi redakčního systému Joomla! v podobě PMML dokumentů. Vstupní dokument bude zjednodušen, optimalizován a transformován pomocí XSL transformace za účelem lepšího indexování v požadované struktuře při zachování logické struktury obsahu a výsledků data miningové úlohy. Vzniklý dokument bude vložen do indexu využitím PHP knihovny DOMDocument, která díky práci se stromovou reprezentací obsahu dokumentu umožňuje jeho procházení, upravování a získávání potřebných částí obsahu při dodržení jejich obsahových návazností. Kooperaci jednotlivých částí bude zajišťovat právě komponenta Jucene!, která bude za tímto účelem vytvořena a umožní tak komunikaci mezi systémy Zend Lucene a Joomla!. Zároveň vzniklé rozšíření poskytne uživatelské rozhraní pro práci s indexovanými pravidly, které umožní uživatelům vyhledávat relevantní asociační pravidla na základě uživatelsky vykonstruovaného dotazu zpracovatelného frameworkem Zend Search Lucene. Následně dojde k vyhodnocení výsledků dotazu a zobrazení odpovídajících asociačních pravidel. Práce by také měla poskytnout nejen podklady pro obsluhování komponenty z hlediska administrátorského -- porozumění její architektuře a metodám zpracování dat či jejich využití v praxi, ale také uživatelského -- základy konstrukce dotazů pro maximální využití poskytnutého vyhledávacího indexu odbornou veřejností.
Integrace CMS Joomla! s Ontopia Knowledge Suite
Hazucha, Andrej ; Kliegr, Tomáš (vedoucí práce) ; Nekvasil, Marek (oponent)
Předmětem této práce je nastínit problematiku integrace Content Management Systémů (CMS) se znalostními bázemi realizovanými nad technologiemi sémantického webu. V první části jsou rozebrány technologie sémantického webu, jejich využití a existující návrhy pro jejich zahrnutí při tvorbě a správě obsahu jak v CMS systémech, tak v kolaborativních wiki systémech. Jelikož je v open-source oblasti převaha CMS systémů postavených na platformě PHP, je kladen důraz na existující nástroje na této platformě. V praktické části je ukázána realizace integrace CMS Joomla! a znalostní bází Ontopia s možností rozšíření o různé systémy, které umožňují komunikaci přes HTTP protokol. Komunikace mezi Joomlou a Ontopií je založena na RESTful protokolu TMRAP, který Ontopie nabízí. V případě Ontopie je dotazovacím jazykem tolog. Ukázané je i řešení komunikace se SPARQL endpointem a XML databází. Syrová data jsou před vygenerováním převedena pomocí XSL transformací do podoby vhodné pro webové rozhraní. Tyto transformace jsou uživatelsky definovatelné. Jako součást této práce vznikla demonstrační aplikace, která je součástí projektu SEWEBAR. Tato aplikace nabízí možnost začleňovat výsledky sémantických dotazů do analytických reportů z data-miningových úloh přímo v prostředí CMS Joomla!.
Užití sémantických technologií ve značkovacích jazycích
Štencek, Jiří ; Nekvasil, Marek (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato bakalářská práce analyzuje využití sémantických technologií na poli dnešních webových portálů. Cílem je zmapovat známé internetové servery a služby. Práce se naopak nesnaží obsáhnout všechny stránky (blogy, firemní weby, apod.), které sémantické technologie používají, protože by to nemělo skoro žádnou vypovídající hodnotu. Přínosem této práce je analýza implementace sémantických technologií na současném webu. Ta ukáže, jak moc se vize sémantického webu naplňují. Kolik internetových serverů tuto technologii používá. Serverů, které denně navštěvujeme a které nabízejí možnosti a funkce, o nichž možná ani nemáme tušení. Dalšími přínosy jsou např.: rozšíření využívání nástrojů sémantického webu (plugin Operator, Semantic Radar), informační osvěta mezi uživateli internetu, kteří se s tímto pojmem ještě nesetkali a stejně tak by tato práce mohla být odrazovým můstkem k dalšímu a podrobnějšímu mapování sémantických webů. Například statisticky zaměřená práce na poměr využití jednotlivých ontologických slovníků. Práce začíná úvodem do počátků webu jako takového až k jeho současnosti, kde nastíní původní ideologii WWW. V souvislosti s tím definuje úskalí současného webu a jeho další možné vývojové linie. Kapitola s názvem Principy sémantického webu popíše základní stavební kameny a architekturu této vize. Podrobněji zde popisuje framework RDF, ontologie a nezapomene ani na část o bezpečnosti sémantického webu. S těmito znalostmi už nás kapitola Integrace sémantiky na současném webu seznámí s možnostmi, kde sehnat potřebná metadata a s tím souvisejícími principy Linked Data. Hned poté nám představí jednotlivé formáty pro zápis metadat do (X)HTML. Konkrétněji nám popíše mikroformáty, RDFa a eRDF. Na závěr kapitoly dojde také k porovnání těchto technologií a praktickým ukázkám jejich implementace. Poslední 5. kapitola, která nese název Analýza využití znalostních technologií v současnosti, už přináší přehled jednotlivých serverů, které používají jednu z výše uvedených technologií. Přiblíží nám otevřené databáze, sémantické vyhledávače, ontologické slovníky a nakonec komunitní a informační portály. Vyústěním kapitoly je shrnutí současné implementace a zamyšlení nad reálnými přínosy a možnými incentivami sémantického webu.
Obsah a struktura webových dokumentů a možnosti jejich účinného indexování a vyhledávání
Vaněk, Vladimír ; Pinkas, Otakar (vedoucí práce) ; Kliegr, Tomáš (oponent)
Bakalářská práce se zaměřuje na aspekty ovlivňující výsledky vyhledávání ve fulltextových vyhledávačích. Jsou v ní popsány všechny důležité faktory, které ovlivňují úspěšnost webových stránek. Práce se zabývá důležitostí On Page a Off Page faktorů a je zdůrazněna nutnost používání správných tagů jazyka HTML. To vše je podloženo statistikami, odbornými studiemi, grafy a zkušenostmi z praxe.
Knowledge Processing within the GUHA Method
Šťastný, Daniel ; Rauch, Jan (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato práce podává základní přehled data-miningového přístupu CRISP-DM (CRoss-Industry Standard Process for Data Mining), asociačních pravidel a metody GUHA s reálnými příklady nalezených hypotéz pomocí 4ft-Miner, SD4ft-Miner a Action Rules s využitím programu Lisp-Miner. Následně je probrána role doménové znalosti v procesu dolování dat a souvisejícího projektu SEWEBAR (SEmantic WEb and Analytical Reports), jehož cílem je vytvoření rozhraní pro automatickou tvorbu analytických zpráv na základě uložené doménové znalosti. Praktickým výstupem této práce je definice schématu nově navrženého značkovacího jazyka BKEF (Background Knowledge Exchange Format) a XSL šablonu pro transformaci obsahu libovolného BKEF dokumentu do přehledné XHTML stránky.
Vývoj rozšíření pro CMS Joomla!
Vojíř, Stanislav ; Nemrava, Jan (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tvorba analytických zpráv v přirozeném jazyce je činnost potřebná, nicméně ne příliš jednoduchá. V současné době jsou analytické zprávy tvořené převážně ve wordu a ukládány do klasických souborů. Cílem této práce je zjednodušení tvorby analytických zpráv v online prostředí CMS Joomla! pomocí rozšíření funkčnosti tohoto systému. Na základě definovaných a zde též popsaných požadavků tedy práce popisuje tvorbu editor-xtd pluginu a componenty pro CMS Joomla! 1.5. Rozšíření vytvořená v rámci této práce umožňují uživatelům při tvorbě zpráv vybrat část výstupních dat z dataminingové aplikace a vložit je do právě upravovaného textu analytické zprávy. Jako zdroj dat pro vložení je brána prezentace výstupu příslušné dataminingové aplikace ve formátu xHTML. V této práci je řešen způsob rozdělení xHTML dokumentu na příslušné bloky, které jsou nabízeny ke vložení. Samotný výběr dat a jejich vložení jsou řešeny tak, aby byl celý proces pro uživatele dostatečně přehledný a zároveň disponoval dostatečnými možnostmi výběru. Rozšíření též umožňují aktualizaci již vytvořených zpráv pomocí náhrady vložených bloků aktualizovanými daty, což lze s výhodou využít např. pro úpravu již hotové zprávy po náhradě původních dat daty novějšími. V rámci výuky na VŠE se studenti informatiky seznamují se základy dolování informací v předmětu 4iz210 - Zpracování informací a znalostí. Rozšíření vytvořená touto prací budou využita při výuce a usnadní tvorbu reportu. Zapojení do výuky je plánováno již na konec letního semestru roku 2008/09. Tuto práci lze rovněž využít jako inspiraci a návod pro tvorbu rozšíření pro CMS Joomla!
Web Analytics: Identifikace nových trendů
Slavík, Michal ; Kliegr, Tomáš (vedoucí práce) ; Nekvasil, Marek (oponent)
Tématem práce jsou nástroje pro analýzu návštěvnosti webových stránek a cílem je identifikace trendů v tomto tržním odvětví i předmětu vědeckého zájmu. V oblasti teorie je cíle dosaženo analýzou dostupné literatury, znalosti z praxe jsou zjišťovány terénním výzkumem, jehož účastníky jsou zástupci tří firem působících v oblasti SEO. Identifikovány jsou tyto trendy: nárůst poptávky po aplikacích Web Analytics, zvyšování zájmu o vzdělávací kurzy, rozšiřování záběru aplikací na měření sociálních sítí a Webu 2.0 a ve sféře výzkumu využití sémantických informací. Práce také nastiňuje principy technik zkoumaných v oblasti Web Usage Miningu: asociačních pravidel, shlukování, sekvenčních vzorů a zobecňování dotazů. Dle výsledků terénního výzkumu projevila praxe největší zájem o techniku shlukování. První dvě kapitoly seznamují čtenáře s oblastí Web Analytics a současnými aplikacemi. Třetí kapitola rozebírá oblasti teoretického zkoumání, pátá kapitola podává výsledky terénního výzkumu. Čtvrtá kapitola upozorňuje na terminologickou nejednotnost v oblasti.
Obsah a struktura webových dokumentů a jejich přístupnost
Kalous, Martin ; Pinkas, Otakar (vedoucí práce) ; Kliegr, Tomáš (oponent)
Bakalářská práce se zabývá otázkou optimalizace internetových stránek pro vyhledávače a analýzou návštěvnosti. Optimalizací internetových stránek pro vyhledávače (dále jen SEO) rozumíme správné naprogramování, nastavení a situování webových stránek takovým způsobem, aby nejen neporušovaly pravidla vyhledávačů, ale zároveň, aby měly větší šanci při samotném vyhledávání. V první části práce jsou popsány základní pravidla SEO, faktory ovlivňující hodnocení stránek (on-page faktory a off-page faktory). On-page faktory jsou veškeré objekty na webové stránce, off-page faktory jsou taktiky, jak na své stránky upoutat co největší pozornost, jak je zviditelnit bez zásahu do zdrojového kódu. Kromě etických taktik existují i taktiky neetické nebo spíše zakázané. Představené metody či taktiky jsou demonstrovány na kratičkých příkladech a na ukázkovém SEO auditu vybrané firmy, který je v příloze bakalářské práce. Druhá kapitola se zabývá dalšími způsoby zvyšování návštěvnosti. Jsou zmíněny hlavně reklamní systémy, které jsou na hlavních internetových portálech k dispozici. Třetí kapitola je v podstatě teoretické představení případové studie ? analýzy návštěvnosti. Návštěvnost signalizuje úroveň úspěšnosti online reklamy. Zde jsou uvedeny některé metody měření návštěvnosti a různé statistické nástroje, kterými se dá měřit. Ve čtvrté kapitole je konkrétně provedena ? analýza návštěvnosti vybrané firmy. Pomocí různých statistických nástrojů jsou zhodnoceny konkrétní stránky z hlediska návštěvnosti.
Clickstream Analysis
Kliegr, Tomáš ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent)
Thesis introduces current research trends in clickstream analysis and proposes a new heuristic that could be used for dimensionality reduction of semantically enriched data in Web Usage Mining (WUM). Click-fraud and conversion fraud are identified as key prospective application areas for WUM. Thesis documents a conversion fraud vulnerability of Google Analytics and proposes defense - a new clickstream acquisition software, which collects data in sufficient granularity and structure to allow for data mining approaches to fraud detection. Three variants of K-means clustering algorithms and three association rule data mining systems are evaluated and compared on real-world web usage data.

Národní úložiště šedé literatury : Nalezeno 33 záznamů.   začátekpředchozí24 - 33  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.