Národní úložiště šedé literatury Nalezeno 33 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Reálná aplikace metod dobývání znalostí z databází na praktická data
Mansfeldová, Kateřina ; Máša, Petr (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato práce se zabývá kompletní analýzou reálných dat v oblasti her pro více hráčů dostupných zdarma. Analýza je postavena na metodice CRISP-DM s použitím metody GUHA a systému LISp-Miner. Cílem práce je analýza odchodu hráče ve hře kulečník od společnosti Geewa a.s.. Praktická část se zabývá celým procesem dobývání znalostí z databází od teoretických znalosti týkajících se odchodu hráče, stanovení definice odchodu, přes porozumění dat, jejich extrakci, modelování až po získané výsledky. V rámci práce jsou nalezeny hypotézy závislé na různých faktorech hry.
Implementace procedur pro předzpracování dat v systému Rapid Miner
Černý, Ján ; Berka, Petr (vedoucí práce) ; Kliegr, Tomáš (oponent)
Dobývání znalostí z databází nabývá v poslední době s přibývajícím množstvím získávaných dat na významu, přesto však používané analytické systémy často poskytují pouze ty nejznámější procedury a algoritmy. Cílem této práce je jeden z nejpoužívanějších analytických systémů RapidMiner obohatit o některé procedury předzpracování dat vytvořením rozšíření. Aby bylo možné implementované procedury pochopit a naprogramovat, je důležité orientovat se v problematice dobývání znalostí z databází, se zaměřením zejména na fázi přípravy dat. Je také podstatné popsat analytické procedury, které budou součástí rozšíření. Práce také představuje postup vývoje rozšíření pro systém RapidMiner, včetně pojednání o použitých softwarových nástrojích. Nakonec práce přestavuje vytvořené rozšíření, jehož funkčnost ověřuje na testovacích příkladech.
Pragmatický lematizátor českých slov
Vacek, Matěj ; Strossa, Petr (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato práce se zabývá lemmatizací podstatných a přídavných jmen na základě morfologie českého jazyka. Cílem práce je vytvořit lemmatizátor, který bude lemmatizovat slova s úspěšností alespoň 90%. Zároveň by měl být lemmatizátor co nejjednodušší, tj. měl by mít co nejméně pravidel. Lemmatizátor bude vytvářen pro oblast realitních inzerátů na prodej domů. V práci budou analyzovány specifika této oblasti a lemmatizátor bude přizpůsoben této oblasti, tak aby při lemmatizaci vytvářel co nejlepší výsledky. Lemmatizátor byl vytvořen v jazyce Java. Bylo použito velmi málo pravidel (pouze tři typy) a celkově byl lemmatizátor úspěšný v 96,4% případech.
Generování dat pomocí modulu LM Reverse-Miner
Stluka, Jakub ; Šimůnek, Milan (vedoucí práce) ; Kliegr, Tomáš (oponent)
Evolučním algoritmům je v posledních letech věnována velká pozornost, za tu dobu našly využití v široké škále oblastí, také dobývání znalostí z databází je již mnoho let velmi poptávaným produktem mnoha komerčních firem, a právě tyto dvě oblasti práce kombinuje. Předmětem je testování možností nového modulu Reverse-Miner, který slouží pro generování dat se skrytými vlastnostmi pomocí evolučních algoritmů, přitom využívá další moduly systému LISp-Miner, který je běžně používán pro dobývání znalostí z databází. Hlavní cíl představuje vygenerování dvou databází modulem tak, aby odpovídaly přesně stanoveným požadavkům, v práci jsou stanoveny i vedlejší cíle v podobě pochopení dané problematiky, která je důležitá pro následující modelování. Výsledkem praktické části práce jsou krom dvou úspěšně vygenerovaných databází i popsané kroky, metody a techniky, kterými se k těmto databázím došlo. Ze zkušeností z modelování a řešení vzniklých problémů jsou poté vyvozeny obecná doporučení na přípravu dat modulem Reverse-Miner. Předešlé výstupy navíc doplňují závěry analýzy využívaných technických prostředků při generování a návrhy několika možných rozšíření do budoucna.
Klasifikace entit pomocí Wikipedie a WordNetu
Kliegr, Tomáš ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Smrž, Pavel (oponent) ; Žabokrtský, Zdeněk (oponent)
Dizertační práce se věnuje problému klasifikace entit reprezentovaných jmennými frázemi v textu. Cílem je vyvinout metodu pro automatizovanou klasifikaci těchto entit v datasetech skládajících se z krátkých textových fragmentů. Důraz je kladen na metody učení bez učitele, nebo kombinaci učení s učitelem a bez učitele (angl. semi-supervised learning), přičemž nebudou vyžadovány trénovací příklady. Třídy jsou buď automaticky stanoveny nebo zadány uživatelem. Náš první pokus pro řešení problému klasifikace entit je algoritmus Sémantického Mapování Konceptů (angl. Semantic Concept Mapping -- SCM). Tento algoritmus mapuje jmenné fráze i cílové třídy na koncepty thesauru WordNet. Grafové míry podobnosti pro WordNet jsou použity pro přiřazení nejbližší třídy k dané jmenné frázi. Pokud jmenná fráze není namapována na žádný koncept, potom je použit algoritmus Cíleného Objevování Hyperonym (angl. Targeted Hypernym Discovery -- THD). Tento algoritmus extrahuje s pomocí lexiko-syntaktických vzorů hyperonymum z článku na Wikipedii, který danou jmennou frázi definuje. Toto hyperonymum je použito k namapování jmenné fráze na koncept ve WordNetu. Hyperonymum může být samo o sobě také považováno za výsledek klasifikace. V takovém případě je dosaženo klasifikace bez učitele. Algoritmy SCM a THD byly navrženy pro angličtinu. I když je možné oba algoritmy přizpůsobit i pro jiné jazyky, byl v rámci dizertační práce vyvinut algoritmus Pytel článků (angl. Bag of Articles -- BOA), který je jazykově agnostický, protože je založen na statistickém Rocchio klasifikátoru. Díky zapojení Wikipedie jako zdroje informací pro klasifikaci nevyžaduje BOA trénovací data. WordNet je využit novým způsobem, a to pro výpočet vah slov, jako pozitivní seznam slov a pro lematizaci. Byl také navržen disambiguační algoritmus pracující s globálním kontextem. Algoritmus BOA považujeme za hlavní přínos dizertace. Experimentální hodnocení navržených algoritmů je provedeno na datasetu WordSim353 používaném pro hodnocení systémů pro výpočet podobnosti slov (angl. Word Similarity Computation -- WSC), a na datasetu Český cestovatel, který byl vytvořen speciálně pro účel našeho výzkumu. Na datasetu WordSim353 dosahuje BOA Spearmanova korelačního koeficientu 0.72 s lidským hodnocením. Tento výsledek je blízko hodnotě 0.75 dosažené algoritmem ESA, který je podle znalosti autora nejlepším algoritmem pro daný dataset nevyžadujícím trénovací data. Algoritmus BOA je ale výrazně méně náročný na předzpracování Wikipedie než ESA. Algoritmus SCM nedosahuje dobrých výsledků na datasetu WordSim353, ale naopak předčí BOA na datasetu Český cestovatel, který byl navržen speciálně pro úlohu klasifikace entit. Tato nesrovnalost vyžaduje další výzkum. V samostatném hodnocení THD na malém počtu pojmenovaných entit z datasetu Český cestovatel bylo správné hyperonymum nalezeno v 62 % případů. Další dosažené výsledky samostatného významu zahrnují novou funkci pro vážení slov založenou na WordNetu, kvalitativní a kvantitativní vyhodnocení možností využití Wikipedie jako zdroje textů pro objevování hyperonym s využitím lexiko-syntaktických vzorů a zevrubnou rešerši měr podobnosti nad WordNetem zahrnující též jejich výkonnostní porovnání na datasetech WordSim353 a Český cestovatel.
Search Engine Marketing neziskových organizací
Slavík, Michal ; Kliegr, Tomáš (vedoucí práce) ; Nemrava, Jan (oponent)
Cílem práce je navržení metodiky pro Search Engine Marketing (SEM) v neziskových organizacích zohledňující a využívající jejich specifika. Dalšími cíli je evaluace této metodiky v praxi a analýza současného stavu na poli SEM v neziskových organizacích. Cíle je dosaženo syntézou teorie SEM, poznatků z terénního výzkumu a autorovy několikaleté praxe. Navržená metodika se opírá o hypotézy, že neziskové organizace jsou v porovnání s obchodními společnostmi schopny získávat lepší obchodní podmínky a že některé aktivity SEM mohou svěřit bezplatné pracovní síle -- dobrovolníkům. Obě hypotézy potvrdil terénní výzkum. Hypotéza, že neziskové organizace v častějším publikování nevidí přínos, a že jejich weby proto bývají neaktuální, se nepotvrdila. Metodika sestává ze čtyř etap a obsahuje také doporučené nástroje, metriky, možná témata článků a tipy na linkbaitingové aktivity. Práce je rozčleněna do pěti kapitol. První kapitola shrnuje nezbytnou teorii SEM, kapitola druhá vymezuje východiska a hypotézy. Vlastní metodika je náplní kapitoly třetí. Další dvě kapitoly přináší výsledky terénního výzkumu. Čtvrtá kapitola obsahuje analýzu současného stavu, do které bylo zahrnuto celkem 31 webů. Pátá kapitola konfrontuje hypotézy a vybrané aktivity metodiky s názory zástupců 21 neziskových organizací a 3 odborníků v oblasti SEO. Názory obou skupin respondentů jsou také konfrontovány navzájem. Na základě odpovědí respondentů je sestaven žebříček aktivit metodiky z hlediska nákladnosti a přínosu. Přínosem práce je transformace obecné teorie SEM do specifického prostředí a jazyka pracovníků neziskových organizací a zmapování současného stavu.
Možnosti využití XSLT v současných webových prohlížečích
Bittner, Ondřej ; Kosek, Jiří (vedoucí práce) ; Kliegr, Tomáš (oponent)
Cílem této práce je analyzovat možnosti současných webových prohlížečů při zpracování XSLT. Jednotlivé prohlížeče jsou porovnávány z několika hledisek jako jsou: úroveň implementace XSLT 1.0 a XSLT 2.0, možnosti spouštění transformací a výkon při zpracování XSLT. Zkoumány jsou především nedostatky, zvláštní vlastnosti či nestandardní chování jednotlivých prohlížečů. Dále jsou analyzovány možnosti zpracování XSLT v prohlížečích s použitím jiných než nativních prostředků. Závěr práce je věnován popisu vzorové aplikace využívající XSLT transformace.
Sběr sémanticky obohacených clickstreamů
Bača, Roman ; Kliegr, Tomáš (vedoucí práce) ; Kuchař, Jaroslav (oponent)
Cílem této diplomové práce je poukázat na možnosti sběru sémanticky obohacených clickstreamů spolu s jejich aplikací na nově vyvíjeném pluginu analytického nástroje Piwik. Práce čtenáře provede základy webminingu a přeposíláním dat mezi klientem a serverem a způsoby zachycení těchto dat. Porovnají se zde i některé rozšířené analytické nástroje, hlavně Google Analyitcs, AWStats a Piwik. Směr práce se pak zaměří na software Piwik. Seznámí nás s variantami předávání parametrů v tomto nástroji s důrazem na tracking kód, databázovou strukturou, uživatelským rozhraním a rozšíření. Nepostradatelnou součástí této práce je program upraveného pluginu Site Search pro Piwik, na kterém jsou aplikovány nasbírané vědomosti popsané v teoretické části práce. Vývoji a struktuře tohoto pluginu jsou věnovány poslední kapitoly. V závěru práce jsou popsány možnosti využití nového pluginu.
Analýza nedostatků populárních content management systémů a návrh jejich řešení
Kohout, Vojtěch ; Kliegr, Tomáš (vedoucí práce) ; Nekvasil, Marek (oponent)
Cílem práce je poukázat na nedostatky vybraných populárních CMS systémů a navrhnout a naimplementovat vlastní jádro rozšiřitelného CMS systému. Takový systém, postaven na moderním PHP frameworku, může být při zakázkové tvorbě webů pro webdesignery výhodnější než populární volně dostupné CMS systémy, degradované mnohými nedostatky. V první části práce jsou analyzovány tři populární volně dostupné CMS systémy: Drupal, CMS Made Simple a TYPOlight, a to z několika nezávislých pohledů. V úvodu druhé části jsou prezentovány výhody, které vyplývají z použití moderního PHP frameworku a následně je navržen koncept základu CMS systému ve frameworku Nette. Přílohou práce je kompletní implementace navrženého systému. Návrh a implementace CMS systému ve frameworku Nette je originálním přínosem práce.
Tvorba rozhraní pro tvorbu apriorních asociačních pravidel
Balhar, Jakub ; Kliegr, Tomáš (vedoucí práce) ; Hazucha, Andrej (oponent)
Cílem práce bylo objevit nebo vytvořit webovou aplikaci umožňující snadnou a přehlednou tvorbu konstruktů podobných asociačním pravidlům. V první části práce shrnuji a porovnávám existující řešení. Došel jsem k závěru, že žádné z existujících řešení nevyhovuje požadavkům projektu SEWEBAR. V druhé části se věnuji formátům, které byly použity při komunikaci aplikace s okolním světem a při komunikaci mezi částmi aplikace, na což navazuji popisem webové aplikace, kterou jsem vytvořil, a v závěru této části rozebírám přesnou architekturu aplikace. Výsledná aplikace slouží jako součást projektu SEWEBAR, nicméně je napsána tak, aby byla snadno nasaditelná i do jiných webových projektů, které potřebují zobrazovat nebo upravovat konstrukty podobné asociačním pravidlům. V práci se věnuji i možnostem tohoto nasazení.

Národní úložiště šedé literatury : Nalezeno 33 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.