Národní úložiště šedé literatury Nalezeno 33 záznamů.  začátekpředchozí14 - 23další  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Generování dat pomocí modulu LM Reverse-Miner
Stluka, Jakub ; Šimůnek, Milan (vedoucí práce) ; Kliegr, Tomáš (oponent)
Evolučním algoritmům je v posledních letech věnována velká pozornost, za tu dobu našly využití v široké škále oblastí, také dobývání znalostí z databází je již mnoho let velmi poptávaným produktem mnoha komerčních firem, a právě tyto dvě oblasti práce kombinuje. Předmětem je testování možností nového modulu Reverse-Miner, který slouží pro generování dat se skrytými vlastnostmi pomocí evolučních algoritmů, přitom využívá další moduly systému LISp-Miner, který je běžně používán pro dobývání znalostí z databází. Hlavní cíl představuje vygenerování dvou databází modulem tak, aby odpovídaly přesně stanoveným požadavkům, v práci jsou stanoveny i vedlejší cíle v podobě pochopení dané problematiky, která je důležitá pro následující modelování. Výsledkem praktické části práce jsou krom dvou úspěšně vygenerovaných databází i popsané kroky, metody a techniky, kterými se k těmto databázím došlo. Ze zkušeností z modelování a řešení vzniklých problémů jsou poté vyvozeny obecná doporučení na přípravu dat modulem Reverse-Miner. Předešlé výstupy navíc doplňují závěry analýzy využívaných technických prostředků při generování a návrhy několika možných rozšíření do budoucna.
Klasifikace entit pomocí Wikipedie a WordNetu
Kliegr, Tomáš ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Smrž, Pavel (oponent) ; Žabokrtský, Zdeněk (oponent)
Dizertační práce se věnuje problému klasifikace entit reprezentovaných jmennými frázemi v textu. Cílem je vyvinout metodu pro automatizovanou klasifikaci těchto entit v datasetech skládajících se z krátkých textových fragmentů. Důraz je kladen na metody učení bez učitele, nebo kombinaci učení s učitelem a bez učitele (angl. semi-supervised learning), přičemž nebudou vyžadovány trénovací příklady. Třídy jsou buď automaticky stanoveny nebo zadány uživatelem. Náš první pokus pro řešení problému klasifikace entit je algoritmus Sémantického Mapování Konceptů (angl. Semantic Concept Mapping -- SCM). Tento algoritmus mapuje jmenné fráze i cílové třídy na koncepty thesauru WordNet. Grafové míry podobnosti pro WordNet jsou použity pro přiřazení nejbližší třídy k dané jmenné frázi. Pokud jmenná fráze není namapována na žádný koncept, potom je použit algoritmus Cíleného Objevování Hyperonym (angl. Targeted Hypernym Discovery -- THD). Tento algoritmus extrahuje s pomocí lexiko-syntaktických vzorů hyperonymum z článku na Wikipedii, který danou jmennou frázi definuje. Toto hyperonymum je použito k namapování jmenné fráze na koncept ve WordNetu. Hyperonymum může být samo o sobě také považováno za výsledek klasifikace. V takovém případě je dosaženo klasifikace bez učitele. Algoritmy SCM a THD byly navrženy pro angličtinu. I když je možné oba algoritmy přizpůsobit i pro jiné jazyky, byl v rámci dizertační práce vyvinut algoritmus Pytel článků (angl. Bag of Articles -- BOA), který je jazykově agnostický, protože je založen na statistickém Rocchio klasifikátoru. Díky zapojení Wikipedie jako zdroje informací pro klasifikaci nevyžaduje BOA trénovací data. WordNet je využit novým způsobem, a to pro výpočet vah slov, jako pozitivní seznam slov a pro lematizaci. Byl také navržen disambiguační algoritmus pracující s globálním kontextem. Algoritmus BOA považujeme za hlavní přínos dizertace. Experimentální hodnocení navržených algoritmů je provedeno na datasetu WordSim353 používaném pro hodnocení systémů pro výpočet podobnosti slov (angl. Word Similarity Computation -- WSC), a na datasetu Český cestovatel, který byl vytvořen speciálně pro účel našeho výzkumu. Na datasetu WordSim353 dosahuje BOA Spearmanova korelačního koeficientu 0.72 s lidským hodnocením. Tento výsledek je blízko hodnotě 0.75 dosažené algoritmem ESA, který je podle znalosti autora nejlepším algoritmem pro daný dataset nevyžadujícím trénovací data. Algoritmus BOA je ale výrazně méně náročný na předzpracování Wikipedie než ESA. Algoritmus SCM nedosahuje dobrých výsledků na datasetu WordSim353, ale naopak předčí BOA na datasetu Český cestovatel, který byl navržen speciálně pro úlohu klasifikace entit. Tato nesrovnalost vyžaduje další výzkum. V samostatném hodnocení THD na malém počtu pojmenovaných entit z datasetu Český cestovatel bylo správné hyperonymum nalezeno v 62 % případů. Další dosažené výsledky samostatného významu zahrnují novou funkci pro vážení slov založenou na WordNetu, kvalitativní a kvantitativní vyhodnocení možností využití Wikipedie jako zdroje textů pro objevování hyperonym s využitím lexiko-syntaktických vzorů a zevrubnou rešerši měr podobnosti nad WordNetem zahrnující též jejich výkonnostní porovnání na datasetech WordSim353 a Český cestovatel.
Search Engine Marketing neziskových organizací
Slavík, Michal ; Kliegr, Tomáš (vedoucí práce) ; Nemrava, Jan (oponent)
Cílem práce je navržení metodiky pro Search Engine Marketing (SEM) v neziskových organizacích zohledňující a využívající jejich specifika. Dalšími cíli je evaluace této metodiky v praxi a analýza současného stavu na poli SEM v neziskových organizacích. Cíle je dosaženo syntézou teorie SEM, poznatků z terénního výzkumu a autorovy několikaleté praxe. Navržená metodika se opírá o hypotézy, že neziskové organizace jsou v porovnání s obchodními společnostmi schopny získávat lepší obchodní podmínky a že některé aktivity SEM mohou svěřit bezplatné pracovní síle -- dobrovolníkům. Obě hypotézy potvrdil terénní výzkum. Hypotéza, že neziskové organizace v častějším publikování nevidí přínos, a že jejich weby proto bývají neaktuální, se nepotvrdila. Metodika sestává ze čtyř etap a obsahuje také doporučené nástroje, metriky, možná témata článků a tipy na linkbaitingové aktivity. Práce je rozčleněna do pěti kapitol. První kapitola shrnuje nezbytnou teorii SEM, kapitola druhá vymezuje východiska a hypotézy. Vlastní metodika je náplní kapitoly třetí. Další dvě kapitoly přináší výsledky terénního výzkumu. Čtvrtá kapitola obsahuje analýzu současného stavu, do které bylo zahrnuto celkem 31 webů. Pátá kapitola konfrontuje hypotézy a vybrané aktivity metodiky s názory zástupců 21 neziskových organizací a 3 odborníků v oblasti SEO. Názory obou skupin respondentů jsou také konfrontovány navzájem. Na základě odpovědí respondentů je sestaven žebříček aktivit metodiky z hlediska nákladnosti a přínosu. Přínosem práce je transformace obecné teorie SEM do specifického prostředí a jazyka pracovníků neziskových organizací a zmapování současného stavu.
Možnosti využití XSLT v současných webových prohlížečích
Bittner, Ondřej ; Kosek, Jiří (vedoucí práce) ; Kliegr, Tomáš (oponent)
Cílem této práce je analyzovat možnosti současných webových prohlížečů při zpracování XSLT. Jednotlivé prohlížeče jsou porovnávány z několika hledisek jako jsou: úroveň implementace XSLT 1.0 a XSLT 2.0, možnosti spouštění transformací a výkon při zpracování XSLT. Zkoumány jsou především nedostatky, zvláštní vlastnosti či nestandardní chování jednotlivých prohlížečů. Dále jsou analyzovány možnosti zpracování XSLT v prohlížečích s použitím jiných než nativních prostředků. Závěr práce je věnován popisu vzorové aplikace využívající XSLT transformace.
Sběr sémanticky obohacených clickstreamů
Bača, Roman ; Kliegr, Tomáš (vedoucí práce) ; Kuchař, Jaroslav (oponent)
Cílem této diplomové práce je poukázat na možnosti sběru sémanticky obohacených clickstreamů spolu s jejich aplikací na nově vyvíjeném pluginu analytického nástroje Piwik. Práce čtenáře provede základy webminingu a přeposíláním dat mezi klientem a serverem a způsoby zachycení těchto dat. Porovnají se zde i některé rozšířené analytické nástroje, hlavně Google Analyitcs, AWStats a Piwik. Směr práce se pak zaměří na software Piwik. Seznámí nás s variantami předávání parametrů v tomto nástroji s důrazem na tracking kód, databázovou strukturou, uživatelským rozhraním a rozšíření. Nepostradatelnou součástí této práce je program upraveného pluginu Site Search pro Piwik, na kterém jsou aplikovány nasbírané vědomosti popsané v teoretické části práce. Vývoji a struktuře tohoto pluginu jsou věnovány poslední kapitoly. V závěru práce jsou popsány možnosti využití nového pluginu.
Analýza nedostatků populárních content management systémů a návrh jejich řešení
Kohout, Vojtěch ; Kliegr, Tomáš (vedoucí práce) ; Nekvasil, Marek (oponent)
Cílem práce je poukázat na nedostatky vybraných populárních CMS systémů a navrhnout a naimplementovat vlastní jádro rozšiřitelného CMS systému. Takový systém, postaven na moderním PHP frameworku, může být při zakázkové tvorbě webů pro webdesignery výhodnější než populární volně dostupné CMS systémy, degradované mnohými nedostatky. V první části práce jsou analyzovány tři populární volně dostupné CMS systémy: Drupal, CMS Made Simple a TYPOlight, a to z několika nezávislých pohledů. V úvodu druhé části jsou prezentovány výhody, které vyplývají z použití moderního PHP frameworku a následně je navržen koncept základu CMS systému ve frameworku Nette. Přílohou práce je kompletní implementace navrženého systému. Návrh a implementace CMS systému ve frameworku Nette je originálním přínosem práce.
Tvorba rozhraní pro tvorbu apriorních asociačních pravidel
Balhar, Jakub ; Kliegr, Tomáš (vedoucí práce) ; Hazucha, Andrej (oponent)
Cílem práce bylo objevit nebo vytvořit webovou aplikaci umožňující snadnou a přehlednou tvorbu konstruktů podobných asociačním pravidlům. V první části práce shrnuji a porovnávám existující řešení. Došel jsem k závěru, že žádné z existujících řešení nevyhovuje požadavkům projektu SEWEBAR. V druhé části se věnuji formátům, které byly použity při komunikaci aplikace s okolním světem a při komunikaci mezi částmi aplikace, na což navazuji popisem webové aplikace, kterou jsem vytvořil, a v závěru této části rozebírám přesnou architekturu aplikace. Výsledná aplikace slouží jako součást projektu SEWEBAR, nicméně je napsána tak, aby byla snadno nasaditelná i do jiných webových projektů, které potřebují zobrazovat nebo upravovat konstrukty podobné asociačním pravidlům. V práci se věnuji i možnostem tohoto nasazení.
Mapování PMML a BKEF dokumentů v projektu SEWEBAR-CMS
Vojíř, Stanislav ; Kliegr, Tomáš (vedoucí práce) ; Zamazal, Ondřej (oponent)
V průběhu dataminingového procesu jsou nezbytné fáze porozumnění datům a následná předpříprava datové matice pro samotné dolování. Je nutné zvolit způsob práce (seskupování, řezy) s kontinuálními atributy atp. Tato přípravná fáze by měla být postavena na znalostech získaných od expertů na danou problémovou oblast. V projektu SEWEBAR jsou prostřednictvím speciálního editoru získávány doménové znalosti expertů, které jsou poté ukládány do vlastního formátu BKEF (založeného na XML) do databáze CMS Joomla!. Většina dataminingových nástrojů zároveň umožňuje ukládat výsledky své činnosti (vytvořené modely) do standardizovaného formátu PMML. Pro další zpracování je potřeba konkrétní atributy z PMML souboru na metaatributy v souboru BKEF. Toto mapování je řešeno algoritmy, které předkládají uživateli automaticky vytvářené návrhy namapování jak na úrovni konkrétních (meta)atributů, tak i jejich hodnot. Tento specifický mapovací problém je řešen aplikací vytvořenou v jazyce PHP, která je integrována v podobě komponenty do CMS Joomla!. Pro otestování úspěšnosti automatizace návrhu správných mapování byla zvolena testovací data o kur-zech vyučovaných na pěti amerických univerzitách z Illinois Semantic Integration Archive. Na těchto datech dosahuje automatizovaný proces návrhu vhodného mapování na úrovni (meta)atributů při prvním mapování přesnosti 70% a úplnosti 77%. Pokud však již byla daná data namapována dříve, pak je díky implmenentovanému modulu pro strojové učení na základě předchozích správných namapování dosahována úplnost cca 90-100%.
SPARQL plugin pro Ontopia Knowledge Suite
Ovčáčík, Vlastimil ; Kliegr, Tomáš (vedoucí práce) ; Svátek, Vojtěch (oponent)
Čtenář se v této bakalářské práci seznámí se dvěma technologiemi sémantického webu - Topic Maps a RDF. V teoretické části práce najdete popis jejich historie, vývoje a náčrt budoucnosti. Jsou vysvětleny nezbytné základy obou technologií. Důraz je kladen na dotazovací jazyky SPARQL a TMQL. Podstatou práce je pochopit rozdíly a společné aspekty obou technologií, což nám pomůže při hledání způsobu, jak tyto dvě technologie jednou budou rovnocennými partnery na sémantickém webu. Druhá část práce se věnuje implementaci sparql4ontopia pluginu pro Ontopia Knowledge Suite, který umožňuje SPARQL dotazy nad mapami témat. Tento plugin využívá Sesame projekt pro zpracování SPARQL dotazu a Nikunau nástroj z projektu SesameTM pro mapování SPARQL dotazu na Topic Maps Data Model. Jsou zde popsány možnosti a omezení dotazování. Je dán prostor i pro popis vývoje a implementace sparql4ontopia pluginu. V poslední kapitole je nastíněn možný postup pro implementaci SPARQL endpoint do Ontopia Knowledge Suite.
Transformation of PMML files into Topic Maps
Ovečka, Marek ; Kliegr, Tomáš (vedoucí práce) ; Hazucha, Andrej (oponent)
Cíl mé bakalářské práce je zjistit jaké jsou možnosti převodu XML souborů do XML TopicMaps. Vybrat jednu konkrétní metodu a tu použít při implementaci převodu souborů PMML obsahujúcích model asociačních pravidel do TopicMap, která obsahuje Association Rule Ontology (AROn). Jako možnosti vytváření TopicMaps byli vybrány dvě metody. První je transformace vstupního XML souboru pomocí XSLT a jsou uvedeny i příklady jak je možné převod vykonat. Druhá možnost je implementace použití programovacího enginu, který umožní spracovat vstupní soubor a který implementuje buď vlastní nebo štandardizované API pro práci s TopicMaps. Pro ukážku vytváření TopicMaps bylo vybráno TMAPI 2.0 a v něm předvedeny základní úkony jako vytvoření nového tématu, vytvoření asociácie mezi dvěma tématy a vytvoření výskytu. Práce má tři hlavní kapitoly. První popisuje strukturu vstupního PMML dokumentu a význam jednotlivých jeho částí. Druhá kapitola se zabývá TopicMaps, je v ní v skratce vysvětlen princip této technologie a možnosti práce s ní. V třetí kapitole jsou popsány a vysvětleny všechny části programu který vykonává samotný převod. V této kapitole je rovněž popsané mapování jednotlivých elementů vstupního XML dokumentu na prvky AROn ontologie. Výslední program by měl sloužit jako komponenta projektu Sewebar. Pro kompletní funkčnost je potřebné hlavně přispůsobit převod nejnovší struktuře vstupního dokumentu a přispůsobit ho pro integraci s ostaními komponentami projektu.

Národní úložiště šedé literatury : Nalezeno 33 záznamů.   začátekpředchozí14 - 23další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.