Národní úložiště šedé literatury Nalezeno 13 záznamů.  1 - 10další  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Shlukování textových dat
Leixner, Petr ; Burgetová, Ivana (oponent) ; Bartík, Vladimír (vedoucí práce)
Proces shlukování textových dat slouží pro analýzu, navigaci a strukturování velkých kolekcí textů nebo hypertextových dokumentů. Úkolem shlukování je rozklad množiny dokumentů do shluků na základě jejich podobnosti. Nejznámější metody z této oblasti dolování však neřeší specifické problémy textového shlukování, jako vysokou dimenzionalitu vstupních dat, velmi velkou velikost databází a srozumitelnost popisu shluků. Tato práce se zabývá uvedenou problematikou a popisuje moderní metodu shlukování textových dat založenou na použití frekventovaných množin termů, která se svým přístupem snaží řešit nedostatky jiných shlukovacích metod.
Metody stemmingu používané při dolování textu
Adámek, Tomáš ; Chmelař, Petr (oponent) ; Bartík, Vladimír (vedoucí práce)
Tématem této diplomové práce je problematika jednotlivých metod pro dolování z anglických textových dokumentů. Hlavní část této práce se zabývá analýzou metod pro předzpracování textu, konkrétně stemmingem. Jsou zde rozebrány jednotlivé algoritmy stemmingu (Lovinsův, Porterův a Paice/Husk), které z jednotlivých slov textového dokumentu získávají jejich základní tvar (kořen), za použití speciálních lexikografických pravidel anglického jazyka. Tyto kořeny slov jsou následně uloženy do strukturované podoby pro další zpracování. Další část práce se zabývá návrhem aplikace, která tyto algoritmy využívá pro svoji činnost. Aplikace je postavena na platformě Java s využitím grafické knihovny Swing a architektury MVC. Další kapitola popisuje implementaci navržené aplikace a stemovacích algoritmů v jazyce Java. Poslední kapitola je zaměřena na experimenty s jednotlivými algoritmy a jejich srovnání z hlediska vlivu na výsledky klasifikace textu.
Určení základního tvaru slova
Šanda, Pavel ; Burget, Radim (oponent) ; Karásek, Jan (vedoucí práce)
Lemmatizace je důležitou procedurou před dolováním v textu v mnoha aplikacích. Proces lemmatizace je podobný procesu stemmingu, s tím rozdílem, že neurčuje pouze kořen slova, ale snaží se slovo převést pomocí metod Brute Force a Suffix Stripping do jeho základního tvaru. Hlavním cílem této práce je prezentovat metody pro vylepšení algoritmů lemmatizace českého jazyka. Obsahem je vytvoření trénovací množiny dat, kterou lze libovolně použít pro studentské i vědecké práce zabývající se podobnou problematikou.
Extrakce metadat z vědeckých článků
Lokaj, Tomáš ; Dytrych, Jaroslav (oponent) ; Otrusina, Lubomír (vedoucí práce)
Tato práce se zabývá extrakcí metadat z vědeckých článků. Je zde obecně popsán problém extrakce informací se zaměřením na zpracování textových dokumentů. Dále je představen autorem vytvořený program clanky2meta.py určený k vyhledávání potřebných informací ve vědeckých publikacích. V závěru práce je provedeno srovnání toho programu s jinými systémy, především se systémem CiteSeerX.
Metody shlukování textových dat
Miloš, Roman ; Burgetová, Ivana (oponent) ; Bartík, Vladimír (vedoucí práce)
Shlukování textových dat je jednou z úloh dolování v textech. Slouží k rozdělení dokumentů do různých kategorií na základě jejich podobnosti, což nám umožňuje snadnější vyhledávání v takto rozdělených dokumentech. V práci jsou popsány současné metody sloužící k shlukování textových dokumentů, jež se využívají. Z těchto metod je vybrán algoritmus Simultaneous keyword identification and clustering of text documents (SKWIC), který by měl při shlukování dosahovat lepších výsledků, než standardní algoritmy jako např. k-means. Je navrhnuta a implementována aplikace řešící tento algoritmus. Na závěr je provedeno srovnání SKWIC se standardním k-means.
Zpracování uživatelských recenzí
Cihlářová, Dita ; Burget, Radek (oponent) ; Bartík, Vladimír (vedoucí práce)
Velmi často lidé nakupují na internetu zboží, které si nemohou prohlédnout a vyzkoušet. Spoléhají se tedy na recenze ostatních zákazníků, ale těch už může být v dnešní době příliš mnoho na to, aby je člověk mohl sám rychle a pohodlně zpracovat. Cílem této práce je nabídnout aplikaci, která dokáže v českých recenzích rozpoznat, jaké vlastnosti produktu jsou nejvíce komentované a zda je vyznění komentářů pozitivní či negativní. Výsledky pak mohou ušetřit velké množství času zákazníkům e-shopů a poskytnout zajímavou zpětnou vazbu výrobcům prodávaných produktů.
Zpracování uživatelských recenzí
Cihlářová, Dita ; Burget, Radek (oponent) ; Bartík, Vladimír (vedoucí práce)
Velmi často lidé nakupují na internetu zboží, které si nemohou prohlédnout a vyzkoušet. Spoléhají se tedy na recenze ostatních zákazníků, ale těch už může být v dnešní době příliš mnoho na to, aby je člověk mohl sám rychle a pohodlně zpracovat. Cílem této práce je nabídnout aplikaci, která dokáže v českých recenzích rozpoznat, jaké vlastnosti produktu jsou nejvíce komentované a zda je vyznění komentářů pozitivní či negativní. Výsledky pak mohou ušetřit velké množství času zákazníkům e-shopů a poskytnout zajímavou zpětnou vazbu výrobcům prodávaných produktů.
Extrakce metadat z vědeckých článků
Lokaj, Tomáš ; Dytrych, Jaroslav (oponent) ; Otrusina, Lubomír (vedoucí práce)
Tato práce se zabývá extrakcí metadat z vědeckých článků. Je zde obecně popsán problém extrakce informací se zaměřením na zpracování textových dokumentů. Dále je představen autorem vytvořený program clanky2meta.py určený k vyhledávání potřebných informací ve vědeckých publikacích. V závěru práce je provedeno srovnání toho programu s jinými systémy, především se systémem CiteSeerX.
Klasifikace textu pomocí metody SVM
Synek, Radovan ; Burget, Radek (oponent) ; Bartík, Vladimír (vedoucí práce)
Tato práce pojednává o dolování v textových datech. Zaměřuje se na problematiku klasifikace dokumentů a techniky s tím spojené, především předzpracování dat. Dále je představena metoda SVM, která byla zvolena pro samotnou klasifikaci, návrh a testování implementované aplikace.
Shlukování textových dat
Leixner, Petr ; Burgetová, Ivana (oponent) ; Bartík, Vladimír (vedoucí práce)
Proces shlukování textových dat slouží pro analýzu, navigaci a strukturování velkých kolekcí textů nebo hypertextových dokumentů. Úkolem shlukování je rozklad množiny dokumentů do shluků na základě jejich podobnosti. Nejznámější metody z této oblasti dolování však neřeší specifické problémy textového shlukování, jako vysokou dimenzionalitu vstupních dat, velmi velkou velikost databází a srozumitelnost popisu shluků. Tato práce se zabývá uvedenou problematikou a popisuje moderní metodu shlukování textových dat založenou na použití frekventovaných množin termů, která se svým přístupem snaží řešit nedostatky jiných shlukovacích metod.

Národní úložiště šedé literatury : Nalezeno 13 záznamů.   1 - 10další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.