Národní úložiště šedé literatury Nalezeno 212 záznamů.  začátekpředchozí203 - 212  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Shlukování slov podle významu
Haljuk, Petr ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá sémantickou podobností slov. Popisuje návrh a implementaci systému, který vyhledává nejpodobnější slova a určuje sémantickou podobnost vět. Systém využívá model Word2Vec z knihovny GenSim . Vztahy mezi slovy se model učí analýzou korpusu CommonCrawl .
Automatické hledání vazeb mezi částmi audiovizuálních dokumentů
Sychra, Marek ; Černocký, Jan (oponent) ; Szőke, Igor (vedoucí práce)
Tato práce se zabývá tématem hledání tématu v textu. Konkrétně hledání spojitostí mezi krátkými texty a hledání hranic jednotlivých částí stejného tématu v jednom hlavním textu. Hlavní motivací výzkumu bylo zavedení do praxe a to v rámci aplikace na přednáškové materiály na FIT (provázání jednotlivých částí různých přednášek). Přístup k porovnávání textů spočívá v analýze textu a slov, která obsahuje a zjišťování významu a důležitosti jednotlivých slov. Segmentace textu toto využívá, když hledá předěly mezi tématy v textu. Obě části problému ( link detection, story segmentation ) měly velmi vysokou úspěšnost na testovacích datech (zprávy ze světových novin). Při subjektivním vyhodnocování u částí přednášek byla úspěšnost nižší, ale stále dobrá.
Inteligentní dotazování Wikipedie pro mobilní zařízení na platformě Android
Kováč, Andrej ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
p { margin-bottom: 0.1in; direction: ltr; line-height: 120%; text-align: left; widows: 2; orphans: 2; }p.western { font-family: "Times New Roman",serif; }p.cjk { font-family: "Times New Roman"; }p.ctl { font-family: "Times New Roman"; font-size: 12pt; }a:link { color: rgb(0, 0, 255); } Tato bakalářská práce se zabývá vývojem systému pro inteligentní dotazování Wikipedie pro mobilní zařízení s operačním systémem Android. Tato technická zpráva dále popisuje teoretické znalosti úzce související s tématem a dále je popsána implementace serverového systému a klientské aplikace. Část zprávy obsahuje testování výsledného systému a v závěru je nastíněn potencionální budoucí vývoj.
Dialogový systém pro komunikaci s reálným robotem
Birger, Mark ; Materna, Zdeněk (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá řešením problémů vývoje dialogového uživatelského rozhraní pro roboty. V rámci této práce byla vytvořena knihovna, určena pro rychlou implementace mluvčích dialogových rozhraní pro existující programy. Pomoci této knihovny dá se napsat popis dialogu ve speciálním značkovacím jazyků, abych kontrolovat tok řízení programu podle vstupní fráze. Značkovací jazyk umožňuje asynchronní spuštění funkci a jejich další ovládání, což je důležité pro roboticke prostředí. Tato knihovna využívá Link Grammar Parser pro zpracování přirozeného jazyků. Pomoci této knihovny byl vyvíjen a ohodnocen dialogový systém, určeny pro řízení robotů PR2.
Shlukování slov podle významu
Jadrníček, Zbyněk ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce se zabývá problémem sémantické podobnosti slov v angličtině. Čtenář je nejprve informován o teorii shlukování slov podle významu, poté jsou popsány některé metody a nástroje související s tématem. V praktické části navrhneme a implementujeme systém pro výpočet sémantické podobnosti slov využívající nástroj Word2Vec, konkrétně se zaměříme na biomedicínské texty z databáze MEDLINE. Na závěr práce budeme diskutovat dosažené výsledky a předložíme několik návrhů, jak systém vylepšit.
Extraction of unspecified relations from the web
Ovečka, Marek ; Svátek, Vojtěch (vedoucí práce) ; Labský, Martin (oponent)
Předmětem diplomové práce je extrakce nespecifikovaných znalostí z webu. V posledních letech vznikly nástroje, které zlepšují výsledky odvětví extrakce znalostí. Cílem práce je seznámit se s těmito nástroji, jeden otestovat a navrhnout využití výsledků. V práci jsou popsány a porovnány tyto nástroje a provedeny extrakce pomocí funkce OLLIE. Na základě výsledků extrakcí jsou navrženy dvě metody obohacení extrakcí pomocí rozeznání pojmenovaných entit. První metoda navrhuje úprava číselných vah kvality extrakcí a druhá obohacení textu extrakcí pomocí pojmenovaných entit. V práci je navržena ontologie, která umožnuje zachytit strukturu obohacených extrakcí. V poslední části je proveden praktický experiment, kde jsou navrženy metody předvedeny. Návrhem dalšího směřování výzkumu v této oblasti by bylo extrahovat a kategorizovat relační vztahy.
Osm ICT trendů, které změní knihovny
Černý, Michal
Informační společnost i rychle se rozvíjející ICT proměňují vše kolem nás – od vzdělávání, přes dopravu až třeba právě po knihovny. Příspěvek představí osm technologií, které do deseti let začnou měnit knihovny téměř k nepoznání: Internet věcí; big data; veřejné multimediální displeje; firemní sociální sítě; cloud; nové mobilní sítě; zpracování přirozeného jazyka či sémantické technologie. Co bude tato změna znamenat pro knihovny? Jak se změní jejich postavení v informační společnosti?
Videozáznam: Stáhnout plný textMP4
Klasifikace entit pomocí Wikipedie a WordNetu
Kliegr, Tomáš ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Smrž, Pavel (oponent) ; Žabokrtský, Zdeněk (oponent)
Dizertační práce se věnuje problému klasifikace entit reprezentovaných jmennými frázemi v textu. Cílem je vyvinout metodu pro automatizovanou klasifikaci těchto entit v datasetech skládajících se z krátkých textových fragmentů. Důraz je kladen na metody učení bez učitele, nebo kombinaci učení s učitelem a bez učitele (angl. semi-supervised learning), přičemž nebudou vyžadovány trénovací příklady. Třídy jsou buď automaticky stanoveny nebo zadány uživatelem. Náš první pokus pro řešení problému klasifikace entit je algoritmus Sémantického Mapování Konceptů (angl. Semantic Concept Mapping -- SCM). Tento algoritmus mapuje jmenné fráze i cílové třídy na koncepty thesauru WordNet. Grafové míry podobnosti pro WordNet jsou použity pro přiřazení nejbližší třídy k dané jmenné frázi. Pokud jmenná fráze není namapována na žádný koncept, potom je použit algoritmus Cíleného Objevování Hyperonym (angl. Targeted Hypernym Discovery -- THD). Tento algoritmus extrahuje s pomocí lexiko-syntaktických vzorů hyperonymum z článku na Wikipedii, který danou jmennou frázi definuje. Toto hyperonymum je použito k namapování jmenné fráze na koncept ve WordNetu. Hyperonymum může být samo o sobě také považováno za výsledek klasifikace. V takovém případě je dosaženo klasifikace bez učitele. Algoritmy SCM a THD byly navrženy pro angličtinu. I když je možné oba algoritmy přizpůsobit i pro jiné jazyky, byl v rámci dizertační práce vyvinut algoritmus Pytel článků (angl. Bag of Articles -- BOA), který je jazykově agnostický, protože je založen na statistickém Rocchio klasifikátoru. Díky zapojení Wikipedie jako zdroje informací pro klasifikaci nevyžaduje BOA trénovací data. WordNet je využit novým způsobem, a to pro výpočet vah slov, jako pozitivní seznam slov a pro lematizaci. Byl také navržen disambiguační algoritmus pracující s globálním kontextem. Algoritmus BOA považujeme za hlavní přínos dizertace. Experimentální hodnocení navržených algoritmů je provedeno na datasetu WordSim353 používaném pro hodnocení systémů pro výpočet podobnosti slov (angl. Word Similarity Computation -- WSC), a na datasetu Český cestovatel, který byl vytvořen speciálně pro účel našeho výzkumu. Na datasetu WordSim353 dosahuje BOA Spearmanova korelačního koeficientu 0.72 s lidským hodnocením. Tento výsledek je blízko hodnotě 0.75 dosažené algoritmem ESA, který je podle znalosti autora nejlepším algoritmem pro daný dataset nevyžadujícím trénovací data. Algoritmus BOA je ale výrazně méně náročný na předzpracování Wikipedie než ESA. Algoritmus SCM nedosahuje dobrých výsledků na datasetu WordSim353, ale naopak předčí BOA na datasetu Český cestovatel, který byl navržen speciálně pro úlohu klasifikace entit. Tato nesrovnalost vyžaduje další výzkum. V samostatném hodnocení THD na malém počtu pojmenovaných entit z datasetu Český cestovatel bylo správné hyperonymum nalezeno v 62 % případů. Další dosažené výsledky samostatného významu zahrnují novou funkci pro vážení slov založenou na WordNetu, kvalitativní a kvantitativní vyhodnocení možností využití Wikipedie jako zdroje textů pro objevování hyperonym s využitím lexiko-syntaktických vzorů a zevrubnou rešerši měr podobnosti nad WordNetem zahrnující též jejich výkonnostní porovnání na datasetech WordSim353 a Český cestovatel.
Extrakce informací z webových stránek pro e-environment
Dědek, Jan ; Vojtáš, Peter
Článek diskutuje možnosti použití metod pro extrakci informací z webu, které by zlepšily dostupnost informací o životním prostředí na webových stránkách. Hlavním přínosem je automatická metoda pro získávání informací z webových stránek a jejich anotaci pomocí ontologií.
Ontology Learning and Information Extraction for the Semantic Web
Kavalec, Martin ; Berka, Petr (vedoucí práce) ; Štěpánková, Olga (oponent) ; Snášel, Václav (oponent)
The work gives overview of its three main topics: semantic web, information extraction and ontology learning. A method for identification relevant information on web pages is described and experimentally tested on pages of companies offering products and services. The method is based on analysis of a sample web pages and their position in the Open Directory catalogue. Furthermore, a modfication of association rules mining algorithm is proposed and experimentally tested. In addition to an identification of a relation between ontology concepts, it suggest possible naming of the relation.

Národní úložiště šedé literatury : Nalezeno 212 záznamů.   začátekpředchozí203 - 212  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.