Národní úložiště šedé literatury Nalezeno 33 záznamů.  začátekpředchozí31 - 33  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Vyhledávání fotografií v databázi podle příkladu
Dobrotka, Matúš ; Hradiš, Michal (oponent) ; Veľas, Martin (vedoucí práce)
Táto práce se zabývá vyhledáváním fotografií v databázi podle příkladu. Práce byla vytvo\-ře\-na s cílem vyvinout aplikaci, která bude porovnávat různé přístupy vyhledávání fotografií v databázi. Jedná se o základní přístup, který spočívá v detekci klíčových bodů, extrakci lokálních příznaků a tvorbě vizuálního slovníku algoritmem shlukování - k-means. Pomocí vizuálního slovníku je spočítán histogram četnosti výskytu vizuálních slov - Bag of Words (BoW), který reprezentuje fotografii jako celek. Po aplikování vhodné metriky dojde k vyhledání podobných fotografií. Druhý přístup představují hluboké konvoluční neuronové sítě (DCNN), které jsou využity k extrakci příznakových vektorů. Tyto vektory jsou použity na tvorbu vizuálního slovníku, který slouží opět k výpočtu BoW. Postup je pak podobný jako v prvním přístupu. Třetí přístup počítá s extrahovanými vektory z DCNN jako s BoW vektory. Následuje aplikace vhodné metriky a vyhledání podobných fotografií. V závěru práce jsou popsány použity přístupy, uvedeny experimenty a závěrečné vyhodnocení.
Automatická kategorizace fotografií podle obsahu
Němec, Ladislav ; Španěl, Michal (oponent) ; Veľas, Martin (vedoucí práce)
Tato práce se zabývá problematikou klasifikace fotografií podle obsahu. Hlavním cílem práce je implementace aplikace, která je schopná tuto kategorizaci provádět. Řešení se sestává z variabilního systému využívajícího extrakce lokálních příznaků v obraze a vytvoření vizuálního slovníku metodou k-means. Aplikace využívá Bag of Words reprezentace jako globální funkce pro popis každé fotografe. Poslední složkou tohoto systému je klasifikace prováděná na základě Support Vector Machines. V poslední kapitole jsou představeny výsledky experimentování s tímto systémem.
Klasifikace entit pomocí Wikipedie a WordNetu
Kliegr, Tomáš ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Smrž, Pavel (oponent) ; Žabokrtský, Zdeněk (oponent)
Dizertační práce se věnuje problému klasifikace entit reprezentovaných jmennými frázemi v textu. Cílem je vyvinout metodu pro automatizovanou klasifikaci těchto entit v datasetech skládajících se z krátkých textových fragmentů. Důraz je kladen na metody učení bez učitele, nebo kombinaci učení s učitelem a bez učitele (angl. semi-supervised learning), přičemž nebudou vyžadovány trénovací příklady. Třídy jsou buď automaticky stanoveny nebo zadány uživatelem. Náš první pokus pro řešení problému klasifikace entit je algoritmus Sémantického Mapování Konceptů (angl. Semantic Concept Mapping -- SCM). Tento algoritmus mapuje jmenné fráze i cílové třídy na koncepty thesauru WordNet. Grafové míry podobnosti pro WordNet jsou použity pro přiřazení nejbližší třídy k dané jmenné frázi. Pokud jmenná fráze není namapována na žádný koncept, potom je použit algoritmus Cíleného Objevování Hyperonym (angl. Targeted Hypernym Discovery -- THD). Tento algoritmus extrahuje s pomocí lexiko-syntaktických vzorů hyperonymum z článku na Wikipedii, který danou jmennou frázi definuje. Toto hyperonymum je použito k namapování jmenné fráze na koncept ve WordNetu. Hyperonymum může být samo o sobě také považováno za výsledek klasifikace. V takovém případě je dosaženo klasifikace bez učitele. Algoritmy SCM a THD byly navrženy pro angličtinu. I když je možné oba algoritmy přizpůsobit i pro jiné jazyky, byl v rámci dizertační práce vyvinut algoritmus Pytel článků (angl. Bag of Articles -- BOA), který je jazykově agnostický, protože je založen na statistickém Rocchio klasifikátoru. Díky zapojení Wikipedie jako zdroje informací pro klasifikaci nevyžaduje BOA trénovací data. WordNet je využit novým způsobem, a to pro výpočet vah slov, jako pozitivní seznam slov a pro lematizaci. Byl také navržen disambiguační algoritmus pracující s globálním kontextem. Algoritmus BOA považujeme za hlavní přínos dizertace. Experimentální hodnocení navržených algoritmů je provedeno na datasetu WordSim353 používaném pro hodnocení systémů pro výpočet podobnosti slov (angl. Word Similarity Computation -- WSC), a na datasetu Český cestovatel, který byl vytvořen speciálně pro účel našeho výzkumu. Na datasetu WordSim353 dosahuje BOA Spearmanova korelačního koeficientu 0.72 s lidským hodnocením. Tento výsledek je blízko hodnotě 0.75 dosažené algoritmem ESA, který je podle znalosti autora nejlepším algoritmem pro daný dataset nevyžadujícím trénovací data. Algoritmus BOA je ale výrazně méně náročný na předzpracování Wikipedie než ESA. Algoritmus SCM nedosahuje dobrých výsledků na datasetu WordSim353, ale naopak předčí BOA na datasetu Český cestovatel, který byl navržen speciálně pro úlohu klasifikace entit. Tato nesrovnalost vyžaduje další výzkum. V samostatném hodnocení THD na malém počtu pojmenovaných entit z datasetu Český cestovatel bylo správné hyperonymum nalezeno v 62 % případů. Další dosažené výsledky samostatného významu zahrnují novou funkci pro vážení slov založenou na WordNetu, kvalitativní a kvantitativní vyhodnocení možností využití Wikipedie jako zdroje textů pro objevování hyperonym s využitím lexiko-syntaktických vzorů a zevrubnou rešerši měr podobnosti nad WordNetem zahrnující též jejich výkonnostní porovnání na datasetech WordSim353 a Český cestovatel.

Národní úložiště šedé literatury : Nalezeno 33 záznamů.   začátekpředchozí31 - 33  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.