Národní úložiště šedé literatury Nalezeno 60 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Automaticky aktualizovaný webový portál
Staněk, Petr ; Škoda, Petr (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se věnuje návrhu a implementaci automaticky aktualizovaného webového portálu, který řeší nedostatky portálů plněných obsahem lidmi. Dále předkládá srovnání existujících vědeckých portálů, rozebírá problematiku extrakce, ukládání a vyhledávání informací. Obecné mechanismy jsou demonstrovány na portálu evropských výzkumných projektů, který odstraňuje nedostatky oficiálního informačního portálu pro evropský výzkum a inovace Cordis. Práce bere jako prototyp existující produkt bakalářské práce a jejím cílem je vylepšit kvalitu extrakce a rozšířit tento systém tak, aby zjišťoval případné problémy a upozorňoval na ně administrátora. Toho bylo dosaženo zvýšením robustnosti a rychlosti extraktoru, evidováním všech důležitých událostí spojených s extrakcí a na druhé straně implementací samostatné administrační sekce webového portálu, která administrátora informuje o problémech a nabízí mu prostředky k jejich řešení.
Nástroj pro rozpoznání a kontrolu objednávek spedice
Kalivoda, Vojtěch ; Hradiš, Michal (oponent) ; Herout, Adam (vedoucí práce)
Cílem této práce je návrh a implementace webového nástroje, který usnadní práci dispečerům spedičních a dopravních firem pomocí automatizovaného rozpoznání důležitých informací v objednávkách. Díky rozpoznání nemusí být všechny informace ručně přepisovány dispečery, což vede k ušetření času. Rozpoznávání objednávek je postaveno na vyhledání entit v dokumentu, reprezentace jejich okolí vektory za pomocí word2vec modelů a následné klasifikace pomocí konvolučních neuronových sítí. Nástroj dokáže v reálném čase rozpoznat 20 typů informací s průměrnou úspěšností 72.35~\%. V rámci práce byl shromážděn dataset necelých 1~700 objednávek a 141 z nich bylo anotováno. Součástí práce je webová aplikace, která slouží jako rozhraní pro nástroj a sběr dat.
Kontrola konzistence informací extrahovaných z textu
Stejskal, Jakub ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato práce je zaměřena na strojové techniky, které jsou využívány při zpracování přirozeného jazyka a extrakce informací z textu. Přibližuje obecné metody začínající zpracováním surového textu, až po extrakci vztahů ze zpracovaných jazykových konstrukcí a uvádí možnosti využití pro získaná relační data, které je možné vidět například u projektu DBpedia. Dalším milníkem této práce je návrh a realizace automatického systému pro extrakci informací o entitách, které nemají vlastní článek na anglické verzi Wikipedie. Práce představuje vytvořené algoritmy pro extrakci entit s vlastním jménem, ověření existence článků extrahovaných entit a nakonec samotnou extrakci informací o jednotlivých entitách, které lze využívat při kontrole konzistence informací. Na závěr je možné zhlédnout dosažené výsledky a návrhy dalšího vývoje vytvořeného systému.
Document Information Extraction
Janík, Roman ; Špaňhel, Jakub (oponent) ; Hradiš, Michal (vedoucí práce)
With development of digitization comes the need for historical document analysis. Named Entity Recognition is an important task for Information extraction and Data mining. The goal of this thesis is to develop a system for extraction of information from Czech historical documents, such as newspapers, chronicles and registry books. An information extraction system was designed, the input of which is scanned historical documents processed by the OCR algorithm. The system is based on a modified RoBERTa model. The extraction of information from Czech historical documents brings challenges in the form of the need for a suitable corpus for historical Czech. The corpora Czech Named Entity Corpus (CNEC) and Czech Historical Named Entity Corpus (CHNEC) were used to train the system, together with my own created corpus. The system achieves 88.85 F1 score on CNEC and 87.19 F1 score on CHNEC, obtaining new state-of-the-art results.
Distribuovaný nástroj pro extrakci informace ze síťových toků
Sedlák, Michal ; Grégr, Matěj (oponent) ; Žádník, Martin (vedoucí práce)
Tato práce se zabývá extrakcí informací ze záznamů o tocích, které jsou výsledkem monitorování sítí systémem IPFIX. Cílem práce je navrhnout nástroj umožňující provádět dotazování nad úložištěm síťových toků, které vytváří open-source kolektor IPFIXcol2. Dotazování je prováděno s ohledem na co nejvyšší efektivitu a výkonnost, čehož je docíleno využitím vhodných datových struktur a paralelizací na úrovni vláken a také s využitím více strojů.
Detekce vizuálních vzorů ve webových stránkách
Kotraš, Martin ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Práce řeší extrakci informací z webových stránek pomocí techniky vyhledávání vizuálních vzorů - prostorových vztahů mezi oblastmi na webové stránce a stejných vizuálních stylů těchto oblastí - s rozšířením o nové techniky zlepšení výsledků. Využívá přitom uživatelem zadaného ontologického modelu dat, který popisuje, které datové položky se budou ze zadané webové stránky extrahovat a jak jednotlivé položky na stránce vypadají zejména z textového pohledu. V rámci práce vznikla konzolová aplikace VizGet v jazyce Java využívající aplikační rámec FitLayout pro získání vizuálního modelu webové stránky. Testování aplikace na 7 různých doménách zahrnujících mj. žebříček nejlepších filmů, produktů v elektronickém obchodě nebo předpovědi počasí ukázalo, že se úspěšnost aplikace pohybuje ve zhruba 75 % dílčích testů nad 85 % F-skóre a ve více než 90 % testů nad 60 % F-skóre, kde 45 % testů dosahuje F-skóre 100 %. Aplikace VizGet tak může být nasazena pro praktické využití v nekritických aplikacích, přičemž je otevřena dalším rozšířením a možnostem zlepšení.
Nástroj pro rozpoznání a kontrolu objednávek spedice
Kalivoda, Vojtěch ; Hradiš, Michal (oponent) ; Herout, Adam (vedoucí práce)
Cílem této práce je návrh a implementace webového nástroje, který usnadní práci dispečerům spedičních a dopravních firem pomocí automatizovaného rozpoznání důležitých informací v objednávkách. Díky rozpoznání nemusí být všechny informace ručně přepisovány dispečery, což vede k ušetření času. Rozpoznávání objednávek je postaveno na vyhledání entit v dokumentu, reprezentace jejich okolí vektory za pomocí word2vec modelů a následné klasifikace pomocí konvolučních neuronových sítí. Nástroj dokáže v reálném čase rozpoznat 20 typů informací s průměrnou úspěšností 72.35~\%. V rámci práce byl shromážděn dataset necelých 1~700 objednávek a 141 z nich bylo anotováno. Součástí práce je webová aplikace, která slouží jako rozhraní pro nástroj a sběr dat.
Detecting semantic relations in texts and their integration with external data resources
Kríž, Vincent ; Vidová Hladká, Barbora (vedoucí práce)
Tato dizertační práce se zabývá automatickou extrakcí sémantických vztahů z textů. Jsou zkoumány jak metody strojového učení tak i pravidlový přístup. Pro každý přístup se experimentálně ověřuje vliv různých nástrojů pro zpracování přirozeného jazyka na úspěšnost systému. V práci implementujeme systém RExtractor, a vylepšujeme několik nástrojů pro zpracování přirozeného jazyka: od větné segmentace a tokenizace až ke automatickým syntaktickým parserům. Kromě toho, představujeme Český korpus právních textů s několika vrstvami anotací. Korpus byl použit na trénování a testování všech komponent systému RExtractor. Výsledky a nástroje v předkládané práci byli publikovány jako nové zdroje v projektu Sémantického webu.
Rozpoznání pojmenovaných entit v textu
Süss, Martin
Tato práce se zabývá rozpoznáváním pojmenovaných entit v textu, které je realizované technikami strojového učení. V nedávné době byly představeny techniky vytváření modelů vektorových reprezentací slov, které dokáží do vektorů zakódovat mnoho užitečných vztahů mezi slovy v textových datech, jako např. jejich syntaktickou či sémantickou podobnost. Moderní systémy pro rozpoznávání pojmenovaných entit tyto vlastnosti vektorů využívají, čímž výrazněji zlepšují svoji kvalitu. Málo z nich však detailněji zkoumá, jak velký vliv tyto vektory na rozpoznávání mají a jestli je lze optimalizovat pro ještě větší nárůst kvality rozpoznávání. Tato práce zkoumá různé faktory, které mohou ovlivnit kvalitu modelů vektorových reprezentací slov, a tím i výslednou kvalitu rozpoznávání pojmenovaných entit. V práci je vykonána série experimentů, které tyto faktory, jako je kvalita a velikost korpusu, počet dimenzí vektorů, techniky předzpracování textu či různé algoritmy (Word2Vec, GloVe a FastText) a specifické nastavení jejich parametrů, zkoumají. Jejich výsledky přinášejí řadu poznatků, které lze využít při vytváření vektorových reprezentací slov, a tím i nepřímo navýšit výslednou kvalitu rozpoznávání pojmenovaných entit.
Systém pro integraci webových datových zdrojů
Kolečkář, David ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Cílem této diplomové práce je navrhnout a implementovat webovou aplikaci, která bude sloužit pro integraci webových datových zdrojů. K řešení integrace dat byla použita metoda, která využívá doménový model cílového informačního systému. Práce popisuje jednotlivé metody používané na extrakci informací z webových stránek. V textu práce je popsán proces návrhu architektury systému včetně popisu zvolených technologií a nástrojů. Hlavní částí práce je implementace a testování výsledné webové aplikace, která je napsána v jazyce Java a frameworku Angular. Výsledkem této práce je webová aplikace, která uživatelům umožní definici webových datových zdrojů a ukládání dat do cílové databáze.

Národní úložiště šedé literatury : Nalezeno 60 záznamů.   začátekpředchozí21 - 30dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.