Národní úložiště šedé literatury Nalezeno 60 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.02 vteřin. 
Extrakce informací z Wikipedie
Jurišica, Rudolf ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Cílem práce je snížit počet neznámých odkazovaných entit ve článcích české Wikipedie. Dosáhnuto toho bylo jednak za využití pomocných, již existujících řešení, tvořených výzkumnou skupinou KNOT na VUT FIT, a dále pak vytvořením sady programů. Tyto programy se automaticky spouští každý měsíc při vydání nové verze Wikipedie. Automaticky doplní znalostní bázi o nová jména, vygeneruje jejich odvozené tvary, a upraví samotné články přímo na Wikipedii.
Distribuovaný nástroj pro extrakci informace ze síťových toků
Sedlák, Michal ; Grégr, Matěj (oponent) ; Žádník, Martin (vedoucí práce)
Tato práce se zabývá extrakcí informací ze záznamů o tocích, které jsou výsledkem monitorování sítí systémem IPFIX. Cílem práce je navrhnout nástroj umožňující provádět dotazování nad úložištěm síťových toků, které vytváří open-source kolektor IPFIXcol2. Dotazování je prováděno s ohledem na co nejvyšší efektivitu a výkonnost, čehož je docíleno využitím vhodných datových struktur a paralelizací na úrovni vláken a také s využitím více strojů.
Extrakce textových dat z internetových stránek
Troják, David ; Morský, Ondřej (oponent) ; Červenec, Radek (vedoucí práce)
Tato práce se zabývá dolováním textových údajů z webových stránek, přehledem možných programů a způsoby extrakce textu. Součástí je program, vytvořený v programovacím jazyku Java, který umožňuje získávat textová data z konkrétních webových stránek a ukládat je do xml souboru.
Extrakce vztahů mezi pojmenovanými entitami zmíněnými v textu
Voháňka, Ondřej ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá extrakcí vztahů. Vysvětluje základní znalosti nutné pro vývoj extrakčních systémů. Dále popisuje návrh, implementaci a srovnání tří vlastních systémů, které jsou řešeny jinými způsoby. Jsou použity metody jako regulární výrazy, NER a syntaktická analýza. 
Rámec pro extrakci informace z WWW
Brychta, Filip ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Prostředí webu se postupně vyvinulo v nejrozsáhlejší zdroj dokumentů v elektronické podobě, takže by bylo velice výhodné, informace v těchto dokumentech zpracovávat automaticky. To však není jednoduchý úkol, protože většina dokumentů je napsána v HTML (Hypertext Markup Language), který neumožňuje definovat sémantiku dat v těchto dokumentech. Cílem této práce je vytvořit modulární systém pro extrakci informací z HTML dokumentů a jejich další zpracování. Dalším zpracováním se myslí ukládání získaných informací například do XML souboru nebo do relační databáze. Modularita systému umožňuje využití různých extrakčních metod a různých metod pro uložení získaných dat. Díky tomu je systém použitelný pro mnoho různých úloh.
Extrakce informací z Wikipedie
Krištof, Tomáš ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá problematikou extrakce informací z nestrukturovaného textu. V první části jsou čtenáři přiblíženy jednotlivé metody, které se v informačních tech- nologiích používají k extrakci informací. Následně je popsán návrh a realizace systému, který získává požadovaná data ze zadaných článků internetového serveru Wikipedie. V po- slední části práce je provedena analýza dosažených výsledků.
Podpora extrakce informací ze strukturovaného textu
Kliment, Radek ; Petřík, Patrik (oponent) ; Křivka, Zbyněk (vedoucí práce)
Tato bakalářská práce se zabývá způsobem extrakce informací ze strukturovaných textů. Výsledná aplikace provede převod textů podporovaných formátů na XML reprezentaci, nad kterou jsou následně prováděny dotazy, pomocí nichž je vytvořen odpovídající výstup. V práci jsou popsány jednotlivé vstupní formáty, způsob jejich převodu na XML, dále návrh a implementace aplikace, včetně stručného návodu k ovládání.
Extrakce dat z popisu zboží
Sláma, Vojtěch ; Očenášek, Pavel (oponent) ; Burget, Radek (vedoucí práce)
Tato práce se zabývá návrhem a implementací systému pro automatizovanou podporu sběru informací o zboží pro účely elektronických obchodů. Uvádí přehled existujících přístupů pro extrakci informací z HTML dokumentů, zejména se zaměřuje na wrappery a metody jejich automatické konstrukce. Zmíněn je i vizuální přístup k extrakci dat z dokumentů. V části zabývající se návrhem jsou formalizovány požadavky na systém a navrženy základní principy systému. Implementační část obsahuje podrobný popis algoritmu pro hledání cest ve stromu dokumentu. V závěru práce jsou zhodnoceny výsledky dosažené při experimentech.
Extrakce informací z biomedicínských textů
Knoth, Petr ; Burget, Radek (oponent) ; Smrž, Pavel (vedoucí práce)
V poslední době bylo vynaloženo velké úsilí k tomu, aby byly biomedicínské znalosti, typicky uložené v podobě vědeckých článků, snadněji přístupné a bylo možné je efektivně sdílet. Ve skutečnosti ale nestrukturovaná podstata těchto textů způsobuje velké obtíže při použití technik pro získávání a vyvozování znalostí. Anotování entit nesoucích jistou sémantickou informaci v textu je prvním krokem k vytvoření znalosti analyzovatelné počítačem. V této práci nejdříve studujeme metody pro automatickou extrakci informací z textů přirozeného jazyka. Dále zhodnotíme hlavní výhody a nevýhody současných systémů pro extrakci informací a na základě těchto znalostí se rozhodneme přijmout přístup strojového učení pro automatické získávání exktrakčních vzorů při našich experimentech. Bohužel, techniky strojového učení často vyžadují obrovské množství trénovacích dat, která může být velmi pracné získat. Abychom dokázali čelit tomuto nepříjemnému problému, prozkoumáme koncept tzv. bootstrapping techniky. Nakonec ukážeme, že během našich experimentů metody strojového učení pracovaly dostatečně dobře a dokonce podstatně lépe než základní metody. Navíc v úloze využívající techniky bootstrapping se podařilo významně snížit množství dat potřebných pro trénování extrakčního systému.
Systém pro integraci webových datových zdrojů
Kolečkář, David ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Cílem této diplomové práce je navrhnout a implementovat webovou aplikaci, která bude sloužit pro integraci webových datových zdrojů. K řešení integrace dat byla použita metoda, která využívá doménový model cílového informačního systému. Práce popisuje jednotlivé metody používané na extrakci informací z webových stránek. V textu práce je popsán proces návrhu architektury systému včetně popisu zvolených technologií a nástrojů. Hlavní částí práce je implementace a testování výsledné webové aplikace, která je napsána v jazyce Java a frameworku Angular. Výsledkem této práce je webová aplikace, která uživatelům umožní definici webových datových zdrojů a ukládání dat do cílové databáze.

Národní úložiště šedé literatury : Nalezeno 60 záznamů.   1 - 10dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.