Národní úložiště šedé literatury Nalezeno 75 záznamů.  začátekpředchozí66 - 75  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Extrakce informací z biomedicínských textů
Knoth, Petr ; Burget, Radek (oponent) ; Smrž, Pavel (vedoucí práce)
V poslední době bylo vynaloženo velké úsilí k tomu, aby byly biomedicínské znalosti, typicky uložené v podobě vědeckých článků, snadněji přístupné a bylo možné je efektivně sdílet. Ve skutečnosti ale nestrukturovaná podstata těchto textů způsobuje velké obtíže při použití technik pro získávání a vyvozování znalostí. Anotování entit nesoucích jistou sémantickou informaci v textu je prvním krokem k vytvoření znalosti analyzovatelné počítačem. V této práci nejdříve studujeme metody pro automatickou extrakci informací z textů přirozeného jazyka. Dále zhodnotíme hlavní výhody a nevýhody současných systémů pro extrakci informací a na základě těchto znalostí se rozhodneme přijmout přístup strojového učení pro automatické získávání exktrakčních vzorů při našich experimentech. Bohužel, techniky strojového učení často vyžadují obrovské množství trénovacích dat, která může být velmi pracné získat. Abychom dokázali čelit tomuto nepříjemnému problému, prozkoumáme koncept tzv. bootstrapping techniky. Nakonec ukážeme, že během našich experimentů metody strojového učení pracovaly dostatečně dobře a dokonce podstatně lépe než základní metody. Navíc v úloze využívající techniky bootstrapping se podařilo významně snížit množství dat potřebných pro trénování extrakčního systému.
Metody extrakce informací
Adamček, Adam ; Smrž, Pavel (oponent) ; Kouřil, Jan (vedoucí práce)
Cílem procesu extrakce informací je získání relačních dat z textu psaného přirozeným jazykem na další jednodušší zpracování výpočetní technikou. Oblast využití takto získaných informací je široká - od sumarizace textů, přes vytváření ontologií až po zodpovídání otázek QA systémy. Tato práce popisuje návrh a implementaci systému fungujícího ve výpočetním clusteru, který transformuje výpis článků Wikipedie na množinu vyextrahovaných informací, které jsou následně uloženy do distribuované RDF databáze a je nad nimi možné sestavovat dotazy prostřednictvím vytvořeného uživatelského rozhraní.
Extrakce textových dat z internetových stránek
Mazal, Zdeněk ; Morský, Ondřej (oponent) ; Fojtová, Lucie (vedoucí práce)
Tato práce se zabývá získávání textových dat z webových stránek, přehledem jednotlivých wrpapperů a způsobů jejich extrakce. Obsahuje i přehled nejpoužívanějších programů pro extrakci dat z internetu. Součástí je program, vytvořený v programovacím jazyku Java, který umožňuje získávat textová data z konkrétních webových stránek a ukládat je do xml souboru.
Hromadná extrakce dat veřejné správy do RDF
Pomykacz, Michal ; Svátek, Vojtěch (vedoucí práce) ; Mynarz, Jindřich (oponent)
Předložená diplomová práce se zabývá úlohou extrakce českých veřejných zakázek a extrakce číselníků a klasifikací, doplňujících informace k veřejným zakázkám. Cílem práce je realizovat pravidelnou extrakci zmíněných dat z formátů (HTML, XML a XSL), transformovat je do formátu RDF a zpřístupnit je ve formě Linked Data pomocí SPARQL koncového bodu. K dosažení cíle je třeba navrhnout a implementovat extrakční nástroje určené jako moduly pro nástroj UnifiedViews, ve kterém jsou pravidelné extrakce realizovány. V teoretické části práce jsou nejprve vysvětleny principy propojených dat, poté jsou představeny klíčové nástroje, které jsou pro pravidelnou extrakci RDF dat a jejich zpřístupnění využity. Praktická část práce se zabývá návrhem a implementací extraktorů. Součástí popisu implementace extraktorů je vysvětlení způsobů extrakcí dat pro různé formáty datasetů a jejich převedení do RDF formátu. V závěru práce je zhodnocena úspěšnost jednotlivých extrakcí a uvažována využitelnost výsledků práce v praxi.
Mobilní personální asistenti
Techl, Jan ; Sigmund, Tomáš (vedoucí práce) ; Labský, Martin (oponent)
Tato práce je zaměřena na analýzu, vymezení a popis technologie mobilních personálních asistentů, fenoménu posledních několika let. Mobilní personální asistenti jsou nejprve uvedeni v kontextu počítačové lingvistiky a informační potřeby, která je jednou z motivací k jejich použití. Hlavně se ale práce zabývá představením stěžejních technologií pro komunikaci asistenta a jeho uživatele v přirozeném jazyce, prostředím jejich nasazení a jejich využitím. Práce také představuje omezení a rizika, která z použití personálních asistentů plynou a mohou mít vliv na jejich použitelnost. Vedle analýzy je předmětem práce také návrh a implementace systému porozumění přirozenému jazyku (NLU), který bude použitelný do konkrétní aplikace personálního asistenta. Tento systém sestává z anotačního schématu a souboru komponent, které jsou společně realizovány ve formě webové služby. Průběh implementace a výsledky ukázaly, že navržená architektura a použité nástroje jsou vhodným základním řešením ke tvorbě NLU systému, neboť pomocí nich byl postaven funkční NLU systém podle požadovaných parametrů. Je však těžkým cílem dosáhnout vysoké přesnosti, která závisí na velikosti datové kolekce a dalších faktorech. Výsledky aplikace jsou však dobrým startovním bodem pro její další zpřesňování a pro vývoj, ve kterém se bude její funkcionalita rozšiřovat.
Extrakce strukturovaných dat z českého webu s využitím extrakčních ontologií
Pouzar, Aleš ; Svátek, Vojtěch (vedoucí práce) ; Labský, Martin (oponent)
Předkládaná práce se zabývá úlohou automatické extrakce informací z HTML dokumentů ve dvou vybraných doménách. Ze stránek e-shopů jsou extrahovány nabídky notebooků a z webových prezentací firem volně publikované pracovní nabídky. Výsledkem extrakčního procesu jsou strukturovaná data uspořádaná do záznamů, ve kterých je každému údaji přiřazena odpovídající sémantická značka. Pro realizaci úlohy byl vybrán extrakční systém Ex, který kombinuje dva typy extrakčních znalostí: ručně zadaná pravidla a supervizované algoritmy strojového učení. Díky expertní znalosti v podobě extrakčních pravidel lze účinně kompenzovat nedostatek trénovacích dat. Pravidla jsou přitom nezávislá na konkrétní formátovací struktuře a jeden extrakční model je tak možné využít pro heterogenní množinu dokumentů. Dosažená úspěšnost v extrakci nabídek notebooků ukázala, že by extrakční ontologie, popisující jeden nebo několik málo typů produktů, mohla být úspěšně využita v kombinaci s metodami pro indukci wrapperů a tím automaticky extrahovat nabídky všech typů produktů na úrovni webu.
Extrakce informací z webových stránek pomoci extrakčních ontologií
Labský, Martin ; Berka, Petr (vedoucí práce) ; Strossa, Petr (oponent) ; Vojtáš, Peter (oponent) ; Snášel, Václav (oponent)
S rozvojem Internetu a růstem množství textových dokumentů vzrostla během posledního desetiletí poptávka po nástrojích pro automatickou extrakci informací (IE - information extraction). Úkolem IE je nalézt v analyzovaných dokumentech údaje předem specifikovaného sémantického typu a tyto extrahovat pro potřeby dalších aplikací. Analyzovanými dokumenty mohou přitom být webové stránky, e-maily, dokumenty uvnitř firemních informačních systémů, ale i běžné textové zdroje jakými jsou noviny a časopisy. Aplikace, které nejčastěji využívají výsledky IE, zahrnují tradiční textové vyhledávače, které lze pomocí IE rozšířit o tzv. strukturované vyhledávání, dále systémy pro automatické zodpovídání otázek nebo např. aplikace pro podporu posuzování kvality webových stránek. Tato práce se zabývá vývojem metod a nástrojů pro IE, které jsou obzvláště vhodné pro extrakci ze semi-strukturovaných dokumentů, jakými jsou webové stránky, a pro situace kdy existuje málo trénovacích dat. Hlavním přínosem této práce je navržený přístup rozšířených extrakčních ontologií, který v sobě kombinuje využití extrakčních znalostí tří typů: (1) expertem zadané extrakční znalosti, (2) znalosti naučené z trénovacích dat a (3) znalosti indukované na základě opakující se formátovací struktury, která se často ve webových stránkách nachází. Naše hypotéza je, že současné využití všech tří typů znalostí extrakčním algoritmem může přispět k celkové přesnosti a robustnosti extrakce. Motivací pro tuto práci byl malý počet dosud popsaných metod pro IE, které by využívaly všechny zmíněné typy extrakční znalosti. Jako první je v tomto textu popsán statistický trénovaný přístup k IE založený na skrytých markovských modelech, který je dále integrován s několika trénovanými klasifikátory obrázků tak, aby bylo možno extrahovat jak textové položky, tak obrázky. Přístup je demonstrován a hodnocen na úloze extrakce popisů bicyklů nabízených různými internetovými obchody. Popsáno je i několik algoritmů pro klasifikaci obrázků s použitím různých množin rysů pro klasifikaci. Tyto trénované přístupy jsou posléze integrovány v rámci navržené metody rozšířených extrakčních ontologií, navazující na práci D.W. Embleyho, kterou rozšiřuje o současné využití všch tří výše zmíněných typů extrakční znalosti. Zamýšlenými přínosy extrakčních ontologií jsou rychlý vývoj funkčního prototypu, jeho plynulý přechod do finální IE aplikace a možnost využít různá množství tří typů extrační znalosti podle jejich dostupnosti. Protože extrakční ontologie je typicky odvozena z vhodné doménové ontologie a zůstává ve středu extrakčního procesu, minimalizuje tento přístup úsilí nutné pro zpětnou konverzi extrahovaných výsledků pro populaci zdrojové ontologie či datového schématu. Výsledky navrženého přístupu jsou prezentovány pro několik reálných domén.
Extrakce informací z webových stránek pro e-environment
Dědek, Jan ; Vojtáš, Peter
Článek diskutuje možnosti použití metod pro extrakci informací z webu, které by zlepšily dostupnost informací o životním prostředí na webových stránkách. Hlavním přínosem je automatická metoda pro získávání informací z webových stránek a jejich anotaci pomocí ontologií.
Ontology Learning and Information Extraction for the Semantic Web
Kavalec, Martin ; Berka, Petr (vedoucí práce) ; Štěpánková, Olga (oponent) ; Snášel, Václav (oponent)
The work gives overview of its three main topics: semantic web, information extraction and ontology learning. A method for identification relevant information on web pages is described and experimentally tested on pages of companies offering products and services. The method is based on analysis of a sample web pages and their position in the Open Directory catalogue. Furthermore, a modfication of association rules mining algorithm is proposed and experimentally tested. In addition to an identification of a relation between ontology concepts, it suggest possible naming of the relation.

Národní úložiště šedé literatury : Nalezeno 75 záznamů.   začátekpředchozí66 - 75  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.