Národní úložiště šedé literatury Nalezeno 45 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Methods for effective querying of RDF data
Dokulil, Jiří ; Pokorný, Jaroslav (vedoucí práce) ; Svátek, Vojtěch (oponent) ; Benczúr, András (oponent)
RDF je jedním ze základních stavebních kamenů sémantického webu. Je to nízkoúrovňový formát, který lze pouít pro vývoj sémantických aplikací. Schopnost položit a efektivně vyhodnotit dotaz je při tvorbě těchto aplikací nezbytnou podmínkou. Tato práce přistupuje k problému dotazování nad RDF daty ze tří stran. Za prvé, popisuje nástroj pro vizualizaci RDF dat, který umožňuje vývojářům získat lepší představu o struktuře a obsahu dat. Za druhé, práce popisuje rozšíření jazyka XQuery, které nám umožnilo přidat do něj možnost zpracování RDF dat. Hlavní myšlenkou je zavedení záznamů jakožto nového druhu hodnot. Posledním aspektem zahrnutým v této práci je otázka efektivního vyhodnocení dotazů. Za tímto účelem jsme navrhli platformu Bobox, která výrazně zjednodušuje vývoj aplikací pro paralelní zpracování rozsáhlých dat a podporuje kódovou i datovou paralelizaci.
Process Mediation Framework for Semantic Web Services
Vaculín, Roman ; Neruda, Roman (vedoucí práce) ; Nečaský, Martin (oponent) ; Svátek, Vojtěch (oponent)
The goal of Web services is to enable interoperability of heterogeneous software systems. Semantic Web services enhance syntactic specifications of traditional Web services with machine processable semantic annotations to facilitate interoperability. AsWeb services get popular in both corporate and open environments, the ability to deal with uncompatibilities of service requesters and providers becomes a critical factor for achieving interoperability. Process mediation solves the problem of interoperability by identifying and resolving all incompatibilities and by mediating between service requesters and providers. In this thesis we address the problem of process mediation of Semantic Web services. We introduce an Abstract Process Mediation Framework that identifies the key functional areas to be addressed by process mediation components. Specifically, we focus on process mediation algorithms, discovery of external services, monitoring, and fault handling and recovery. We present algorithms for solving the process mediation problem in two scenarios: (a) when the mediation process has complete visibility of the process model of the service provider and the service requester (complete visibility scenario), and (b) when the mediation process has visibility only of the process model of the service provider but...
Znalostní systémy na sémantickém webu
Pinďák, Josef ; Zamazal, Ondřej (vedoucí práce) ; Svátek, Vojtěch (oponent)
Cílem práce je seznámení s problematikou znalostních systémů na sémantickém webu. Analyzovat případové studie a případy užití vystavených na webovém portálu W3C a vytvořit znalostní bázi pro expertní systém NEST, který pak následně doporučí na základě analýzy případové studie, nebo případu užití klasifikaci do určitého typu znalostního systému. Dosažení cíle je realizováno prostřednictvím analýzy případových studií a případů užití. Výsledkem analýzy je přiřazení kritérií případové studii, nebo případu užití. Na základě kritérií, která jsou předána expertnímu systému. Expertní systém doporučí klasifikaci případové studie nebo případu užití. Znalostní báze též ke svému vývoji využila dat z disertační práce[1], kde jsou znalostní systémy již rozčleněny do jednotlivých typů. Přínosem práce je vytvoření expertního systému, který umožní uživateli získat doporučení, jak určit typ neznámého znalostního systému, a tím tedy i oblast jeho potenciálního využití. Úvodní dvě kapitoly jsou věnovány teoretickému zázemí znalostních systémů a sémantickému webu. Třetí kapitola vysvětluje postup použité analýzy a konečně čtvrtá kapitola se věnuje vytváření znalostní báze pro systém NEST.
Ontologie přístupnosti budov
Hazuza, Petr ; Svátek, Vojtěch (vedoucí práce) ; Mynarz, Jindřich (oponent)
V rámci projektu Mapy bez bariér, který realizuje Nadace Charty 77 - Konto Bariéry, proběhne v roce 2015 mapování přístupnosti objektů z pohledu osob s omezenou hybností. Zmapováno bude bezmála 600 hradů, zámků či jinak turisticky atraktivních objektů po celé České republice, naměřené údaje budou vyneseny na on-line mapu, ale především budou publikovány jako otevřená a strojově čitelná data mj. i v podobě propojených otevřených dat. Projekt však zmapováním zmíněných objektů nekončí. Jeho cílem je rovněž položit základy jednotného uložiště dat o přístupnosti objektů. Probíhají jednání s mapujícími organizacemi i institucemi, které mají o toto mapování zájem, a je jim nabízena platforma pro publikaci jejich dat. Potřebný RDFS slovník pak vzniká v rámci této diplomové práce. Otestován bude na datech z několika formulářů popisujících existující objekty prostřednictvím služeb pro pořizovatele i uživatele služeb, které budou také navrženy jako součást této práce.
Dolování asociačních pravidel jako podpora pro OLAP
Chudán, David ; Svátek, Vojtěch (vedoucí práce) ; Máša, Petr (oponent) ; Novotný, Ota (oponent) ; Kléma, Jiří (oponent)
Cílem této práce je identifikovat možnosti komplementárního využití dvou metod datové analýzy, OLAP analýzy a dobývání znalostí z databází reprezentovaného GUHA asociačními pravidly. Použití těchto dvou metod v rámci navrhovaných scénářů na jednom datasetu se prokazuje synergický efekt, kdy výsledné znalosti získané z dat předčí výsledky použití obou těchto analytických metod nezávisle na sobě. To je hlavní přínos této práce. Dalším přínosem je originální využití GUHA asociačních pravidel jakožto techniky dobývání znalostí z databází, kdy dolování probíhá na agregovaných datech. GUHA asociační pravidla ve svých možnostech předčí klasická asociační pravidla uváděná v literatuře. Výsledky experimentů na reálných datech prokazují nalezení nestandardních trendů v datech, jejichž identifikace standardními metodami OLAP analýzy by vyžadovala ruční procházení dané OLAP kostky, což je časově velice náročné. Naopak při samotném použití asociačních pravidel se ztrácí celkový pohled na data, který je velmi dobře prezentován OLAP kostkou. Je možné prohlásit, že se tyto dvě metody velmi dobře doplňují. Součástí řešení je rovněž využití skriptovacího jazyka LMCL, který automatizuje vybrané části procesu dobývání znalostí z databází. Navrhovaný doporučovací nástroj by následně odstínil uživatele od asociačních pravidel a umožnil tak i běžným analytikům neznalým teorie využít jejich možnosti. Práce kombinuje kvantitativní a kvalitativní výzkum. Kvantitativní výzkum je reprezentován experimenty s reálnými daty, návrhem doporučovacího systému a implementací vybraných částí procesu dobývání znalostí z databází s využitím skriptovacího jazyka LMCL. Kvalitativní výzkum je reprezentován strukturovaným rozhovorem s vybranými experty z dané oblast, kteří potvrzují smysluplnost navrhovaných metod v této práci.
Modelování událostí na sémantickém webu
Hanzal, Tomáš ; Svátek, Vojtěch (vedoucí práce) ; Vacura, Miroslav (oponent)
Na sémantickém webu je mnoho ontologií a datasetů, které se zmiňují o událostech. Události jsou důležité pro naše vnímání světa i jeho popisování, a proto i pro sémantický web. Přitom není jediný nejlepší způsob jak je modelovat. To souvisí s tím, že i k otázce, co to události jsou, lze přistupovat různě. Naším cílem je lépe porozumět tomu, jak jsou události na sémantickém webu reprezentovány a co by na tom bylo možné vylepšit. Kvůli tomu se nejprve zabýváme způsoby, kterými jsou události pojímány ve filosofii a v obecných (foundational) ontologiích. Ptáme se mimo jiné na to, co nazýváme událostmi, jaký ontologický statut událostem přisuzujeme a zda a jak lze události odlišit od jiných entit jako jsou situace. Poté se přesuneme k empirické analýze jednotlivých ontologií pro modelování událostí na sémantickém webu. V této analýze zjistíme, co se obvykle na sémantickém webu nazývá událostmi (a jaké druhy událostí se zde vyskytují). Pro kritické zhodnocení těchto ontologií využíváme poznatky z filosofie událostí. Ukazujeme jejich problémy a naznačujeme cesty k jejich řešení.
Hromadná extrakce dat veřejné správy do RDF
Pomykacz, Michal ; Svátek, Vojtěch (vedoucí práce) ; Mynarz, Jindřich (oponent)
Předložená diplomová práce se zabývá úlohou extrakce českých veřejných zakázek a extrakce číselníků a klasifikací, doplňujících informace k veřejným zakázkám. Cílem práce je realizovat pravidelnou extrakci zmíněných dat z formátů (HTML, XML a XSL), transformovat je do formátu RDF a zpřístupnit je ve formě Linked Data pomocí SPARQL koncového bodu. K dosažení cíle je třeba navrhnout a implementovat extrakční nástroje určené jako moduly pro nástroj UnifiedViews, ve kterém jsou pravidelné extrakce realizovány. V teoretické části práce jsou nejprve vysvětleny principy propojených dat, poté jsou představeny klíčové nástroje, které jsou pro pravidelnou extrakci RDF dat a jejich zpřístupnění využity. Praktická část práce se zabývá návrhem a implementací extraktorů. Součástí popisu implementace extraktorů je vysvětlení způsobů extrakcí dat pro různé formáty datasetů a jejich převedení do RDF formátu. V závěru práce je zhodnocena úspěšnost jednotlivých extrakcí a uvažována využitelnost výsledků práce v praxi.
Využití propojených dat na webu ke tvorbě strategické znalostní hry
Turečková, Šárka ; Svátek, Vojtěch (vedoucí práce) ; Zeman, Václav (oponent)
Všeobecným tématem této diplomové práce bylo využití propojených dat na webu ke tvorbě her. Tato práce se konkrétněji zabývala použitelností DBpedie pro automatické generování otázek vhodných pro využití ve hrách. V rámci toho jsou zde navrženy vhodné způsoby výběru jen chtěných objektů z DBpedie a způsoby získávání a zpracovávání relevantních informací z nich. A to včetně způsobu odhadnutí známosti jednotlivých objektů. Některé postupy jsou poté uplatněny při tvorbě programu pro pokládání znalostních otázek z dat získávaných z DBpedie za chodu aplikace. Reálná možnost použití takto generovaných otázek z DBpedie pro tvorbu her je následně dokázána pomocí návrhu, prototypu a testování znalostní strategické hry pro více hráčů. V práci jsou také shrnuty veškeré hlavní problémy a možné komplikace při používání dat z endpointů DBpedie či DBpedie Live. Jsou tu také stručně zmíněny aktuální problémy a možnosti vzájemného využití her a propojených dat na webu.
Extraction of unspecified relations from the web
Ovečka, Marek ; Svátek, Vojtěch (vedoucí práce) ; Labský, Martin (oponent)
Předmětem diplomové práce je extrakce nespecifikovaných znalostí z webu. V posledních letech vznikly nástroje, které zlepšují výsledky odvětví extrakce znalostí. Cílem práce je seznámit se s těmito nástroji, jeden otestovat a navrhnout využití výsledků. V práci jsou popsány a porovnány tyto nástroje a provedeny extrakce pomocí funkce OLLIE. Na základě výsledků extrakcí jsou navrženy dvě metody obohacení extrakcí pomocí rozeznání pojmenovaných entit. První metoda navrhuje úprava číselných vah kvality extrakcí a druhá obohacení textu extrakcí pomocí pojmenovaných entit. V práci je navržena ontologie, která umožnuje zachytit strukturu obohacených extrakcí. V poslední části je proveden praktický experiment, kde jsou navrženy metody předvedeny. Návrhem dalšího směřování výzkumu v této oblasti by bylo extrahovat a kategorizovat relační vztahy.
Background annotation entit v Linked Data slovníků
Serra, Simone ; Svátek, Vojtěch (vedoucí práce) ; Zamazal, Ondřej (oponent)
Jedním z klíčovým prvkem za Linked Data je použití slovníků, které umožňují datasety sdílet společný jazyk k popisu podobné pojmy a vztahy a vyřešit nejasnosti mezi nimi. Rozvoj slovníků je často poháněn procesu shody mezi realizátorů datasety, ve které je kritérium interoperability považována za dostatečnou. To může vést ke zkreslení reálných entit Linked Data slovníky. Tyto nedostatky lze odstranit použitím formální metodiky pro modelování Linked Data slovníků a identifikaci ontologické rozdíly. Osvědčené příkladem je OntoClean metodika pro vytvrzování taxonomií. V této práci se představila softwarový nástroj, který implementuje PURO přístup k ontologické rozlišování modelování. PURO modeluje slovníky jako ontologický foreground modely (OFM) a struktura ontologických rozdílů jako ontologické background modely (OBM), vyrobena s použitím meta-vlastnosti připojené k entitám slovníků v procesu známém jako anotace slovníků. Softwarový nástroj s názvem Background Annotation plugin, napsán v Javě a integrován do editoru ontologií Protégé, umožňuje uživateli graficky anotaci entit slovníků prostřednictvím anotace workflow, která implementuje, mimo jiné, vytrvalosti anotací a jejich načítaní. Dva druhy pracovních režimů jsou podporovány: obecné a dataset specifické, aby se odlišily slovník použití, pokud jde o PURO OBM, s ohledem na daný Linked Data dataset. Workflow je zvýšený použitím statistických ukazatelů Linked Data datasetů získaných prostřednictvím služby Sindice, u vzorku vybraných datasetů, jako je počet entit přítomných v datasetu a relativní četnosti entit slovníku v tomto datasetu. Další posílení poskytuje přehled datasetů, který nabízejí přehled nejběžnějších cest nacházející v datasetu. Předpokládané využití pluginu pozadí Anotace patří: 1) kontrola mapování dohody mezi různými datasety, jako vyrobené rámci R2R a 2) Anotace závislých zdrojů v Concise Bouded Descriptions entit, které se používají při vzorkování dat ze Linked Data datasetů pro účel dolováni dat.

Národní úložiště šedé literatury : Nalezeno 45 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.