Národní úložiště šedé literatury Nalezeno 18 záznamů.  1 - 10další  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Automated Web Page Categorization Tool
Lat, Radek ; Bartík, Vladimír (oponent) ; Malčík, Dominik (vedoucí práce)
This master's thesis describes the design and implementation of a tool for automated web pages categorization. The goal of this tool is to be able to learn from given sample web pages how each category looks like. Later, it should manage to assign these categories to previously unseen web pages. The tool should support multiple categories and languages. Advanced machine learning, language detection, and data mining techniques were used for the development of this tool. It is based on open source libraries and it is written in Python 3.3.
Webová aplikace pro prohledávání zmínek o produktech z internetových portálů
Ledniczky, Péter ; Povoda, Lukáš (oponent) ; Burget, Radim (vedoucí práce)
Cieľom tohto projektu je vytvorenie programu, ktorý bude automaticky zbierať dostupný textový obsah z internetu a následne v ňom vyhľadá vopred zadané kľúčové slová. Na základe ich výskytu vykoná analýzu náladového indexu textu. Výsledky hodnotenia sú následne prezentované prostredníctvom grafov. Práca je vyhotovená s použitím technológií HTML, CSS, JavaScript, PHP a SQL.
Web jako zdroj dat pro automatické vytváření morfologického slovníku
Bulka, Pavol ; Matějka, Pavel (oponent) ; Smrž, Pavel (vedoucí práce)
Tvorba slov v přirozeném jazyce se zakládá na pravidlech, které jsou komplexní, často je nemožné je jednoznačně formálně definovat. Proto se při zpracování přirozeného jazyka využívají morfologické slovníky. Tato práce se zaobírá vytvářením morfologického slovníku z dat sesbíraných z webových stránek slovenské národní domény. Přičemž se zaměřuje nejen na tvorbu slovníku, ale i na získávání dat, jejich zpracování do použitelné podoby pro účely morfologické analýzy, ale i vhodnými datový­mi strukturami pro jejich uložení. Dále objasňuje základní principy a pojmy morfologické analýzy a tvorby slov při zpracování přirozeného jazyka počítačem. Vytvořený systém, který je popsaný v této práci, produkuje ze vstupních dat morfologický slovník, který může být použitý v různých aplikacích, například korektoru pravopisu, strojového překladu textu a podobně.
Nástroj pro automatické získávání informací z webu
Poliak, Jakub ; Harár, Pavol (oponent) ; Povoda, Lukáš (vedoucí práce)
Bakalářská práce se zabývá vytvořením nástroje pro shromáždění kladných a záporných komentářů z jednoho předního čínského e-shopu do databáze. Ta bude následně využita pro tzv. hluboké učení umělé neuronové sítě, která má rozeznávat pozitivní a negativní význam z textu. Nástroj byl napsán v programovacím jazyce Java s využitím knihoven JSON-simple a jsoup.
Pásový podvozek lesního traktoru
Plichta, Zbyněk ; Kašpárek, Jaroslav (oponent) ; Škopán, Miroslav (vedoucí práce)
Bakalářská práce v první části představuje pásové podvozky používané u lesních traktorů a harvestorů. Obsahem druhé části je koncepční návrh pásového pojezdového ústrojí pro lesní traktor zadaných parametrů. Návrh se zabývá uspořádáním podvozku, volbou vhodného pásu a kladek. Dále se snaží najít vhodné řešení odpružení pojezdových kladek s dostatečným zdvihem při zachování malých rozměrů podvozku. Výstupem této práce je výkres navrženého pásového pojezdového ústrojí.
Služba pro ověření spolehlivosti a pečlivosti českých advokátů
Jílek, Radim ; Glembek, Ondřej (oponent) ; Szőke, Igor (vedoucí práce)
Tato práce se zabývá návrhem a implementací internetové služby, která umožňuje objektivně posoudit a ověřit spolehlivost a pečlivost českých advokátů, a to na základě veřejně dostupných dat několika soudů. Cílem práce je vytvořit a zprovoznit tuto službu. Výsledkem práce jsou programy zajišťující dílčí úkony při realizaci tohoto záměru.
Automatizované vyhledávání a uchovávání recenzí o produktech
Voráč, Tomáš
Diplomová práce se zabývá problémem automatizovaného vyhledání recenzí na webové stránce a dále také ukládáním nalezených recenzí. V práci jsou podrobně rozepsány možnosti ukládání nestrukturovaných dat a následný výběr nejvhodnějšího úložiště. Hlavní část práce se zabývá rozborem HTML struktury tak, aby bylo možné nalézt požadované informace na webové stránce. Tato práce se zabývá i způsoby určení podobnosti textových řetězců, aby bylo možné určit k jakému produktu nalezená recenze patří. K implementaci byl použit programovací jazyk Python.
Služba pro ověření spolehlivosti a pečlivosti českých advokátů
Jílek, Radim ; Glembek, Ondřej (oponent) ; Szőke, Igor (vedoucí práce)
Tato práce se zabývá návrhem a implementací internetové služby, která umožňuje objektivně posoudit a ověřit spolehlivost a pečlivost českých advokátů, a to na základě veřejně dostupných dat několika soudů. Cílem práce je vytvořit a zprovoznit tuto službu. Výsledkem práce jsou programy zajišťující dílčí úkony při realizaci tohoto záměru.
Analysis of Real-World XML Queries
Hlísta, Peter ; Holubová, Irena (vedoucí práce) ; Svoboda, Martin (oponent)
Účelem této práce bylo shromáždit a analyzovat běžně používané XQuery programy. Ke sběru dat z internetu je nejčastěji využíván program zvaný crawler. Součástí této práce byla analýza různých crawlerů a výběr nejvhodnějšího z nich. Tento crawler byl následně upraven tak, aby nevytěžoval servery, sbíral správná data a bylo možné jeho činnost pozastavit. Před započetím sběru dat bylo nejprve nutné určit, kde bude vhodné začít a jak dlouho by celý proces měl trvat. Data jsme po stažení očistili, opravili a zvalidovali. Předmětem analýz bylo používání XQuery jazyka a jeho gramatických konstruktů (symbolů). Také jsme analyzovali XML dokumenty používané v XQuery programech a výstupy z XQuery programů. Hlavní přínosy práce jsou v množství stažených dat (v porovnání s jinými zdroji), v stažení XML dokumentů nad nimiž se dotazují, použití Analyzeru na analyzování reálných XQuery programů a spouštění těchto reálných XQuery programů nad jejich XML dokumenty.
Analysis of Real-World XML Queries
Hlísta, Peter ; Holubová, Irena (vedoucí práce) ; Klímek, Jakub (oponent)
Účelem této práce bylo shromáždit a analyzovat běžně používané XQuery programy. Ke sběru dat z internetu je nejčastěji využíván program zvaný crawler. Součástí této práce byla analýza různých crawlerů a výběr nejvhodnějšího z nich. Tento crawler byl následně upraven tak, aby nevytěžoval servery, sbíral správná data a bylo možné jeho činnost pozastavit. Před započetím sběru dat ještě zbývalo určit, kde bude vhodné začít a jak dlouho by celý proces měl trvat. Po skončení hlavní části pak ještě zbývalo data vyčistit a ověřit jejich validitu. Předmětem následných analýz bylo použití dotazovacího jazyka XQuery a výskyt jeho gramatických symbolů. K provedení těchto analýz byla použita kombinace XPath dotazovacích výrazů a XML reprezentace XQuery programů. Pro vytvoření zmíněných reprezentací byl použit nástroj XQConveror. Hlavní přínosem této práce jsou vlastní sběr dat a také první analýza běžně používaných XQuery programů.

Národní úložiště šedé literatury : Nalezeno 18 záznamů.   1 - 10další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.