Žádný přesný výsledek pro Martin,, BERKA nebyl nalezen, zkusme místo něj použít Martin BERKA ...
Národní úložiště šedé literatury Nalezeno 30 záznamů.  začátekpředchozí21 - 30  přejít na záznam: Hledání trvalo 0.15 vteřin. 
Sportcentrum
Maděránek, Martin ; Berka, Pavel (oponent) ; Donaťáková, Dagmar (vedoucí práce)
Řešením bakalářské práce je Sportcentrum v okolí Brněnské přehrady. Objekt je zděný, dvoupodlažní, nepodsklepený, zastřešený plochou střechou. V prvním podlaží se nachází sportovně-relaxační místnosti a restaurace, v druhém podlaží zázemí pro zaměstnance.
Webový grafický editor báze znalostí pro expertní systém NEST
Kozák, Martin ; Zamazal, Ondřej (vedoucí práce) ; Berka, Petr (oponent)
Hlavním cílem práce je tvorba editoru báze znalostí, který je dostupný a spustitelný online. Zároveň má uživateli poskytnout veškeré nástroje potřebné k tvorbě bází znalostí v grafickém, a uživatelsky přívětivém prostředí. Editor je vytvářen pro systém NEST (Nový Expertní SysTém), jenž je expertním systémem, který byl vytvořen na VŠE v Praze. Vzniklý editor je pojmenován WEBZ (Webový Editor Báze Znalostí) a je realizován jako webová aplikace, WEBZ je napsán v programovacím jazyce Java a je vytvořen prostřednictvím frameworku Vaadin. Vaadin je framework určený k vývoji webových aplikací, který umožňuje a usnadňuje tvorbu graficky přehledných uživatelských rozhraní. Tato práce nejprve obsahuje teoretický úvod do problematiky expertních systémů, kde je stručně popsán expertní systém NEST. Popis NESTu pokračuje v druhé kapitole, která je zaměřená na bázi znalostí v tomto expertním systému. Dále je stručně představen framework Vaadin, poté práce pokračuje porovnáním WEBZ a předchozích editorů báze znalostí. Poslední dvě kapitoly jsou věnovány přímo editoru WEBZ a sice uživatelskému a programátorskému pohledu na tento editor.
Analýza reálných dat produktové redakce Alza.cz pomocí metod DZD
Válek, Martin ; Berka, Petr (vedoucí práce) ; Kliegr, Tomáš (oponent)
Tato práce se zabývá analýzou dat pomocí metod dobývání znalostí z databází. Cílem je vybrat vhodné metody a nástroje a použít je pro realizaci konkrétního projektu založeného na reálných datech od produktové redakce společnosti Alza.cz. Analýza dat je prováděna pomocí asociačních pravidel a rozhodovacích pravidel v systému Lisp-Miner a pomocí rozhodovacích stromů v systému RapidMiner. Použitá metodika je CRISP-DM. Práce je rozdělena do třech hlavních částí. Úvodní část se zaměřuje na souhrn teoretických informací o dobývání znalostí z databází. Jsou zde definovány základní pojmy a popsány typy úloh a vybrané metody DZD použitelné pro praktickou část práce. Ve druhé části je představena metodologie CRISP-DM. V praktické části je nejprve představena společnost Alza.cz a její cíle pro tuto úlohu. Následně je popsána základní struktura dat a jejich příprava pro data miningovou úlohu, která po těchto krocích následuje. V závěru jsou vyhodnoceny získané výsledky a nastíněna možnost jejich využití.
Teoretické podklady pro určení transportu erozí pro návrhovou srážku
BERKA, Martin
Tato bakalářská práce je zaměřena na erozní činnost a její následnou eliminaci, v podobě protierozních opatření. Zájmová oblast se nachází v katastrálním území Čížov u Jihlavy. Pro výpočet erozního ohrožení byla použita Wischmeier-Smithova rovnice. Na návrh má vliv několik faktorů. Jsou to srážkový úhrn, vegetační pokryv, půdní charakteristika, morfologie terénu a jiné.
Faktory úspěchu v rané fázi podnikání
Berka, Michal ; Lukeš, Martin (vedoucí práce) ; Andera, Michal (oponent)
Tato práce diskutuje faktory úspěchu v rané fázi podnikání za podmínek současného podnikatelského prostředí. Opírá se o vzorek 200 případů dokumentovaných prostřednictvím rozhovorů se zakládajícími podnikateli které byly zakódovány dle více než 40 kvantitativních ukazatelů -- tento výstup byl následně za pomoci statistických metod vyhodnocen. Výstupem je zevrubná analýza každého ze zkoumaných kritérií a vyhodnocení jeho vlivu na podnikatelský úspěch, shrnuta v závěru jako seznam nejvýznamnějších faktorů úspěchu. Práce by mohla být přínosem nejen pro akademickou obec, ale i pro budoucí či stávající podnikatele.
Zpracování asociačních pravidel metodou vícekriteriálního shlukování
Kejkula, Martin ; Rauch, Jan (vedoucí práce) ; Berka, Petr (oponent) ; Máša, Petr (oponent)
Cílem této práce je navrhnout metodu, která by umožňovala zpracovat množinu asociačních pravidel: měla by poskytovat strukturovaný, přehledný popis celé množiny asociačních pravidel, získané libovolnou implementací nějakého algoritmu pro hledání asociačních pravidel v analyzovaných datech. Měla by uživateli poskytnout přehled o množině vygenerovaných asociačních pravidel a usnadnit její zpracování. Způsob dosažení cíle, zvolený v této práci je: rozdělit množinu asociačních pravidel do podmnožin. Asociační pravidla v jedné podmnožině by si měla být vzájemně více podobná než pravidla ze dvou různých podmnožin. Hlavním přínosem této práce je nová originální metoda zpracování asociačních pravidel. Vedlejším přínosem práce je rozsáhlá rešerše publikovaných metod zpracování asociačních pravidel. Metoda vícekriteriálního shlukování poskytuje rozdělení asociačních pravidel do skupin vzájemně si podobných pravidel (tzv. "přirozených shluků"), kterého není možné dosáhnout žádnou z doposud známých metod. Metoda používá nový způsob reprezentace asociačních pravidel, inspirovaný vektorovým modelem, používaným v oblasti zpracování informačních fondů (information retrieval). V práci je popsán převod asociačních pravidel do vektorového modelu, analogickému k vektorové reprezentaci dokumentů. Jádrem metody je dvojí, na sobě nezávislé shlukování asociačních pravidel: shlukování kvantitativních charakteristik (jako jsou např. spolehlivost, podpora, faktor zajímavosti) a cedentální shlukování asociačních pravidel (inspirované shlukováním dokumentů). Struktura práce: na úvodní kapitolu navazuje kapitola, popisující proces dobývání znalostí z databází. Proces je popsán na základě vybraných metodik (CRISP-DM, SEMMA, GUHA, RAMSYS).Třetí kapitola je věnována pojmu asociační pravidlo a charakteristikám asociačních pravidel. Další kapitola obsahuje rešerši současných metod post-processingu asociačních pravidel. Pátá kapitola seznamuje s problematikou shlukování. Šestá kapitola obsahuje popis metody vícekriteriálního shlukování asociačních pravidel. Další kapitola se věnuje experimentům. Osmá kapitola se zabývá možnostmi využití metody.
Extrakce informací z webových stránek pomoci extrakčních ontologií
Labský, Martin ; Berka, Petr (vedoucí práce) ; Strossa, Petr (oponent) ; Vojtáš, Peter (oponent) ; Snášel, Václav (oponent)
S rozvojem Internetu a růstem množství textových dokumentů vzrostla během posledního desetiletí poptávka po nástrojích pro automatickou extrakci informací (IE - information extraction). Úkolem IE je nalézt v analyzovaných dokumentech údaje předem specifikovaného sémantického typu a tyto extrahovat pro potřeby dalších aplikací. Analyzovanými dokumenty mohou přitom být webové stránky, e-maily, dokumenty uvnitř firemních informačních systémů, ale i běžné textové zdroje jakými jsou noviny a časopisy. Aplikace, které nejčastěji využívají výsledky IE, zahrnují tradiční textové vyhledávače, které lze pomocí IE rozšířit o tzv. strukturované vyhledávání, dále systémy pro automatické zodpovídání otázek nebo např. aplikace pro podporu posuzování kvality webových stránek. Tato práce se zabývá vývojem metod a nástrojů pro IE, které jsou obzvláště vhodné pro extrakci ze semi-strukturovaných dokumentů, jakými jsou webové stránky, a pro situace kdy existuje málo trénovacích dat. Hlavním přínosem této práce je navržený přístup rozšířených extrakčních ontologií, který v sobě kombinuje využití extrakčních znalostí tří typů: (1) expertem zadané extrakční znalosti, (2) znalosti naučené z trénovacích dat a (3) znalosti indukované na základě opakující se formátovací struktury, která se často ve webových stránkách nachází. Naše hypotéza je, že současné využití všech tří typů znalostí extrakčním algoritmem může přispět k celkové přesnosti a robustnosti extrakce. Motivací pro tuto práci byl malý počet dosud popsaných metod pro IE, které by využívaly všechny zmíněné typy extrakční znalosti. Jako první je v tomto textu popsán statistický trénovaný přístup k IE založený na skrytých markovských modelech, který je dále integrován s několika trénovanými klasifikátory obrázků tak, aby bylo možno extrahovat jak textové položky, tak obrázky. Přístup je demonstrován a hodnocen na úloze extrakce popisů bicyklů nabízených různými internetovými obchody. Popsáno je i několik algoritmů pro klasifikaci obrázků s použitím různých množin rysů pro klasifikaci. Tyto trénované přístupy jsou posléze integrovány v rámci navržené metody rozšířených extrakčních ontologií, navazující na práci D.W. Embleyho, kterou rozšiřuje o současné využití všch tří výše zmíněných typů extrakční znalosti. Zamýšlenými přínosy extrakčních ontologií jsou rychlý vývoj funkčního prototypu, jeho plynulý přechod do finální IE aplikace a možnost využít různá množství tří typů extrační znalosti podle jejich dostupnosti. Protože extrakční ontologie je typicky odvozena z vhodné doménové ontologie a zůstává ve středu extrakčního procesu, minimalizuje tento přístup úsilí nutné pro zpětnou konverzi extrahovaných výsledků pro populaci zdrojové ontologie či datového schématu. Výsledky navrženého přístupu jsou prezentovány pro několik reálných domén.
Multiagentní modely finančních trhů - racionalita a sociální vazby
Popadinec, Martin ; Burian, Jan (vedoucí práce) ; Berka, Petr (oponent)
Diplomová práce pojednává o využití multiagentních systémů pro modelování finančního trhu. Multiagentní modely ekonomických systémů (ACE) umožňují pozorovat formování tržní ceny na základě interakce a rozhodování jednotlivých agentů jednajících podle definovaných pravidel. Tento přístup modelování nám poskytuje zajímavý vhled do formování trhu oproti ekonomickým agregátním modelům, u kterých je dosahování společensky optimální rovnováhy vysvětlováno informovaným a racionálním chováním každého účastníka trhu. Práce je rozdělena do dvou částí, z nichž první, teoretická, je věnována vysvětlení problematiky multiagentních modelů, omezené racionality a sociálních sítí v míře potřebné pro jejich aplikaci v druhé části. Předmětem druhé části práce je model finančního trhu, který je zaměřen na popsání nestability ceny vyskytující se na reálných finančních trzích. Tento model je zajímavým příkladem multiagentního přístupu k vytváření ekonomických modelů, avšak vykazuje některé nerealistické předpoklady, z nichž nejzajímavější je prostor ve kterém agenti interagují. V této části je model převeden ze systému interakce v mřížce do sítí, které lépe odpovídají sociálním sítím lidské společnosti, ale je zde také experimentováno s dalším rozšířením rozhodovací funkce agentů. Završením práce je hodnocení kvality pozorovaného modelu, vliv provedených změn na stabilitu trhu, shrnutí vlastností vybraných sítí a zamyšlení, zdali takovéto modely mohou dát nějaké užitečné informace ekonomům, kteří se zabývají vývojem finančních trhů.
Expertní systémy - principy a struktura
Šetek, Martin ; Jirků, Petr (vedoucí práce) ; Berka, Petr (oponent)
Bakalářská práce se zabývá expertními systémy. Popisem principů a struktury. Cílem této práce je čtenářům přiblížit oblast umělé inteligence zabývající se právě expertními systémy, aby čtenář pochopil, čím se expertní systémy zabývají, jak fungují, jaký mají prospěch pro společnost. Práce je strukturovaná do kapitol. První dvě kapitoly se zabývají seznámením čtenářů s umělou inteligencí. Další kapitoly se již zabývají expertními systémy. První část práce objasňuje, co expertní systémy jsou. Dále se věnuje také jejich historii, charakterizujícím znakům a typům úloh, které řeší. Závěr práce se zabývá architekturami expertních systémů.
Ontology Learning and Information Extraction for the Semantic Web
Kavalec, Martin ; Berka, Petr (vedoucí práce) ; Štěpánková, Olga (oponent) ; Snášel, Václav (oponent)
The work gives overview of its three main topics: semantic web, information extraction and ontology learning. A method for identification relevant information on web pages is described and experimentally tested on pages of companies offering products and services. The method is based on analysis of a sample web pages and their position in the Open Directory catalogue. Furthermore, a modfication of association rules mining algorithm is proposed and experimentally tested. In addition to an identification of a relation between ontology concepts, it suggest possible naming of the relation.

Národní úložiště šedé literatury : Nalezeno 30 záznamů.   začátekpředchozí21 - 30  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.