Národní úložiště šedé literatury Nalezeno 9 záznamů.  Hledání trvalo 0.01 vteřin. 
Shluková analýza signálu EKG
Pospíšil, David ; Kozumplík, Jiří (oponent) ; Klimek, Martin (vedoucí práce)
Tato diplomová práce se zabývá použitím některých metod shlukové analýzy na signál EKG s cílem třídění QRS komplexů podle jejich morfologií na normální a abnormální. Je využito hierarchické aglomerativní shlukování a nehierarchická metoda K – Means, pro něž byla v programovém prostředí Mathworks MATLAB vytvořena aplikace. První část práce se zabývá teorií v oblasti signálu EKG a shlukové analýzy, druhou je pak návrh, realizace a zhodnocení výsledků softwaru pro využití shlukové analýzy na EKG signálu k automatickému třídění QRS komplexů do shluků.
Algoritmy pro shlukování textových dat
Sedláček, Josef ; Burget, Radim (oponent) ; Karásek, Jan (vedoucí práce)
Tato diplomová práce se zabývá problematikou dolování textových dat. Je zde popsána teorie potřebná ke shlukování textových dokumentů a také algoritmy, které se při shlukování využívají. Podle této teorie je pak vytvořena aplikace pro shlukování textových dat. Aplikace je vytvořena v programovacím jazyku Java a obsahuje tři metody používané při shlukování. Uživatel si tak sám může vybrat metodu, podle které chce kolekci dokumentů shlukovat. Implementované metody jsou K medoids, BiSec K medoids a SOM (self organization map). Součástí aplikace je také vytvoření validační množiny, pomocí které jsou algoritmy testovány. V závěru jsou pak algoritmy porovnány podle dosažených výsledků.
Akcelerace algoritmů pro shlukování tunelů v proteinech
Jaroš, Marta ; Vašíček, Zdeněk (oponent) ; Martínek, Tomáš (vedoucí práce)
Práce se zabývá problémem shlukování tunelů z dat získaných molekulární dynamikou proteinů. Tento proces je velmi výpočetně náročný a představuje výzvu pro vědecké komunity. Cílem je najít algoritmus s optimálním poměrem časové a prostorové složitosti. Práce začíná rešerší shlukovacích algoritmů. Rovněž se zabývá způsobem, jak pracovat s velkými datovými sadami, způsobem vizualizace a porovnání výsledků shlukování. Jádro práce představuje návrh řešení tohoto problému s využitím algoritmu Twister Tries . Rozebírá jeho implementační detaily a poskytuje výsledky testování z hlediska kvality výsledků a výpočetní náročnosti. Cílem práce bylo experimentálně ověřit, zda stochastickým algoritmem  Twister Tries dosáhneme stejných výsledků jako s exaktním algoritmem ( average-linkage ). Tento předpoklad se nepovedlo jednoznačně potvrdit. Z poznatků při testování hashovacích funkcí vyplývá, že stejných výsledků jsme schopni dosáhnout i s funkcí, která pracuje na nízkém stupni dimenzionality, avšak v mnohem kratším výpočetním čase.
Automatický výběr reprezentativních fotografií
Bartoš, Peter ; Svoboda, Pavel (oponent) ; Polok, Lukáš (vedoucí práce)
Na internetu jsou miliardy fotografií a s neustále rostoucí velikostí těchto digitálních úložišť je stále více složitější vyhledat určitou snímku. Na zvýšení informační kvality fotoalb navrhujeme novou metodu, která vybírá reprezentativní snímky ze skupiny fotografií s využitím algoritmů počítačového vidění. Cílem této práce je analýza problematiky význačných znaků obrázků, porovnávání obrázků, shlukování objektů a také má za úkol prozkoumat charakteristické vlastnosti fotografií. Testy ukazují, že neexistuje univerzální příznak popisující fotografie takovým způsobem, aby bylo možné jednoduše modelovat proces shlukování vykonávaný lidským viděním. Práce navrhuje hybridní algoritmus, který kombinuje použití výhodných vlastností vybraných příznaků fotografie spolu s využitím specializovaného vícekrokového shlukovacího algoritmu. Klíčovou myšlenkou postupu je, že častěji fotografované objekty jsou pravděpodobněji reprezentativní. Tedy platí, že již náhodným výběrem z největších shluků dostáváme určitým způsobem reprezentativní fotografie. Tento výběr je dále vylepšený na základe optimalizací, které upřednostňují snímky s lepšími fotografickými vlastnostmi.
User Location Interpretation Based on Location Data
Ligocká, Alexandra ; Hynek, Jiří (oponent) ; Firc, Anton (vedoucí práce)
The topic of this thesis is to investigate the problem of processing user location data with the aim of mining semantically interesting places. Geolocation data represents great potential for advertising systems, recommending regional news, reaching users for targeted advertising, suggesting popular locations, location-based suggestions, and much more. This work explores key principles in geolocation data acquisition, processing and interpretation. The thesis further investigates the feasibility and challenges involved in extracting a user's home and work location from raw GPS data collected from GPS-enabled devices. Additionally, it explains the need for semantic enrichment of users' locations. The main challenges discussed include identification of stops from GPS traces, identifying locations with a higher level of significance for users, extracting visited places and their semantic enrichment and interpretation using current map bases.
Akcelerace algoritmů pro shlukování tunelů v proteinech
Jaroš, Marta ; Vašíček, Zdeněk (oponent) ; Martínek, Tomáš (vedoucí práce)
Práce se zabývá problémem shlukování tunelů z dat získaných molekulární dynamikou proteinů. Tento proces je velmi výpočetně náročný a představuje výzvu pro vědecké komunity. Cílem je najít algoritmus s optimálním poměrem časové a prostorové složitosti. Práce začíná rešerší shlukovacích algoritmů. Rovněž se zabývá způsobem, jak pracovat s velkými datovými sadami, způsobem vizualizace a porovnání výsledků shlukování. Jádro práce představuje návrh řešení tohoto problému s využitím algoritmu Twister Tries . Rozebírá jeho implementační detaily a poskytuje výsledky testování z hlediska kvality výsledků a výpočetní náročnosti. Cílem práce bylo experimentálně ověřit, zda stochastickým algoritmem  Twister Tries dosáhneme stejných výsledků jako s exaktním algoritmem ( average-linkage ). Tento předpoklad se nepovedlo jednoznačně potvrdit. Z poznatků při testování hashovacích funkcí vyplývá, že stejných výsledků jsme schopni dosáhnout i s funkcí, která pracuje na nízkém stupni dimenzionality, avšak v mnohem kratším výpočetním čase.
Automatický výběr reprezentativních fotografií
Bartoš, Peter ; Svoboda, Pavel (oponent) ; Polok, Lukáš (vedoucí práce)
Na internetu jsou miliardy fotografií a s neustále rostoucí velikostí těchto digitálních úložišť je stále více složitější vyhledat určitou snímku. Na zvýšení informační kvality fotoalb navrhujeme novou metodu, která vybírá reprezentativní snímky ze skupiny fotografií s využitím algoritmů počítačového vidění. Cílem této práce je analýza problematiky význačných znaků obrázků, porovnávání obrázků, shlukování objektů a také má za úkol prozkoumat charakteristické vlastnosti fotografií. Testy ukazují, že neexistuje univerzální příznak popisující fotografie takovým způsobem, aby bylo možné jednoduše modelovat proces shlukování vykonávaný lidským viděním. Práce navrhuje hybridní algoritmus, který kombinuje použití výhodných vlastností vybraných příznaků fotografie spolu s využitím specializovaného vícekrokového shlukovacího algoritmu. Klíčovou myšlenkou postupu je, že častěji fotografované objekty jsou pravděpodobněji reprezentativní. Tedy platí, že již náhodným výběrem z největších shluků dostáváme určitým způsobem reprezentativní fotografie. Tento výběr je dále vylepšený na základe optimalizací, které upřednostňují snímky s lepšími fotografickými vlastnostmi.
Shluková analýza signálu EKG
Pospíšil, David ; Kozumplík, Jiří (oponent) ; Klimek, Martin (vedoucí práce)
Tato diplomová práce se zabývá použitím některých metod shlukové analýzy na signál EKG s cílem třídění QRS komplexů podle jejich morfologií na normální a abnormální. Je využito hierarchické aglomerativní shlukování a nehierarchická metoda K – Means, pro něž byla v programovém prostředí Mathworks MATLAB vytvořena aplikace. První část práce se zabývá teorií v oblasti signálu EKG a shlukové analýzy, druhou je pak návrh, realizace a zhodnocení výsledků softwaru pro využití shlukové analýzy na EKG signálu k automatickému třídění QRS komplexů do shluků.
Algoritmy pro shlukování textových dat
Sedláček, Josef ; Burget, Radim (oponent) ; Karásek, Jan (vedoucí práce)
Tato diplomová práce se zabývá problematikou dolování textových dat. Je zde popsána teorie potřebná ke shlukování textových dokumentů a také algoritmy, které se při shlukování využívají. Podle této teorie je pak vytvořena aplikace pro shlukování textových dat. Aplikace je vytvořena v programovacím jazyku Java a obsahuje tři metody používané při shlukování. Uživatel si tak sám může vybrat metodu, podle které chce kolekci dokumentů shlukovat. Implementované metody jsou K medoids, BiSec K medoids a SOM (self organization map). Součástí aplikace je také vytvoření validační množiny, pomocí které jsou algoritmy testovány. V závěru jsou pak algoritmy porovnány podle dosažených výsledků.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.