Národní úložiště šedé literatury Nalezeno 49 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Varianty řízení datové kvality v rámci regulace Solvency II
Pastrňáková, Alena ; Bína, Vladislav (vedoucí práce) ; Přibil, Jiří (oponent)
Diplomová práce se zabývá datovou kvalitou v souvislosti se zákonnými požadavky regulace Solvency II, které musí pojišťovny splnit pro udržení licence. Cílem práce je posoudit příležitosti a dopady zavedení datové kvality pro Solvency II. Veškeré požadavky regulace pro datovou kvalitu jsou specifikovány a doplněny o možnosti jejich splnění. Dále jsou popsány související oblasti datové kvality. Na základě znalostí a získaných informací jsou v diplomové práci porovnány vzorové varianty manuálního, částečně automatizovaného a plně automatizovaného řešení s ohledem na finanční a časovou náročnost. Přínosem této práce je zhodnocení možných pozitivních i negativních dopadů implementace datové kvality pro Solvency II s přihlédnutím k možnosti rozšiřování v rámci celé společnosti. Obecné varianty řešení mohou být použity pro rozhodování o implementaci datové kvality ve většině společností i mimo pojišťovnictví.
Big Data Governance
Blahová, Leontýna ; Pejčoch, David (vedoucí práce) ; Kyjonka, Vladimír (oponent)
Tato diplomová práce se zabývá Big Data Governance, nejen na teoretické úrovni definic, ale porovnává vybraný software z hlediska vlastně definovaných požadavků pro správu jak klasických dat, tak dat s využitím moderních přístupů. V teoretické části definuje pojmy související s Big Data Governance, vysvětluje funkčnost jednotlivých dimenzí Data Gover-nance, zároveň obsahuje best practices v této oblasti. Praktická část se zabývá srovnáním funkcionality aktuálně dostupných software pro Data Governance a zohlednění nadefino-vaných požadavků při hodnocení jednotlivých řešení.
IBM Cognos Report Studio jako efektivní nástroj reportingu v oblasti lidského kapitálu
Zinchenko, Yulia ; Pour, Jan (vedoucí práce) ; Obolenskiy, Vladimir Obolenskiy (oponent)
Hlavní téma, jemuž se tato diplomová práce věnuje, je podnikový reporting v oblasti lidského kapitálu realizovaný prostřednictvím Business Intelligence nástrojů, zejména IBM Cognos Report Studio. Jedním z cílů je popsat metodologii vytvoření komplexního dynamického reportu, a to včetně popisu jeho datové struktury, návrhu stránek a kontroly kvality dat. Dalším cílem je sestavit analýzu nákladů a přínosů reálného projektu, který je zaměřen na znovuvytvoření reportu postaveného v aplikaci MS Excel pomocí IBM Cognos Report Studio za účelem automatizace informačních toků. Nezbytnou částí diplomové práce jsou teoretická východiska aspektů datové kvality a vizualizace prostřednictvím nástrojů Business Intelligence, a také účely reportingu v oblasti lidského kapitálu a popisu odpovídajících ukazatelů výkonnosti (KPI). Cíle jsou naplněny pomocí provedení analýzy a zkoumání dostupných zdrojů vztahujících se k popsaným tématům, a také prostřednictvím využití aplikace IBM Cognos Report Studio, která byla autorce zpřístupněna jednou z největších společnosti v oblasti poskytnutí finančních služeb.
Komplexní řízení kvality dat a informací
Pejčoch, David ; Rauch, Jan (vedoucí práce) ; Máša, Petr (oponent) ; Novotný, Ota (oponent) ; Kordík, Pavel (oponent)
Tato práce pojednává o problematice kvality dat a informací. Kriticky hodnotí současný stav poznání v oblasti jednotlivých metod používaných pro audit a zvyšování kvality dat (resp. informací) a navrhuje nové principy tam, kde toto zhodnocení odhalilo mezery. Hlavní myšlenkou této práce je koncept řízení kvality dat a informací napříč celým univerzem dat. Toto univerzum představují všechny datové zdroje, se kterými přichází dany subjekt do styku, a které jsou používány v rámci jeho stávajících nebo zamýšlených procesů. Pro všechny tyto zdroje uvažuji nastavení shodné sady pravidel, politik a principů vycházejících ze současných a potenciálních přínosů těchto zdrojů při současném zohlednění případných rizik jejich užití. Jakousi pomyslnou červenou nití, která se táhne celým textem, je důležitost dodatečných znalostí pro proces řízení kvality dat / informací. Zavedení znalostní báze orientované na podporu řízení kvality dat a informací (QKB) je proto jedním ze základních principů autorem navržené sady doporučených postupů CADAQUES, které představují sumarizaci dílčích závěrů jednotlivých kapitol této práce.
Kvalita kmenových dat a datová synchronizace v segmentu FMCG
Tlučhoř, Tomáš ; Chlapek, Dušan (vedoucí práce) ; Kučera, Jan (oponent)
Diplomová práce se zabývá problematikou kvality kmenových dat u odběratelů a dodavatelů rychloobrátkového zboží. Cílem je zmapovat tok kmenových dat o produktech v dodavatelském řetězci odvětví FMCG a identifikovat slabá místa způsobující jejich nekvalitu. Důraz je kladen především na analýzu procesu zalistování nového zboží u obchodního řetězce. Jedním ze způsobů zvýšení efektivity procesu zalistování a zlepšení kvality kmenových dat je využití globální datové synchronizace. Dalším cílem práce je proto objasnit příčiny nízké míry využití globální datové synchronizace na českém trhu. Pozornost je rovněž věnována návrhům na opatření vedoucích ke zvýšení kvality kmenových dat v odvětví FMCG a rozvoji globální datové synchronizace v ČR. Diplomová práce je rozdělena na část teoretickou a praktickou. Teoretická část se zabývá vymezením pojmů, fungováním dodavatelského řetězce a komunikací jeho jednotlivých článků, teorií datové kvality a přístupy k jejímu řízení. V praktické části jsou řešeny cíle práce, kterých je dosaženo na základě výsledků dvoufázového průzkumu mezi dodavateli a odběrateli rychloobrátkového zboží na českém trhu. Přínosem je obohacení odborné literatury, která se problematikou kvality kmenových dat v segmentu FMCG a globální datové synchronizace příliš nezabývá. Pro dodavatele a odběratele rychloobrátkového zboží mohou výsledky práce představovat impuls pro snahu o zlepšení kvality vlastních kmenových dat. Představeny jsou i způsoby, kterými lze tohoto zlepšení dosáhnout. V organizaci GS1 Czech Republic, jež téma diplomové práce zadala, lze výsledky použít jako podklad pro rozhodování o dalším vývoji v oblasti globální datové synchronizace.
Benchmark nástrojů pro řízení datové kvality
Černý, Jan ; Pejčoch, David (vedoucí práce) ; Máša, Petr (oponent)
Společnosti po celém světě stále více a více promrhávají své rozpočty v důsledku nekvalitních dat. Logicky, se zvyšujících se množstvím zpracovávaných informací roste i množství chyb v nich. Tato práce vysvětluje co je datová kvalita, příčiny vzniku chyb v datech, jejich důsledky i to jakým způsobem lze datovou kvalitu měřit. A pokud něco lze měřit, lze to i zlepšit. K tomu slouží nástroje pro řízení datové kvality. Trh s nástroji pro řízení datové kvality nabízí jak komerční, tak open-source řešení. Porovnáním nástroje DataCleaner (open-source) a DataFlux (komerční) na modelovém příkladu dle definovaných kritérií bylo v této práci dokázáno, že nástroje si mohou být rovné v oblasti profilace dat, obohacování a monitorování. Standardizaci a validaci zvládá lépe DataFlux. Deduplikace v DataCleaneru chybí, přestože byla výrobcem uváděna. Jednou z velkých překážek bránících firmám nákupu nástroje pro řízení datové kvality může být právě jeho vysoká cena. V tuto chvíli je již možné považovat DataCleaner za plnohodnotné levné řešení v oblasti profilace dat. Za podmínky, že společnost Human Inference doplní do DataCleaneru i deduplikaci dat, bude ho možné považovat za konkurenci v oblasti celého procesu řízení dat.
Dashboardy - jejich analýza a implementace v prostředí SAP Business Objects
Kratochvíl, Tomáš ; Pour, Jan (vedoucí práce) ; Šedivá, Zuzana (oponent)
Diplomová práce se zabývá analýzou a rozdělením dashboardů a posléze jejich implementací v nástrojích SAP Dashboards a Web Intelligence. Hlavním cílem práce je analýza řešení dashboardů pro různé oblasti řízení podniku podle zvolené architektury řešení. Práce se rovněž zabývá principy dashboardů v podniku a klíčovými ukazateli, se kterými se lze všeobecně setkat v oblasti IT. V další části práci autor definuje životní cyklus dat v oblasti Business Intelligence a v rámci teoretické části práce je zde zahrnuta dekompozice typů jednotlivých dashboardů. Konec teoretické části práce se věnuje rozdělení trhu využívající reporting a autor dále klade důraz na téma týkající se datové kvality a s ním spojené používání SAP Best Practices a KBA pro BI nástroje od společnosti SAP. Praktická část práce má za cíl podpořit teoretickou část práce, kde se autor zabývá implementací dashboardů v již výše uvedených nástrojích. Plnohodnotná ukázka využívá třech různých architektur řešení, tak aby si čtenář dokázal vytvořit vlastní názor nejen na rozdílnost použitých nástrojů, ale i samotných architektur řešení. U každé z nich jsou vždy na konci vyznačeny výhody a nevýhody řešení.
Dopad procesní a datové integrace na efektivitu reportingu
Sys, Bohuslav ; Šebesta, Michal (vedoucí práce) ; Bruckner, Tomáš (oponent)
V současné době, kdy základem úspěchu nebo neúspěchu je objem informací, které jsou k dispozici, a zároveň množství dostupných údajů v rámci internetu exponenciálně stoupá, je logické, že roste i potřeba sledovat kvalitu využívaných dat. Tento celosvětově pozorovatelný trend není pouze globální záležitostí, ale týká se i jednotlivců a hlavně společností, které dnes vytvářejí mnohonásobně větší objem dat než dříve. Zároveň jsou tato data komplexnější, aby reflektovala potřebu co nejlépe zachytit realitu. To nás vede k základnímu problému, kdy je potřeba data nejen shromažďovat, ale i prezentovat, a to takovým způsobem, aby posloužila zamýšlenému účelu. Proto se tato práce bude zabývat procesem následujícím po sběru dat -- jejich kontrole a transformaci do podoby reportů. Na začátku práce v teoretické části si definujeme základní pojmy a problematiku, dále pak metody nutné pro zajištění požadovaných dat a zajištění jejich kvality, což zahrnuje i představení nutné infrastruktury. V praktické části práce si definujeme vzorový problém a pokusíme se ukázat si na něm, jak pomocí poznatků z teoretické části řešit reálný problém ve zvolené firmě, tedy navrhnout realizovatelné řešení a následně jej nasadit. V závěru práce budou zhodnoceny přínosy návrhu v konfrontaci s výsledky dosaženými po nasazení navrhovaného řešení.
Datová kvalita v prostředí otevřených a propojitelných dat
Tomčová, Lucie ; Chlapek, Dušan (vedoucí práce) ; Kučera, Jan (oponent)
Diplomová práce se zabývá datovou kvalitou v prostředí otevřených a propojitelných dat. Mezi cíle patří vymezení specifik datové kvality v tomto prostředí. Na specifika je nahlíženo zejména z pohledu dimenzí datové kvality (tj. vlastností dat, které v rámci datové kvality sledujeme) a možností jejich měření. Dále práce definuje vliv, který má na datovou kvalitu převod dat do propojitelné podoby, a to s přihlédnutím k možným rizikům a přínosům, které dále datovou kvalitu mohou ovlivňovat. Na základě stanovených dimenzí datové kvality, které jsou shledány jako relevantní pro prostředí otevřených a propojitelných dat, je sestaven seznam metrik, jež jsou verifikovány na reálných datech (otevřená propojitelná data publikována orgánem státní správy). Práce ukazuje na potřebu posouzení a řízení datové kvality s přihlédnutím k rozdílům, které se váží k tomuto specifickému prostředí. Zároveň práce nabízí možnosti dalšího zkoumání této problematiky a prezentuje navazující směry, kterými je možné ubírat se při teoretickém i praktickém rozvíjení tématu.
MDM produktovych dat (MDM of Product Data)
Čvančarová, Lenka ; Pour, Jan (vedoucí práce) ; Holes, David (oponent)
Tato práce se zaměřuje na Master Data Management produktových dat. V současné době se většina publikací o MDM zaměřuje především na data o zákaznících a pouze velmi málo zdrojů popisuje problematiku produktových dat. I přesto, že se některé zdroje pokoušejí popsat MDM v celkovém pohledu, ve většině případů se nakonec zaměří právě na zákaznická data. Nedostatek zdrojů o MDM produktových dat se stal jedním z motivací pro tuto práci. Dalším důvodem bylo nastínění a analýza specifik MDM produktových dat v kontextu implementace a požadavků na aplikační software z hlediska firmy, která se zabývá vývojem aplikací pro MDM. Z tohoto důvodu jsem vytvořila a nastínila metodiku pro zavádění MDM produktových dat. Ta byla vytvořena na základě osobních zkušeností z MDM projektů se zákaznickými daty, které jsem aplikovala na teoretickou část této práce. Analýza vlastností produktový dat a jejich dopadu na zavedení MDM a analýza požadavků na aplikační software v této práci umožní dodavatelům MDM řešení, kteří se zaměřují na zákaznická data, lépe porozumět problematice MDM produktových dat a následovně rozšířit své zaměření. Kromě toho může tato práce sloužit jako zdroj informací pro společnosti, které rozvažují zavedení MDM produktových dat do jejich podnikové infrastruktury.

Národní úložiště šedé literatury : Nalezeno 49 záznamů.   začátekpředchozí21 - 30dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.