Národní úložiště šedé literatury Nalezeno 15,264 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 1.35 vteřin. 


Integrace počítačů Apple Mac do firemního prostředí
Světlík, Martin ; Bruckner, Tomáš (vedoucí práce) ; Rathouský, Tomáš (oponent)
Podniková informatika prochází v posledních letech řadou změn. Čím dál tím více nejsou používaná zařízení závislá na platformě, ale na poskytovaných službách a úrovni bezpečnosti. Ke slovu se čím dál tím více dostávají technologie v cloudu a celá řada společností nabízí zaměstnancům možnost BYOD, tedy Bring Your Own Device. Tato práce se tak zaměřuje na integraci počítačů Apple Mac do firemního prostředí na základě analýzy dnešních přístupů a možností řešení integrace. Důležitou součástí práce je pak průzkum vybraných implementovaných řešení v České republice. Z obou části pak práce nabízí doporučení, která vycházejí z praktických zkušeností společností, které počítače Mac ve velké míře používají a řeší jejich integraci.

Využití modelů úrokových měr při řízení úrokového rizika v prostředí českého finančního trhu
Cíchová Králová, Dana ; Arlt, Josef (vedoucí práce) ; Cipra, Tomáš (oponent) ; Witzany, Jiří (oponent)
Hlavním cílem práce je zejména nalezení vhodného přístupu k modelování úrokového rizika v prostředí českého finančního trhu při různých situacích na finančních trzích. Analyzována jsou tři zcela odlišná období, která jsou charakteristická různou mírou ohodnocení likviditního a kreditního rizika, rozdílnými vztahy mezi finančními veličinami a účastníky trhu a rozdílnou regulací trhu. Konkrétně se jedná o období před globální finanční krizí, období finanční krize a období po odeznění globální finanční krize a uklidnění následné dluhové krize v eurozóně. V rámci tohoto cíle je stěžejní aplikace modelu BGM v prostředí českého trhu. Použití modelu BGM pro účely predikce dynamiky výnosové křivky není běžné, neboť primární použití tohoto modelu je oceňování finančních derivátů při zajištění neexis- tence arbitráže a jeho aplikace je navíc relativně náročná. Přesto v této práci model BGM využiji pro získání predikcí pravděpodobnostních rozdělení úrokových sazeb v pro- středí české trhu a trhu eurozóny, protože jeho komplexnost, přímé modelování výnosové křivky na základě tržních sazeb a hlavně možnost odhadu parametrů založená na ak- tuálních kotacích volatilit swapcí mohou vést k výraznému zkvalitnění predikcí, což se v této práci potvrdilo. Převážně v období bezprecedentního monetárního uvolňování a zvýšených zásahů centrálních bank a ostatních regulátorů do činnosti finančních trhů, ke kterým dochází po finanční krizi, je využití tržních kotací volatilit swapcí výhodné, protože odráží aktuální očekávání trhu se započítáním očekávaných budoucích zásahů do fungování finančních trhů. Vzhledem k tomu, že v důsledku nerozvinutosti českého finančního trhu neexistují tržní kotace volatilit korunových swapcí, navrhuji jejich aproximace na základě kotací volatilit eurových swapcí s využitím volatilit forwardových korunových i eurových sazeb, díky čemuž jsou v získaných predikcích dynamiky české výnosové křivky započteny aktuální očekávání trhu. Není mi známo, že by nějaký jiný autor dosud publikoval obdobnou aplikace modelu BGM v prostředí českého finančního trhu. V této práci dále konstruuji predikce dynamiky české a eurové výnosové křivky peněžního trhu pomocí modelů CIR a GP jakožto zástupců různých typů modelů úro- kových měr. Pro posouzení predikční schopnosti jednotlivých modelů a vhodnosti jejich použití v prostředí českého trhu během různých situacích na finančním trhu navrhuji ucelený systém tří kritérií založený na porovnání predikcí se skutečností. Z této analýzy pre- dikční schopnosti vyplývá, že na základě modelu BGM lze získat predikce dynamiky výnosové křivky českého peněžního trhu s vysokou predikční schopností a nejlepší kva- litou ve srovnání s ostatními analyzovanými modely, nicméně i model GP poskytuje relativně kvalitní predikce. Naopak predikce učiněné na základě modelu CIR jakožto 6 zástupce modelů okamžité úrokové míry při popsání skutečnosti zcela selhaly. V situaci, kdy ekonomika umožňuje záporné sazby a zároveň existuje signifikantní pravděpodob- nost jejich zavedení, doporučuji provedení predikcí dynamiky výnosové křivky českého peněžního trhu pomocí modelu GP, který záporné sazby připouští. Součástí této analýzy je i provedení statistického testu predikční schopnosti jednotlivých modelů a informace o dalších možných statistických testech pro zhodnocení kvality modelů. Při aplikaci Berkowitzova testu byla u všech zkoumaných modelů zamítnuta hypotéza o tom, že vý- sledné predikce přesně popisují skutečnost. Tento fakt je však při aplikaci statistických testů na reálná data běžný i při použití relativně dobrého modelu především z důvodu obtížného splnění podmínek testů v reálném světě. Takovouto analýzu predikční schop- nosti vybraných modelů úrokových měr a navíc v prostředí českého finančního trhu jsem doposud v žádných jiných publikacích nezaznamenala. Posledním cílem této práce je navržení vhodného přístupu k predikci dynamiky ri- zikové přirážky českých státních dluhopisů, kterou definuji jako rozdíl mezi výnosem státních dluhopisů a fixní sazbou CZK IRS totožné délky. Takto definovaný ukazatel kreditního rizika České republiky modeluji pomocí modelu GP. Pro získání časových řad rizikové přirážky potřebných k odhadu parametrů modelu GP odhadnu nejdříve výnosové křivky českých státních dluhopisů pomocí Svenssonova modelu pro každý obchodní den od roku 2005. Z výsledných simulací je patrné, že model GP relativně dobře predikoval skutečný vývoj rizikových přirážek všech analyzovaných splatností. Navržený postup je vhodný pro modelování kreditního rizika České republiky na zá- kladě využití informací z finančních trhů. S takovýmto přístupem k modelování rizikové přirážky státních dluhopisů a navíc v českém prostředí jsem se doposud v žádné jiné publikaci nesetkala.

Prototypování mobilních aplikací a jejich testování v reálném prostředí
Ornst, Zdeněk ; Sigmund, Tomáš (vedoucí práce) ; Michaličová, Alexandra (oponent)
Diplomová práce se zabývá návrhem mobilních uživatelských rozhraní s ohledem na jejich kontext užití. V této souvislosti se věnuje oboru prototypování a jeho využití při návrhu. Dále se zabývá uživatelským testováním použitelnosti mobilních aplikací. Na základě teoretických poznatků je navrženo řešení pro testování prototypů v reálném prostředí s cílem zefektivnit proces návrhu kvalitních mobilních aplikací. Toto řešení je zrealizováno na praktickém případu a je vyhodnocena jeho úspěšnost.

E-learningová podpora celoživotního vzdělávání
Žažo, David ; Husa, Jiří (vedoucí práce) ; Marek, Marek (oponent)
Bakalářská práce se zabývá vytvořením elektronického vzdělávacího kurzu pro pracovníky obsluhující kamerový systém městské policie Chomutov. Tento kurz je tvořen na základě potřeby seznámení stávajících i nových zaměstnanců s řídícím softwarem IndigoVison Control Center, který slouží k ovládání kamerového systému. Při absolvování kurzu se účastníci seznamují s funkcemi, možnostmi a principy ovládání tohoto softwaru. V závěru kurzu jsou vědomosti, získané absolvováním kurzu ověřeny závěrečným testem. Celý kurz je následně zhodnocen na základě výsledků testů a rozhovoru s jeho účastníky. Teoretická část práce se zabývá e-learningem, zmiňuje jeho přednosti a zápory a také specifika spojená se vzděláváním dospělých. V praktické části práce je podrobně představen e-learningový kurz, který je plně realizován v prostředí MoodleCloud a který je praktickým výsledkem této práce.

Historie Severočeské filharmonie Teplice (od roku 1948 až po současnost)
Kolařík, Tomáš ; PANOCHA, Jiří (vedoucí práce) ; TOMÁŠEK, Jiří (oponent)
Ve své magisterské práci se autor zabývá historií Severočeské filharmonie Teplice, jediného profesionálního symfonického tělesa v Ústeckém kraji, od roku 1948 až po současnost (2016). Je rozdělena do čtyř hlavních kapitol. První kapitola přináší přehled nejvýznamnějších dirigentů, kteří u Severočeské filharmonie působili ať už ve funkci šéfdirigenta, či zastávali post druhého dirigenta. Druhá, stěžejní, kapitola přináší přehled historického vývoje, proměn orchestru a událostí s orchestrem spojený, od doby svého znovuobnovení v roce 1948 až po rok 2016. Ve třetí kapitole nejprve autor zmiňuje nejdůležitější informace o Hudebním festivalu Ludwiga van Beethovena, jehož je v současné době teplická filharmonie organizátorem, a poté podává stručný a neúplný přehled vybraných festivalových ročníků. Čtvrtá, závěrečná, kapitola okrajově doplňuje magisterskou práci o informace týkající se „novinky“ Severočeské filharmonie, a sice její orchestrální akademie, založené po vzoru předních českých orchestrů. Autor práci doplnil obrázkovou přílohou zachycující zkušební a koncertní prostředí filharmonie v průběhu let či fotografie filharmonie z poslední doby, dokreslující, možná strohý, faktografický charakter této práce.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Network-wide Security Analysis
de Silva, Hidda Marakkala Gayan Ruchika ; Šafařík,, Jiří (oponent) ; Šlapal, Josef (oponent) ; Švéda, Miroslav (vedoucí práce)
The objective of the research is to model and analyze the effects of dynamic routing protocols. The thesis addresses the analysis of service reachability, configurations, routing and security filters on dynamic networks in the event of device or link failures. The research contains two main sections, namely, modeling and analysis. First section consists of modeling of network topology, protocol behaviors, device configurations and filters. In the modeling, graph algorithms, routing redistribution theory, relational algebra and temporal logics were used. For the analysis of reachability, a modified topology table was introduced. This is a unique centralized table for a given network and invariant for network states. For the analysis of configurations, a constraint-based analysis was developed by using XSD Prolog. Routing and redistribution were analyzed by using routing information bases and for analyzing the filtering rules, a SAT-based decision procedure was incorporated. A part of the analysis was integrated to a simulation tool at OMNeT++ environment. There are several innovations introduced in this thesis. Filtering network graph, modified topology table, general state to reduce the state space, modeling devices as filtering nodes and constraint-based analysis are the key innovations. Abstract network graph, forwarding device model and redistribution with routing information are extensions of the existing research. Finally, it can be concluded that this thesis discusses novel approaches, modeling methods and analysis techniques in the area of dynamic networks. Integration of these methods into a simulation tool will be a very demanding product for the network designers and the administrators.

Navigace mobilních robotů
Rozman, Jaroslav ; Matoušek,, Václav (oponent) ; Šolc, František (oponent) ; Zbořil, František (vedoucí práce)
Mobilní robotika je v posledních letech velice diskutované a rozšířené téma.    Souvisí to především se stále se zdokonalující výpočetní technikou, která tak umožňuje    vyvíjet stále složitější a dokonalejší roboty. Cílem tohoto snažení je vytvořit robota,    schopného se autonomně pohybovat ve zvoleném prostředí. Pro tento úkol je nutné, aby si    robot vytvořil mapu, ve které bude svůj pohyb plánovat. V současné době se za standard    v mapování považují pravděpodobnostní algoritmy založené na metodě SLAM.    Tato disertační práce se zabývá návrhem plánovacího algoritmu právě pro metodu SLAM.    Popisuje plánování pohybu pro robota vybaveného dvojicí kamer, tzv. stereokamerou,    umístěnou na pohyblivé platformě. Plánování pohybu je navržené s ohledem na použití    algoritmů, které budou v obraze ze stereokamery vyhledávat význačné body a z těch pak    pomocí triangulace tvořit mapu, nebo také model prostředí.      Přínos práce by se dal rozdělit do tří částí. V první je popsán způsob vyznačování    plochy, ve které pak bude robot plánovat svůj pohyb. Druhá část se zabývá samotným    plánováním pohybu robota v této mapě. Bere při tom v úvahu vlastnosti algoritmu SLAM    a snaží se tedy toto plánování navrhnout tak, aby vytvořená mapa byla co nejpřesnější.    Ve třetí části je pak popsán pohyb platformy, která nese kamery. V této části    se využívá toho, že robot může svými kamerami sledovat i jiná místa, než jsou ta    ve směru jeho pohybu. To mu umožní prozkoumat mnohem větší prostor bez přílišné ztráty    informace o své přesné poloze.

Multimedia Data Processing in Heterogeneous Distributed Environment
Kajan, Rudolf ; Ferko,, Andrej (oponent) ; Míkovec, Zdeněk (oponent) ; Herout, Adam (vedoucí práce)
Ubiquitous computing, a paradigm in which the processing of information is linked with each activity or object as encountered, was proposed by Mark Weiser as the next era for interacting with computers. Its goal is to enable people to interact with devices more naturally and casually in ways that suit whatever location or context they find themselves in. Ubiquitous computing focuses on learning by removing the complexity of computing and increases efficiency while using computing for different daily activities. But after more than 15 years since Weiser formulated these goals, several aspects of ubiquitous computing are still not a part of user experience with today’s technology. Seamless integration with environment leading to technological invisibility or user interaction spanning across multiple devices pose still a great challenge. The main goal of our work is to make a step towards making the idea of ubiquitous computing a reality by addressing the question about intuitive information sharing between a personal device and a situated display. We have developed three interaction techniques which support unobtrusive content exchange between touch-enabled personal device and a large display - whether it is shared-private or public. These techniques are based on video streams, augmented reality, and analysis of gaze data. Besides the interaction techniques, we also present a framework for real-time application state acquisition and reconstruction on target platform. We report on user studies focused on the usability of our prototypes and a system performance evaluations. Our experiments were formed around real-life scenarios which are commonly experienced throughout the day. For interactions based on video streams, the results indicate that our techniques outperform the existing solutions: the localization and task migration is done in real time on a midlevel cellphone; the localization is reliable even for different observation angles and for cluttered screen content. Our technique based on gaze analysis goes even further by allowing for modeling of implicit user preferences through gaze data, while being accurate and unobtrusive.