Národní úložiště šedé literatury Nalezeno 12,212 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.36 vteřin. 

Metoda segmentace v "change-point" problému
Janžura, Martin ; Nielsen, Jan
Metoda segmentace je využita na řešení problému "change-point".

Aplikace simulací Monte Carlo v bankovnictví
Boruta, Matěj ; Teplý, Petr (vedoucí práce) ; Fučík, Vojtěch (oponent)
Bankovnictví je v současnosti vystaveno vysokým tržním rizikům. Jedním z těchto rizik je například výskyt negativní úrokové míry v EU. Je důležité používat při měření bankovních rizik sofistikované moderní metody, které nám umožní riziko změřit a následně i řídit. Jednou z těchto metod je metoda Monte Carlo. V této bakalářské práci jsem se zaměřil na analýzu a 3, 6 a 12 měsíční predikci úrokové sazby PROBOR s 3 měsíční splatností pomocí simulace Monte Carlo. Zjistil jsem, že tato metoda je vhodná pro predikci tržních veličin s nižšií volatilitou. Při aplikaci této metody je nezbytné kalkulovat s úskalími a předpoklady, které tato metoda zahrnuje, jako je adekvátní počet scénářů, aproximace správného rozdělení, nezávislost dat a v neposlední řadě, pokud je to možné, tak se zaměřit na faktory, které generují nahodilost tržní veličiny a ne na ceny, které spíše představují následky náhodného jevu než jejich příčinu. Dále jsem predikci srovnal s prognózou ČNB a zjistil jsem, že predikce Monte Carlo je přesnější na krátkodobé prognózy. Predikce Monte Carlo na 12 měsíců také odhalila možnost negativní úrokové sazby na 0,05%, kdežto prognóza ČNB negativní úrokovou sazbu nepredikovala vůbec.

Metody automatizované transformace modelů v analýze IS
Tůma, Jakub ; Merunka, Vojtěch (vedoucí práce) ; Toman, Prokop (oponent)
Tato doktorská disertační práce přispívá k holistickému vývoji informačních systémů v oblasti analytických modelů informačních systémů (IS). Práce se zabývá modely v analýze informačních systémů a jejich metody transformace. Práce je zaměřena na konkrétní modely a to na Business process modeling notation (BPMN) a Business object relational modeling (BORM). Model BPMN je rozvíjen od roku 2000. Model BORM je starší a je rozvíjen od roku 1993. Obecným cílem této práce bylo rozšíření holistického vývoje informačních systémů. Konkrétním cílem bylo propojení modelu BPMN a modelu BORM. Práce byla inspirována teorií konečných automatů. Stav problematiky řešení popisuje přístupy k transformacím modelů. V analytické části jsou matematickým zápisem popsány jednotlivé transformace, jakožto vstupní údaje pro realizační část. Realizační část obsahuje algoritmus transformace, postup jeho dosažení a jeho následné ověření na případových studiích. Diskuze obsahuje porovnání přístupu vytvořené metody transformace s ostatními přístupy. Dosažení cílů je dokumentováno automatizovaným transformačním kalkulem. Příno- sem je automatizované propojení modelů BPMN a modelu BORM pomocí metody transformace. Výsledkem je metoda automatizované transformace z modelu BPMN do modelu BORM pomocí algoritmu. Transformace modelu BPMN do modelu BORM je uskutečněna přes Mealyho automat.

Čtenářský deník a ICT - tradiční výuková metoda v kontextu moderních technologií
GRÚZ, Michael
Rigorózní práce Čtenářský deník a ICT tradiční výuková metoda v kontextu moderních technologií je rozdělena na dva oddíly. Teoretická část se nejprve zabývá základními principy uměleckého textu, jeho recepcí a motivací k četbě. Pozornost je dále věnována literární a čtenářské výchově ve škole, ale i v mimoškolním životě dítěte, a to i v tzv. předčtenářském období. Stěžejní oddíl je zaměřen na vliv moderních technologií na výuku literatury a problematiku čtenářských (kulturních) deníků. Výzkumná část obsahuje výsledky dvou dotazníkových šetření. První z nich bylo určeno pro učitele českého jazyka a literatury, kteří působí na druhém stupni základních škola a na nižším stupni gymnázií, a kladlo si za úkol zmapovat jejich přístup k zadávání, kontrole, hodnocení a dalšímu využití čtenářských deníků v hodinách literární výchovy. Druhý dotazník zjišťoval žákovský přístup k individuální mimočítankové četbě a využívání tzv. online literárních příruček.

Monitoring povrchových projevů hlubinného dobývání na Karvinsku
Doležalová, Hana ; Kajzar, Vlastimil
Geodetické sledování lokality Louky ukázalo nepravidelnosti ve vývoji poklesové kotliny a také pomohlo zdokumentovat měnící se terén v důsledku probíhajících rekultivačních aktivit. Opakovaná měření metodou GNSS zaznamenala nejen velikost poklesů jednotlivých bodů, ale také velikost a směr posunů těchto bodů, čímž odhalila ovlivnění povrchových bodů hlubinnou těžbou jak v zájmové lokalitě, tak v jejím okolí. Ukázalo se, že zejména výrazná tektonická porucha A tvoří bariéru pro ovlivnění povrchu hlubinnou těžbou. Poklesová kotlina se vyvíjí jinak, než předpovídaly modely předpokládaných poklesů, a to především v oblasti mezi tektonickými poruchami X a A. Metoda letecké fotogrammetrie pak vedle poklesů způsobených hlubinnou těžbou zaznamenala rozsah a velikost změn způsobených probíhající rekultivací povrchu.
Plný tet: UGN_0464599 - Stáhnout plný textPDF
Plný text: content.csg - Stáhnout plný textPDF

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Network-wide Security Analysis
de Silva, Hidda Marakkala Gayan Ruchika ; Šafařík,, Jiří (oponent) ; Šlapal, Josef (oponent) ; Švéda, Miroslav (vedoucí práce)
The objective of the research is to model and analyze the effects of dynamic routing protocols. The thesis addresses the analysis of service reachability, configurations, routing and security filters on dynamic networks in the event of device or link failures. The research contains two main sections, namely, modeling and analysis. First section consists of modeling of network topology, protocol behaviors, device configurations and filters. In the modeling, graph algorithms, routing redistribution theory, relational algebra and temporal logics were used. For the analysis of reachability, a modified topology table was introduced. This is a unique centralized table for a given network and invariant for network states. For the analysis of configurations, a constraint-based analysis was developed by using XSD Prolog. Routing and redistribution were analyzed by using routing information bases and for analyzing the filtering rules, a SAT-based decision procedure was incorporated. A part of the analysis was integrated to a simulation tool at OMNeT++ environment. There are several innovations introduced in this thesis. Filtering network graph, modified topology table, general state to reduce the state space, modeling devices as filtering nodes and constraint-based analysis are the key innovations. Abstract network graph, forwarding device model and redistribution with routing information are extensions of the existing research. Finally, it can be concluded that this thesis discusses novel approaches, modeling methods and analysis techniques in the area of dynamic networks. Integration of these methods into a simulation tool will be a very demanding product for the network designers and the administrators.

Analysis and Testing of Concurrent Programs
Letko, Zdeněk ; Lourenco, Joao (oponent) ; Sekanina, Lukáš (oponent) ; Vojnar, Tomáš (vedoucí práce)
The thesis starts by providing a taxonomy of concurrency-related errors and an overview of their dynamic detection. Then, concurrency coverage metrics which measure how well the synchronisation and concurrency-related behaviour of tested programs has been examined are proposed together with a~methodology for deriving such metrics. The proposed metrics are especially suitable for saturation-based and search-based testing. Next, a novel coverage-based noise injection techniques that maximise the number of interleavings witnessed during testing are proposed. A comparison of various existing noise injection heuristics and the newly proposed heuristics on a set of benchmarks is provided, showing that the proposed techniques win over the existing ones in some cases. Finally, a novel use of stochastic optimisation algorithms in the area of concurrency testing is proposed in the form of their application for finding suitable combinations of values of the many parameters of tests and the noise injection techniques. The approach has been implemented in a prototype way and tested on a set of benchmark programs, showing its potential to significantly improve the testing process.

Acceleration Methods for Evolutionary Design of Digital Circuits
Vašíček, Zdeněk ; Miller, Julian (oponent) ; Zelinka,, Ivan (oponent) ; Sekanina, Lukáš (vedoucí práce)
Although many examples showing the merits of evolutionary design over conventional design techniques utilized in the field of digital circuits design have been published, the evolutionary approaches are usually hardly applicable in practice due to the various so-called scalability problems. The scalability problem represents a general problem that refers to a situation in which the evolutionary algorithm is able to provide a solution to a small problem instances only. For example, the scalability of evaluation of a candidate digital circuit represents a serious issue because the time needed to evaluate a candidate solution grows exponentially with the increasing number of primary inputs. In this thesis, the scalability problem of evaluation of a candidate digital circuit is addressed. Three different approaches to overcoming this problem are proposed. Our goal is to demonstrate that the evolutionary design approach can produce interesting and human competitive solutions when the problem of scalability is reduced and thus a sufficient number of generations can be utilized. In order to increase the performance of the evolutionary design of image filters, a domain specific FPGA-based accelerator has been designed. The evolutionary design of image filters is a kind of regression problem which requires to evaluate a large number of training vectors as well as generations in order to find a satisfactory solution. By means of the proposed FPGA accelerator, very efficient nonlinear image filters have been discovered. One of the discovered implementations of an impulse noise filter consisting of four evolutionary designed filters is protected by the Czech utility model. A different approach has been introduced in the area of logic synthesis. A method combining formal verification techniques with evolutionary design that allows a significant acceleration of the fitness evaluation procedure was proposed. The proposed system can produce complex and simultaneously innovative designs, overcoming thus the major bottleneck of the evolutionary synthesis at gate level. The proposed method has been evaluated using a set of benchmark circuits and compared with conventional academia as well as commercial synthesis tools. In comparison with the conventional synthesis tools, the average improvement in terms of the number of gates provided by our system is approximately 25%. Finally, the problem of the multiple constant multiplier design, which belongs to the class of problems where a candidate solution can be perfectly evaluated in a short time, has been investigated. We have demonstrated that there exists a class of circuits that can be evaluated efficiently if a domain knowledge is utilized (in this case the linearity of components).

Stability and convergence of numerical computations
Sehnalová, Pavla ; Dalík, Josef (oponent) ; Horová, Ivana (oponent) ; Kunovský, Jiří (vedoucí práce)
The aim of this thesis is to analyze the stability and convergence of fundamental numerical methods for solving ordinary differential equations. These include one-step methods such as the classical Euler method, Runge-Kutta methods and the less well known but fast and accurate Taylor series method. We also consider the generalization to multistep methods such as Adams methods and their implementation as predictor-corrector pairs. Furthermore we consider the generalization to multiderivative methods such as Obreshkov method. There is always a choice in predictor-corrector pairs of the so-called mode of the method and in this thesis both PEC and PECE modes are considered. The main goal and the new contribution of the thesis is the use of a special fourth order method consisting of a two-step predictor followed by an one-step corrector, each using second derivative formulae. The mathematical background of historical developments of Nordsieck representation, the algorithm of choosing a variable stepsize or an error estimation are discussed. The current approach adapts well to the multiderivative situation in variable stepsize formulations. Experiments for linear and non-linear problems and the comparison with classical methods are presented.