Národní úložiště šedé literatury Nalezeno 36,120 záznamů.  začátekpředchozí31 - 40dalšíkonec  přejít na záznam: Hledání trvalo 0.87 vteřin. 

Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů
Tulach, David ; Lačev, Alek (vedoucí práce) ; Hochel, Matej (oponent)
Tato práce, Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů, se zabývá otázkou, zdali je možné a přínosné, aby střední školy spolupracovaly s firmami na přípravě či úpravě svých vzdělávacích programů za cílem zlepšení kvality vzdělávání. Po prvotních příspěvcích ze strany odborníků, které na tuto otázku odpovídaly negativně, byl pohled zaměřen na kořen věci - na čem stojí historické pilíře školství a pedagogiky, co o učení se a výuce říká věda, jak pedagogika reaguje na krizi věd. Při porovnání literárních zdrojů a závěrů z rozhovorů s odborníky v kombinaci s analýzou stop a výsledků činnosti odborníků dalších byla stanovena teorie, že veřejné školství dospívá do bodu krize, ve své podstatě se od svého vzniku nezměnilo a nejlepším řešením může být vytvoření alternativních vzdělávacích institucí.

Confidence Cycles and Liquidity Hoarding
Audzei, Volha
Důvěra na trzích se během minulých ekonomických krizí ukázala být důležitým faktorem. Přesto mnoho existujících modelů všeobecné rovnováhy neuvažuje očekávání ekonomických subjektů, volatilitu trhů nebo příliš pesimistické výhledy investorů. V této práci je do modelu DSGE zakomponován model mezibankovního trhu, přičemž úroková sazba na mezibankovním trhu a objem půjček záleží na tržní důvěře a vnímání rizika spojeného s protistranou. K úvěrové krizi v modelu dojde při vnímání nárůstu rizika protistrany. Výsledky naznačují, že změny v důvěře na trzích mohou generovat úvěrové krize a přispívat k hloubce ekonomických recesí. V článku jsou také provedeny simulace napodobující některé měnové politiky centrálních bank: cílované a necílované poskytování likvidity a snížení měnověpolitických sazeb. Výsledky naznačují, že bez ovlivnění očekávání ekonomických subjektů mají tyto politiky na nabídku úvěrů pouze omezený dopad. Zajímavé je také zjištění, že nízké úrokové míry v tomto modelu zhoršují ekonomickou recesi skrze negativní dopad na bilance bank. Poskytování likvidity mírně stimuluje úvěry, ale efektivita tohoto kroku je podrývána hromaděním likvidity.
Plný text: Stáhnout plný textPDF

Dvojice fázově synchronizovaných polovodičových laserů pro délkovou metrologii
Hucl, Václav ; Holá, Miroslava ; Čížek, Martin ; Řeřucha, Šimon ; Pham, Minh Tuan ; Pravdová, Lenka ; Lazar, Josef ; Číp, Ondřej
Polovodičové lasery nacházejí stále širší uplatnění v oblastech, kde dominují prozatím plynové He-Ne lasery. Jednou z takových oblastí je i délková metrologie, kde He-Ne laser pracující na vlnové délce 633 nm je stále tradičním zdrojem koherentního světla pro laserový interferometr odměřující vzdálenost. Výhodou polovodičových laserů oproti He-Ne laserům mají řádově větší optický výkon a výrazně širší rozsah přeladění vlnové délky bez modových přeskoků. Další výhodou je frekvenční modulace vlnové délky laserové diody přímou změnou hodnoty injekčního proudu. Zmíněné výhody předurčují takové laserové diody pro realizaci dvoufrekvenčních laserových zdrojů pro heterodynní interferometrii. V tomto případě je pomocí fázového závěsu optická frekvence jedné laserové diody zavěšena na optickou frekvenci laserové diody druhé a zároveň jsou optické frekvence obou laserů vzájemně odladěny o požadovanou hodnotu v řádu MHz. V našem příspěvku představujeme využití laserových diod s vnitřní strukturou s Braggovskou mřížkou pro realizaci dvoufrekvenčního laserového zdroje, který je určen pro laserovou interferometrii s heterodynní detekcí.

Reference optických kmitočtů
Hrabina, Jan
Reference optických kmitočtů založené na absorpčních kyvetách plněných absorpčními plyny představují účinný a nepostradatelný nástroj k realizaci a frekvenční stabilizaci laserových standardů. Jedním z nejčastěji používaných absorpčních médií je molekulární jód 127I2 .\nHlavním problémem použití tohoto média je jeho extrémní citlivost na přítomnost příměsí. Práce přináší přehled a srovnání možných měřicích metod pro kontrolu čistoty absorpčních kyvet v jak klasickém "bulk" tak i optovláknovém provedení.\n\n

Fázově koherentní přenos stabilní optické frekvence pro senzorické sítě
Čížek, Martin ; Pravdová, Lenka ; Hucl, Václav ; Řeřucha, Šimon ; Hrabina, Jan ; Mikel, Břetislav ; Lazar, Josef ; Číp, Ondřej
Využití optických vláken pro fázově koherentní přenosy vysoce stabilních optických frekvencí na velké vzdálenosti je testováno světovými metrologickými laboratořemi již řadu let. Současný rozmach moderních optovláknových senzorů v průmyslových aplikacích vytváří poptávku po transferu technologie fázově koherentních přenosů z laboratoří do průmyslové praxe. Příkladem může být dálková kalibrace tenzometrů pracujících na principu Braggových vláknových mřížek. V našem příspěvku prezentujeme 306 km dlouhou obousměrnou experimentální optickou trasu pro fázově koherentní přenosy z pracoviště oddělení Koherenční optiky na ÚPT AVČR v Brně do laboratoře sdružení CESNET v Praze. Linka využívá telekomunikační vlákno s vyhrazeným DWDM oknem 1540-1546 nm. V tomto okně probíhá stabilizovaný fázově koherentní přenos laserového normálu pracujícího na vlnové délce 1540,5 nm a obousměrný přenos časových značek 1PPS z časových normálů na obou koncích trasy. V příspěvku je diskutováno dlouhodobé měření fluktuací transportního zpoždění a relativní stability linky.

Retargetable Analysis of Machine Code
Křoustek, Jakub ; Janoušek, Jan (oponent) ; Návrat,, Pavol (oponent) ; Kolář, Dušan (vedoucí práce)
Program analysis is a computer-science methodology whose task is to analyse the behavior of a given program. The methods of program analysis can also be used in other methodologies such as reverse engineering, re-engineering, code migration, etc. In this thesis, we focus on program analysis of a machine-code and we address the limitations of a nowadays approaches by proposing novel methods of a fast and accurate retargetable analysis (i.e. they are designed to be independent of a particular target platform). We focus on two types of analysis - dynamic analysis (i.e. run-time analysis) and static analysis (i.e. analysing application without its execution). The contribution of this thesis within the dynamic analysis lays in the extension and enhancement of existing methods and their implementation as a retargetable debugger and two types of a retargetable translated simulator. Within the static analysis, we present a concept and implementation of a retargetable decompiler that performs a program transformation from a machine code into a human-readable form of representation. All of these tools are based on several novel methods defined by the author. According to our experimental results and users feed-back, all of the proposed tools are at least fully competitive to existing solutions, while outperforming these solutions in several ways.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Důvěra a reputace v distribuovaných systémech
Samek, Jan ; Návrat,, Pavol (oponent) ; Šafařík,, Jiří (oponent) ; Hanáček, Petr (vedoucí práce)
Tato disertační práce se zabývá problematikou modelování důvěry v distribuovaných systémech, konkrétně pak více-kontextové důvěry v distribuovaných multi-agentních systémech. V současné době existuje velké množství modelů důvěry či reputace, nicméně více-kontextová vlastnost důvěry či reputace v nich není často zohledněna. Z tohoto důvodu se práce zaměřuje především na analýzu více-kontextových modelů založených na důvěře a na jejím základě stanovuje předpoklady pro nový, vlastnost více-kontextovost plně podporující, model důvěry. Stěžejní částí práce je formální návrh nového více-kontextového modelu důvěry, který je schopen vytvářet, aktualizovat a uchovávat důvěru pro různé aspekty (kontexty) jedné entity multi-agentního systému. Důvěru lze v navrženém modelu budovat jak na základě přímých zkušeností, tak i na základě doporučení a reputace. Dalším aspektem navrženého modelu je schopnost odvozovat důvěru v různé kontexty na základě znalosti důvěry v kontexty jiné, což je zajištěno vytvořením hierarchické struktury jednotlivých kontextů jedné entity. Přínosem nového modelu je především zvýšení efektivity rozhodování agentů v rámci multi-agentního systému ve smyslu schopnosti výběru optimálního partnera pro provedení transakce. Návrh modelu byl ověřen implementací prototypu multi-agentního systému, ve kterém se agenti rozhodují a jednají na základě důvěry.

Stability and convergence of numerical computations
Sehnalová, Pavla ; Dalík, Josef (oponent) ; Horová, Ivana (oponent) ; Kunovský, Jiří (vedoucí práce)
The aim of this thesis is to analyze the stability and convergence of fundamental numerical methods for solving ordinary differential equations. These include one-step methods such as the classical Euler method, Runge-Kutta methods and the less well known but fast and accurate Taylor series method. We also consider the generalization to multistep methods such as Adams methods and their implementation as predictor-corrector pairs. Furthermore we consider the generalization to multiderivative methods such as Obreshkov method. There is always a choice in predictor-corrector pairs of the so-called mode of the method and in this thesis both PEC and PECE modes are considered. The main goal and the new contribution of the thesis is the use of a special fourth order method consisting of a two-step predictor followed by an one-step corrector, each using second derivative formulae. The mathematical background of historical developments of Nordsieck representation, the algorithm of choosing a variable stepsize or an error estimation are discussed. The current approach adapts well to the multiderivative situation in variable stepsize formulations. Experiments for linear and non-linear problems and the comparison with classical methods are presented.

HUMAN ACTION RECOGNITION IN VIDEO
Řezníček, Ivo ; Baláž, Teodor (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
This thesis focuses on the improvement of human action recognition systems. It reviews the state-of-the-art in the field of action recognition from video. It describes techniques of digital image and video capture, and explains computer representations of image and video. This thesis further describes how local feature vectors and local space-time feature vectors are used, and how captured data is prepared for further analysis, such as classification methods. This is typically done with video segments of arbitrarily varying length. The key contribution of this work explores the hypothesis that the analysis of different types of actions requires different segment lenghts to achieve optimal quality of recognition. An algorithm to find these optimal lengths is proposed, implemented, and tested. Using this algorithm, the hypothesis was experimentally proven. It was also shown that by finding the optimal length, the prediction and classification power of current algorithms is improved upon. Supporting experiments, results, and proposed exploitations of these findings are presented.