Národní úložiště šedé literatury Nalezeno 42,759 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 2.09 vteřin. 

Srovnání názorů a postojů žáků středních odborných škol v oblasti návykových látek
Mazánková, Michaela ; Jirsáková, Jitka (vedoucí práce) ; Miroslava, Miroslava (oponent)
Bakalářská práce s názvem Srovnání názorů a postojů žáků středních odborných škol v oblasti návykových látek se zabývá srovnáním názorů a postojů žáků SOŠ a SOU na Obchodní akademii a Hotelové škole Havlíčkův Brod. První část je věnována obecné charakteristice rizikového chování, příčinami jeho vzniku, jednotlivými typy a prevencí rizikového chování. Analytická část je věnována vyhodnocení dotazníkového šetření a zjištěné výsledky porovnávají názory a postoje studentů SOŠ a SOU a poukazují na současný výskyt rizikového chování na zkoumané střední škole. Na základě vyhodnocených dat jsou v závěru práce navržena konkrétní preventivní opatření zvlášť pro studenty SOŠ a SOU.

Single particle analysis of size-segregated aerosol in Prague city center
Marvanová, S. ; Skoupý, Radim ; Kulich, P. ; Bendl, J. ; Hovorka, J. ; Machala, M.
Particulate matter (PM) is omnipresent pollutant in the ambient air known to cause cardiovascular and respiratory diseases (WHO 2004). Recently, outdoor air pollution and particulate matter in outdoor air pollution were classified as carcinogenic to humans, Group 1 (IARC 2015). Especially, ambient PM of aerodynamic diameter < 100 nm, ultrafine particles, appears to be of great importance due to its high specific surface area and high number concentration (Hughes et al. 1998). Ultrafine particles also easily enter and are being transferred in organisms, and interact with cells and subcellular components (Oberdorster et al. 2005). As the evidence of ultrafine PM significance increased, size-fractionated PMs sampled by various cascade impactors have been employed into the toxicological studies on cell cultures or isolated cells, using the organic extracts of size-fractionated PMs (Topinka et al. 2013, Topinka et al. 2015) or directly the size-fractionated particles (Becker et al. 2003, Ramgolam et al. 2009, Reibman et al. 2002, Loxham et al. 2013, Jalava et al. 2006, Thomson et al. 2015, Jalava et al. 2015). The aim of this study was to evaluate shape and composition of size-segregated aerosol particles, sampled by high volume cascade impactor, using electron microscopy and energy dispersive X-ray spectroscopy (EDX).

Frekvenčně stabilizovaný polovodičový laserový zdroj pro interferometrii s vysokým rozlišením
Řeřucha, Šimon ; Hucl, Václav ; Holá, Miroslava ; Čížek, Martin ; Pham, Minh Tuan ; Pravdová, Lenka ; Lazar, Josef ; Číp, Ondřej
Sestavili jsme experimentální laserový systém, založený na laserové diodě typu DBR (Distributed Bragg Reflector), frekvenčně stabilizovaný na absorpční čáry v parách molekulárního jodu. Laserový systém operuje na vlnové délce ležící v blízkosti vlnové délky stabilizovaných helium-neonových (HeNe) laserů (tj. 633 nm), které představují de-facto standardní laserový zdroj v oblasti metrologie délek. Cílem bylo ověřit, že parametry takového systému umožní jej využít jako náhradu právě He-Ne laserů, která navíc umožní větší rozsah a větší šířku pásma přeladění optické frekvence a vyšší výkon. Experimentálně jsme ověřili základní charakteristiky laserového zdroje, které jsme dále porovnali s charakteristikami typického frekvenčně stabilizovaného He-Ne laseru. K tomu jsme využili experimentální uspořádání blízké typickým využitím laserové interferometrie v metrologii délky. Výsledky prokazují, že laserový systém, založený na laserové diodě DBR představuje vhodný zdroj pro aplikace v (nano) metrologii délky tím, že zachovává fundamentální požadavky na laserový zdroj jako frekvenční stabilita a koherenční délka a zároveň umožňuje přeladění optické frekvence o více než 0.5 nm s šířkou pásma modulace až několik MHz, vyšší výkon v řádu několika mW a díky stabilizaci i fundamentální metrologickou návaznost.

Optický rezonátor s nízkou disperzí pro účely délkového senzoru využivající optický frekvenční hřeben
Pravdová, Lenka ; Hucl, Václav ; Lešundák, Adam ; Lazar, Josef ; Číp, Ondřej
Ultra přesná měření délky jsou doménou laserových interferometrů. Na našem pracovišti jsme navrhli a experimentálně ověřili metodu měření s optickým rezonátorem, která využívá širokospektrálního záření optického frekvenčního hřebene. Měřená délka, tj. délka rezonátoru, je pak převedena na hodnotu opakovací frekvence pulsního laseru se synchronizací modů optického frekvenčního hřebene. V našem příspěvku nyní představujeme porovnání absolutní stupnice optického rezonátoru se stupnicí inkrementálního interferometru. Inkrementální interferometr je do sestavy implementován pro provedení požadované verifikace stupnice optického rezonátoru. Dvousvazkový inkrementální interferometr pracuje na vlnové délce 633 nm a měřicí zrcadlo rezonátoru vybavené piezo posuvem je s výhodou použito zároveň i jako zpětný odrážeč pro tento interferometr. Jako markantní chybový signál se zde projevuje periodická nelinearita stupnice inkrementálního interferometru. Relativní rozlišení naší metody tak dosahuje hodnoty až 10-9 při zachování absolutní stupnice měření.\n

Forecasting realized volatility: Do jumps in prices matter?
Lipták, Štefan ; Baruník, Jozef (vedoucí práce) ; Šopov, Boril (oponent)
Táto práca aplikuje heterogénny autoregresný model realizovanej volatility na pät'-minútové dáta troch spomedzi najlikvidnejších finančných aktív - S&P 500 Futures index, Euro FX a ropa. Hlavný prínos tejto práce spočíva v analyzovaní mimoriadneho množstva dát, ked'že pochádzajú z neobyčajne dlhého obdobia až 25 rokov, v prípade Euro FX je to 13 rokov. Jedným z ciel'ov je ukázat', že rozklad realizovanej variancie na spojitú a skokovú čast' má pozitívny vplyv na jej predpovedatel'nost' aj na vysokofrekvenčných dátach pokrývajúcich vel'mi dlhé obdobia. Hlavným ciel'om práce je skúmat' dynamiku parametrov HAR modelu v čase, a taktiež povahu volatility u rôznych druhov finančných aktív. Výsledky analýzy na dátach všetkých troch aktív potvrdzujú, že rozklad realizovanej variancie prispieva k vylepšeniu odhadov. Ukázalo sa však, že predpovedacia schopnost' modelu je najlepšia v prípade, že parametre boli odhadnuté na krátkych obdobiach (1-2 roky), čo je spôsobené pravdepodobne vysokou dynamikou parametrov v čase. Táto nestabilita parametrov bola odhalená aj s pomocou odhadov za jenotlivé roky, a to u všetkých súborov. Z toho vyplýva zaujímavé zistenie, a to že HAR model nie je vhodný na predpovedanie realizovanej volatility...

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Exploitation of GPU in graphics and image processing algorithms
Jošth, Radovan ; Svoboda, David (oponent) ; Trajtel,, Ľudovít (oponent) ; Herout, Adam (vedoucí práce)
This thesis introduces several selected algorithms, which were primarily developed for CPUs, but based on high demand for improvements; we have decided to utilize it on behalf of GPGPU. This modification was at the same time goal of our research. The research itself was performed on CUDA enabled devices. The thesis is divided in accordance with three algorithm&#8217;s groups that have been researched: a real-time object detection, spectral image analysis and real-time line detection. The research on real-time object detection was performed by using LRD and LRP features. Research on spectral image analysis was performed by using PCA and NTF algorithms and for the needs of real-time line detection, we have modified accumulation scheme for the Hough transform in two different ways. Prior to explaining particular algorithms and performed research, GPU architecture together with GPGPU overview are provided in second chapter, right after an introduction. Chapter dedicated to research achievements focus on methodology used for the different algorithm modifications and authors&#8217; assess to the research, as well as several products that have been developed during the research. The final part of the thesis concludes our research and provides more information about the research impact.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (oponent) ; Nöth, Elmar (oponent) ; Černocký, Jan (vedoucí práce)
 The thesis investigates into speaker verification by means of prosodic features. This includes an appropriate representation of speech by measurements of pitch, energy and duration of speech sounds. Two diverse parameterization methods are investigated: the first leads to a low-dimensional well-defined set, the second to a large-scale set of heterogeneous prosodic features. The first part of this work concentrates on the development of so called prosodic contour features. Different modeling techniques are developed and investigated, with a special focus on subspace modeling. The second part focuses on a novel subspace modeling technique for the heterogeneous large-scale prosodic features. The model is theoretically derived and experimentally evaluated on official NIST Speaker Recognition Evaluation tasks. Huge improvements over the current state-of-the-art in prosodic speaker verification were obtained. Eventually, a novel fusion method is presented to elegantly combine the two diverse prosodic systems. This technique can also be used to fuse the higher-level systems with a high-performing cepstral system, leading to further significant improvements.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Generic Reverse Compilation to Recognize Specific Behavior
Ďurfina, Lukáš ; Šaloun, Petr (oponent) ; Zahradnický,, Tomáš (oponent) ; Kolář, Dušan (vedoucí práce)
Thesis is aimed on recognition of specific behavior by generic reverse compilation. The generic reverse compilation is a process that transforms executables from different architectures and object file formats to same high level language. This process is covered by a tool Lissom Decompiler. For purpose of behavior recognition the thesis introduces Language for Decompilation -- LfD. LfD represents a simple imperative language, which is suitable for a comparison. The specific behavior is given by the known executable (e.g. malware) and the recognition is performed as finding the ratio of similarity with other unknown executable. This ratio of similarity is calculated by a tool LfDComparator, which processes two sources in LfD to decide their similarity.