Národní úložiště šedé literatury Nalezeno 38,584 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.86 vteřin. 

Srovnání názorů a postojů žáků středních odborných škol v oblasti návykových látek
Mazánková, Michaela ; Jirsáková, Jitka (vedoucí práce) ; Miroslava, Miroslava (oponent)
Bakalářská práce s názvem Srovnání názorů a postojů žáků středních odborných škol v oblasti návykových látek se zabývá srovnáním názorů a postojů žáků SOŠ a SOU na Obchodní akademii a Hotelové škole Havlíčkův Brod. První část je věnována obecné charakteristice rizikového chování, příčinami jeho vzniku, jednotlivými typy a prevencí rizikového chování. Analytická část je věnována vyhodnocení dotazníkového šetření a zjištěné výsledky porovnávají názory a postoje studentů SOŠ a SOU a poukazují na současný výskyt rizikového chování na zkoumané střední škole. Na základě vyhodnocených dat jsou v závěru práce navržena konkrétní preventivní opatření zvlášť pro studenty SOŠ a SOU.

Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů
Tulach, David ; Lačev, Alek (vedoucí práce) ; Hochel, Matej (oponent)
Tato práce, Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů, se zabývá otázkou, zdali je možné a přínosné, aby střední školy spolupracovaly s firmami na přípravě či úpravě svých vzdělávacích programů za cílem zlepšení kvality vzdělávání. Po prvotních příspěvcích ze strany odborníků, které na tuto otázku odpovídaly negativně, byl pohled zaměřen na kořen věci - na čem stojí historické pilíře školství a pedagogiky, co o učení se a výuce říká věda, jak pedagogika reaguje na krizi věd. Při porovnání literárních zdrojů a závěrů z rozhovorů s odborníky v kombinaci s analýzou stop a výsledků činnosti odborníků dalších byla stanovena teorie, že veřejné školství dospívá do bodu krize, ve své podstatě se od svého vzniku nezměnilo a nejlepším řešením může být vytvoření alternativních vzdělávacích institucí.

Predicting asp and pikeperch recruitment in a riverine redervoir.
BLABOLIL, Petr
Recruitment of two species, asp (Leuciscus aspius) and pikeperch (Sander lucioperca), in a riverine reservoir was studied using a novel statistical approach. Both species are piscivorous and are stocked into reservoirs for biomanipulative purposes to reduce planktivore species. Long-term data series were used, but the number of potential predictors was high. Therefore, a novel informative statistical approach based on dimension reduction methods was applied. Quality of outputs was driven by sampling methods. Main factors affecting asp recruitment were zooplankton abundance, predator density and temperature. In terms of pikeperch fry measured with seine and trawls, the number of predators was the only important factor. Gillnets underestimate small fish and the data were unsuitable for statistical modelling.

Corrosion behavior of plasma coatings CuAl10 and CuAl50 on magnesium alloy AZ 91
Kubatík, Tomáš František ; Stoulil, J. ; Stehlíková, K. ; Slepička, P. ; Janata, Marek
The most common magnesium alloy AZ 91 is widely used as a structural material, but its use is limited at higher temperatures and high humidity. Plasma spraying is a technology that allows to prepare protective metallic and non-metallic coatings on a wide variety of substrates including magnesium and its alloys. In this study, CuAl10 and CuAl50 were plasma sprayed on magnesium alloy AZ 91 with the aim to study corrosion resistance of the plasma sprayed coatings. The corrosion resistance of layers was evaluated by the method of electrochemical potentiodynamic measurement as well as long-term corrosion tests in a condensation chamber with 0.5 mol\nNaCl at the temperature of 35 °C for 1344 hours. Layers with 1, 2, 5 passes and passes of CuAl10 with the thickness ranging from 75 to 716 mm and CuAl50 with the thickness ranging from 64 to 566 mm were prepared. The increased corrosion velocity was observed in the case of thin layers of 2 and 5 passes due to the development of a galvanic corrosion couple. The CuAl10 layer prepared with ten passes has an outstanding corrosion resistance.

Frekvenčně stabilizovaný polovodičový laserový zdroj pro interferometrii s vysokým rozlišením
Řeřucha, Šimon ; Hucl, Václav ; Holá, Miroslava ; Čížek, Martin ; Pham, Minh Tuan ; Pravdová, Lenka ; Lazar, Josef ; Číp, Ondřej
Sestavili jsme experimentální laserový systém, založený na laserové diodě typu DBR (Distributed Bragg Reflector), frekvenčně stabilizovaný na absorpční čáry v parách molekulárního jodu. Laserový systém operuje na vlnové délce ležící v blízkosti vlnové délky stabilizovaných helium-neonových (HeNe) laserů (tj. 633 nm), které představují de-facto standardní laserový zdroj v oblasti metrologie délek. Cílem bylo ověřit, že parametry takového systému umožní jej využít jako náhradu právě He-Ne laserů, která navíc umožní větší rozsah a větší šířku pásma přeladění optické frekvence a vyšší výkon. Experimentálně jsme ověřili základní charakteristiky laserového zdroje, které jsme dále porovnali s charakteristikami typického frekvenčně stabilizovaného He-Ne laseru. K tomu jsme využili experimentální uspořádání blízké typickým využitím laserové interferometrie v metrologii délky. Výsledky prokazují, že laserový systém, založený na laserové diodě DBR představuje vhodný zdroj pro aplikace v (nano) metrologii délky tím, že zachovává fundamentální požadavky na laserový zdroj jako frekvenční stabilita a koherenční délka a zároveň umožňuje přeladění optické frekvence o více než 0.5 nm s šířkou pásma modulace až několik MHz, vyšší výkon v řádu několika mW a díky stabilizaci i fundamentální metrologickou návaznost.

Reference optických kmitočtů
Hrabina, Jan
Reference optických kmitočtů založené na absorpčních kyvetách plněných absorpčními plyny představují účinný a nepostradatelný nástroj k realizaci a frekvenční stabilizaci laserových standardů. Jedním z nejčastěji používaných absorpčních médií je molekulární jód 127I2 .\nHlavním problémem použití tohoto média je jeho extrémní citlivost na přítomnost příměsí. Práce přináší přehled a srovnání možných měřicích metod pro kontrolu čistoty absorpčních kyvet v jak klasickém "bulk" tak i optovláknovém provedení.\n\n

Možnosti monitorování laserového svařovacího procesu
Horník, Petr ; Mrňa, Libor
Se zvyšujícími se nároky na kvalitu svarů se běžně používá automatické strojní svařování s monitorováním procesu. Výsledná kvalita svaru je do značné míry ovlivněna chováním paroplynové dutiny - keyhole. Nicméně, její přímé pozorování během svařovacího procesu je prakticky nemožné a je nutné použít nepřímé metody. V ÚPT vyvíjíme optické metody sledování procesů založené na analýze záření laserem indukovaného plazmatu pomocí Fourierovy a autokorelační analýzy. Pozorovat vstupní otvor keyhole je částečně možné prostřednictvím koaxiální kamery umístěné na svařovací hlavě a následného zpracování obrazu. Vysokorychlostní boční kamera pomáhá pochopit dynamiku plazmového obláčku. Prostřednictvím optické spektroskopie plazmatu, lze studovat excitaci prvků v materiálu. Proud ochranné atmosféry může být vizualizován za použití schlierové metody.\n\n

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Exploitation of GPU in graphics and image processing algorithms
Jošth, Radovan ; Svoboda, David (oponent) ; Trajtel,, Ľudovít (oponent) ; Herout, Adam (vedoucí práce)
This thesis introduces several selected algorithms, which were primarily developed for CPUs, but based on high demand for improvements; we have decided to utilize it on behalf of GPGPU. This modification was at the same time goal of our research. The research itself was performed on CUDA enabled devices. The thesis is divided in accordance with three algorithm’s groups that have been researched: a real-time object detection, spectral image analysis and real-time line detection. The research on real-time object detection was performed by using LRD and LRP features. Research on spectral image analysis was performed by using PCA and NTF algorithms and for the needs of real-time line detection, we have modified accumulation scheme for the Hough transform in two different ways. Prior to explaining particular algorithms and performed research, GPU architecture together with GPGPU overview are provided in second chapter, right after an introduction. Chapter dedicated to research achievements focus on methodology used for the different algorithm modifications and authors’ assess to the research, as well as several products that have been developed during the research. The final part of the thesis concludes our research and provides more information about the research impact.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.