Národní úložiště šedé literatury Nalezeno 23,344 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.64 vteřin. 

Využití popela ze spalování biomasy
Ochecová, Pavla ; Tlustoš, Pavel (vedoucí práce) ; Radim, Radim (oponent)
V České republice, podobně jako i v jiných zemích Evropské unie, dochází k rozvoji využití obnovitelných zdrojů energie. Důvodem je mimo jiné závazek členských států EU dosáhnout podílu 20 % energie získané z obnovitelných zdrojů do roku 2020, a tím se snižuje závislost národních hospodářství na fosilních palivech a importech energetických surovin, omezuje se tvorba skleníkových plynů, a v neposlední řadě se přispívá i k rozvoji zaměstnanosti v jednotlivých regionech. Jedním z nejčastěji využívaných zdrojů obnovitelné energie je biomasa, především dřevní biomasa. Spalování patří mezi nejběžnější technologie využívající nahromaděné energie z biomasy k produkci tepla. Vedlejším produktem těchto technologií je popel, jehož složení je odvislé od složení vstupní suroviny i od technologie použité pro spalování. Popel se skládá z širokého spektra chemických prvků a jejich sloučenin, mezi nimiž dominují prvky jako Si, Ca, Mg, Al, K a P. Tyto prvky byly součástí biomasy rostlin, ale mohou pocházet i z prachu zachyceného během růstu na povrchu rostlin, či jsou společně s biomasou sklizeny - například zbytky zeminy, kameny apod. Vezmeme-li v úvahu zvyšující se počet instalovaných zařízení na spalování biomasy v České republice, a tedy i nárůst produkce popelů, je nutné se začít seriózně zabývat otázkou možného druhotného využití těchto popelů. Jednou z vhodných možností se zdá být, dle zahraničních zkušeností, a vzhledem k vysokému obsahu cenných živin, aplikace na zemědělskou či lesní půdu. Při aplikaci popelů na půdu jsou důležitými faktory kromě jiného typ popela, jeho dávka a typ půdy, neboť půdní aditivum má většinou vliv na mobilitu prvků v půdě a na půdní vlastnosti. Nevhodně zvolený popel či jeho dávka mohou způsobit omezení příjmu živin rostlinami nebo kontaminaci půdy rizikovými prvky či sloučeninami. Je tedy zřejmé, že pro případné zemědělské využití je třeba testovat popele ze spalování biomasy na půdách a rostlinách, podrobně popsat jejich vliv a hledat nejvhodnější kombinace pro konkrétní půdy a plodiny v našich podmínkách.

Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů
Tulach, David ; Lačev, Alek (vedoucí práce) ; Hochel, Matej (oponent)
Tato práce, Spolupráce středních škol s externími firmami v přípravě školních vzdělávacích programů, se zabývá otázkou, zdali je možné a přínosné, aby střední školy spolupracovaly s firmami na přípravě či úpravě svých vzdělávacích programů za cílem zlepšení kvality vzdělávání. Po prvotních příspěvcích ze strany odborníků, které na tuto otázku odpovídaly negativně, byl pohled zaměřen na kořen věci - na čem stojí historické pilíře školství a pedagogiky, co o učení se a výuce říká věda, jak pedagogika reaguje na krizi věd. Při porovnání literárních zdrojů a závěrů z rozhovorů s odborníky v kombinaci s analýzou stop a výsledků činnosti odborníků dalších byla stanovena teorie, že veřejné školství dospívá do bodu krize, ve své podstatě se od svého vzniku nezměnilo a nejlepším řešením může být vytvoření alternativních vzdělávacích institucí.

Single particle analysis of size-segregated aerosol in Prague city center
Marvanová, S. ; Skoupý, Radim ; Kulich, P. ; Bendl, J. ; Hovorka, J. ; Machala, M.
Particulate matter (PM) is omnipresent pollutant in the ambient air known to cause cardiovascular and respiratory diseases (WHO 2004). Recently, outdoor air pollution and particulate matter in outdoor air pollution were classified as carcinogenic to humans, Group 1 (IARC 2015). Especially, ambient PM of aerodynamic diameter < 100 nm, ultrafine particles, appears to be of great importance due to its high specific surface area and high number concentration (Hughes et al. 1998). Ultrafine particles also easily enter and are being transferred in organisms, and interact with cells and subcellular components (Oberdorster et al. 2005). As the evidence of ultrafine PM significance increased, size-fractionated PMs sampled by various cascade impactors have been employed into the toxicological studies on cell cultures or isolated cells, using the organic extracts of size-fractionated PMs (Topinka et al. 2013, Topinka et al. 2015) or directly the size-fractionated particles (Becker et al. 2003, Ramgolam et al. 2009, Reibman et al. 2002, Loxham et al. 2013, Jalava et al. 2006, Thomson et al. 2015, Jalava et al. 2015). The aim of this study was to evaluate shape and composition of size-segregated aerosol particles, sampled by high volume cascade impactor, using electron microscopy and energy dispersive X-ray spectroscopy (EDX).

Diamond coated AlGaN/GaN high electron mobility transistors - effect of deposition process on gate electrode
Vanko, G. ; Ižák, Tibor ; Babchenko, O. ; Kromka, Alexander
We studied the influence of the diamond deposition on the degradation of Schottky gate electrodes (i.e. Ir or IrO2) and on the electrical characteristics of AlGaN/GaN high electron mobility transistors (HEMTs). In present study, the diamond films were selectively deposited on the AlGaN/GaN circular HEMT by focused (ellispoidal cavity reactor) and linear antenna (surface wave) microwave plasma at different temperatures from 400°C to 1100°C. The preliminary results on electrical measurements on the diamond-coated c-HEMTs showed degraded electrical properties comparing to c-HEMTs before deposition process, which was attributed to degradation of the Ir gate electrodes even at temperatures as low as 400°C. On the other hand, metal oxide gate electrode layer (IrO2) can withstand diamond CVD process even at high temperatures (~900°C) which make it suitable for fabrication of all-in-diamond c-HEMT devices for high-power applications.

(100) substrate processing optimization for fabrication of smooth boron doped epitaxial diamond layer by PE CVD
Mortet, Vincent ; Fekete, Ladislav ; Ashcheulov, Petr ; Taylor, Andrew ; Hubík, Pavel ; Trémouilles, D. ; Bedel-Pereira, E.
Boron doped diamond layers were grown in an SEKI AX5010 microwave plasma enhanced chemical vapour deposition system. Effect of surface preparation, i.e. polishing and O2/H2 plasma etching on epitaxial growth on type Ib (100) HPHT synthetic diamonds were investigated. Using optimized substrate preparation, smooth (RRMS ~ 1 nm) boron doped diamond layers with metallic conduction and free of un-epitaxial crystallites were grown with a relatively high growth rate of 3.7 μm/h. Diamond were characterized by optical microscopy, optical profilometry, atomic force microscopy and Hall effect.

Corrosion behavior of plasma coatings CuAl10 and CuAl50 on magnesium alloy AZ 91
Kubatík, Tomáš František ; Stoulil, J. ; Stehlíková, K. ; Slepička, P. ; Janata, Marek
The most common magnesium alloy AZ 91 is widely used as a structural material, but its use is limited at higher temperatures and high humidity. Plasma spraying is a technology that allows to prepare protective metallic and non-metallic coatings on a wide variety of substrates including magnesium and its alloys. In this study, CuAl10 and CuAl50 were plasma sprayed on magnesium alloy AZ 91 with the aim to study corrosion resistance of the plasma sprayed coatings. The corrosion resistance of layers was evaluated by the method of electrochemical potentiodynamic measurement as well as long-term corrosion tests in a condensation chamber with 0.5 mol\nNaCl at the temperature of 35 °C for 1344 hours. Layers with 1, 2, 5 passes and passes of CuAl10 with the thickness ranging from 75 to 716 mm and CuAl50 with the thickness ranging from 64 to 566 mm were prepared. The increased corrosion velocity was observed in the case of thin layers of 2 and 5 passes due to the development of a galvanic corrosion couple. The CuAl10 layer prepared with ten passes has an outstanding corrosion resistance.

Optický rezonátor s nízkou disperzí pro účely délkového senzoru využivající optický frekvenční hřeben
Pravdová, Lenka ; Hucl, Václav ; Lešundák, Adam ; Lazar, Josef ; Číp, Ondřej
Ultra přesná měření délky jsou doménou laserových interferometrů. Na našem pracovišti jsme navrhli a experimentálně ověřili metodu měření s optickým rezonátorem, která využívá širokospektrálního záření optického frekvenčního hřebene. Měřená délka, tj. délka rezonátoru, je pak převedena na hodnotu opakovací frekvence pulsního laseru se synchronizací modů optického frekvenčního hřebene. V našem příspěvku nyní představujeme porovnání absolutní stupnice optického rezonátoru se stupnicí inkrementálního interferometru. Inkrementální interferometr je do sestavy implementován pro provedení požadované verifikace stupnice optického rezonátoru. Dvousvazkový inkrementální interferometr pracuje na vlnové délce 633 nm a měřicí zrcadlo rezonátoru vybavené piezo posuvem je s výhodou použito zároveň i jako zpětný odrážeč pro tento interferometr. Jako markantní chybový signál se zde projevuje periodická nelinearita stupnice inkrementálního interferometru. Relativní rozlišení naší metody tak dosahuje hodnoty až 10-9 při zachování absolutní stupnice měření.\n

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

Optimalizace sledování síťových toků
Žádník, Martin ; Lhotka,, Ladislav (oponent) ; Matoušek, Radomil (oponent) ; Sekanina, Lukáš (vedoucí práce)
Tato disertační práce se zabývá optimalizací sledování síťových toků. Sledování síťových toků spočívá ve sledování jejich stavu a je klíčovou úlohou pro řadu síťových aplikací. S každým příchodem paketu je nutné aktualizovat hodnoty stavu, což zahrnuje přístupy do paměti. Vzhledem k vysoké propustnosti linek a obrovskému množství souběžných toků hraje přístup do paměti kritickou roli ve výkonnosti stavového zpracování síťového provozu. Tento problém se řeší různými technikami. Tyto techniky ale ve výsledku vždy požadují, aby nejblíže zpracování provozu byla nasazena paměť s nízkou odezvou, cache toků, schopná vyřídit všechny přístupy. Cache toků má proto omezenou kapacitu a její efektivní správa má zásadní vliv na výkonnost a výsledky zpracování síťového provozu. Vzhledem ke specifikům síťového provozu nemusí být stávající správy vhodné pro správu cache toků. Disertační práce se proto zabývá automatizovaným vývojem správy cache na základě reálného provozu dané sítě. Automatizace vývoje správy cache toků je realizována pomocí genetického algoritmu. Genetický algoritmus vyvíjí nová řešení a hodnotí je simulací nad vzorkem provozu z různých sítí. Navržený postup je ověřen na vývoji správ pro dva problémy. Prvním problémem je vývoj správy, která bude vykazovat celkově nízký počet výpadků stavů z cache toků. Druhým problémem je vývoj správy, která bude vykazovat velmi nízký počet výpadků u velkých toků. Optimalizace zakódování správy a experimenty s parametry genetického algoritmu ukázují, že je možné nalézt správy cache toků, které jsou optimalizované pro specifika daného nasazení. Nově vyvinuté správy poskytují lepší výsledky než ostatní testované správy. Z hlediska snížení celkového počtu výpadků je vyvinuta správa, která snižuje počet výpadků na konkrétní datové sadě až o deset procent vůči nejlepší porovnávané správě. Z pohledu snížení počtu výpadků u velkých toků je dosaženo vyvinutou správou až dvojnásobného snížení výpadků. Většina velkých toků (více než 90%) nezaznamenala při použití vyvinuté správy dokonce ani jeden výpadek. Rovněž během záplav nových toků, které se v síťovém provozu vyskytují v souvislosti se skenováním sítí a útoky, se ukazují velmi dobré vlastnosti vyvinuté správy. V rámci práce je rovněž navrženo rozšíření správy o využití doplňkové informace ze záhlaví příchozích paketů. Výsledky ukazují, že kombinací této informace lze počet výpadků u správ dále snižovat.