National Repository of Grey Literature 23,315 records found  beginprevious21 - 30nextend  jump to record: Search took 1.10 seconds. 

The use of biomass ash
Ochecová, Pavla ; Tlustoš, Pavel (advisor) ; Radim, Radim (referee)
One of the most frequently used sources of renewable energy is biomass, mainly wood biomass. Incineration is the most common technology utilizing the energy from biomass to produce heat. A byproduct of these technologies is ash, whose composition depends on the feedstock composition and the incineration technologies. Due to the high content of valuable nutrients in ash, one of the suitable option for ash utilization seems to be application into agricultural or forestry land. Therefore, it is necessary to test response of soils and plants and look for the most suitable combination of soil additive (biomass ash), and plants. Experimental part of PhD thesis was divided into the incubation experiment and the vegetation pot experiments. The incubation experiment: The efficiency of ash addition at two application rates was tested for nutrients enrichment in different soils within period of 56 days. The vegetation pot experiments: The two plants Triticum aestivum L: (three-year experiment) and Lolium perenne L. (one-year experiment) were planted in the 5L pots. Soils were treated with ash or ash combinated by superphoshate and flue gas desulfurization gypsum. For both plants, we evaluated the plant growth, biomass production and content of macro, micro and toxic elements in the biomass and in the soils.

Cooperation of high schools with external contractors in preparing school educational programs
Tulach, David ; Lačev, Alek (advisor) ; Hochel, Matej (referee)
This thesis, Cooperation of high schools with external contractors in preparing school educational programs, deals with the question whether it would be possible and beneficial for high schools to cooperate with companies on the preparation or modification of their educational programs, with the goal of improving the quality of education. After initial contributions from experts who provided negative replies to this question, the view was focused on the root of the issue - what are the historical pillars of public schools and pedagogy, what does science say about learning and teaching, how pedagogy reacts to the crisis of science. After comparing literal sources and results from interview with the experts, in combination with a trace and activity analysis, a theory was established that public education is reaching a point of crisis, has not changed in its essence since its beginning and that the best solution might be the establishment of alternative educational institutions.

Single particle analysis of size-segregated aerosol in Prague city center
Marvanová, S. ; Skoupý, Radim ; Kulich, P. ; Bendl, J. ; Hovorka, J. ; Machala, M.
Particulate matter (PM) is omnipresent pollutant in the ambient air known to cause cardiovascular and respiratory diseases (WHO 2004). Recently, outdoor air pollution and particulate matter in outdoor air pollution were classified as carcinogenic to humans, Group 1 (IARC 2015). Especially, ambient PM of aerodynamic diameter < 100 nm, ultrafine particles, appears to be of great importance due to its high specific surface area and high number concentration (Hughes et al. 1998). Ultrafine particles also easily enter and are being transferred in organisms, and interact with cells and subcellular components (Oberdorster et al. 2005). As the evidence of ultrafine PM significance increased, size-fractionated PMs sampled by various cascade impactors have been employed into the toxicological studies on cell cultures or isolated cells, using the organic extracts of size-fractionated PMs (Topinka et al. 2013, Topinka et al. 2015) or directly the size-fractionated particles (Becker et al. 2003, Ramgolam et al. 2009, Reibman et al. 2002, Loxham et al. 2013, Jalava et al. 2006, Thomson et al. 2015, Jalava et al. 2015). The aim of this study was to evaluate shape and composition of size-segregated aerosol particles, sampled by high volume cascade impactor, using electron microscopy and energy dispersive X-ray spectroscopy (EDX).

Diamond coated AlGaN/GaN high electron mobility transistors - effect of deposition process on gate electrode
Vanko, G. ; Ižák, Tibor ; Babchenko, O. ; Kromka, Alexander
We studied the influence of the diamond deposition on the degradation of Schottky gate electrodes (i.e. Ir or IrO2) and on the electrical characteristics of AlGaN/GaN high electron mobility transistors (HEMTs). In present study, the diamond films were selectively deposited on the AlGaN/GaN circular HEMT by focused (ellispoidal cavity reactor) and linear antenna (surface wave) microwave plasma at different temperatures from 400°C to 1100°C. The preliminary results on electrical measurements on the diamond-coated c-HEMTs showed degraded electrical properties comparing to c-HEMTs before deposition process, which was attributed to degradation of the Ir gate electrodes even at temperatures as low as 400°C. On the other hand, metal oxide gate electrode layer (IrO2) can withstand diamond CVD process even at high temperatures (~900°C) which make it suitable for fabrication of all-in-diamond c-HEMT devices for high-power applications.

(100) substrate processing optimization for fabrication of smooth boron doped epitaxial diamond layer by PE CVD
Mortet, Vincent ; Fekete, Ladislav ; Ashcheulov, Petr ; Taylor, Andrew ; Hubík, Pavel ; Trémouilles, D. ; Bedel-Pereira, E.
Boron doped diamond layers were grown in an SEKI AX5010 microwave plasma enhanced chemical vapour deposition system. Effect of surface preparation, i.e. polishing and O2/H2 plasma etching on epitaxial growth on type Ib (100) HPHT synthetic diamonds were investigated. Using optimized substrate preparation, smooth (RRMS ~ 1 nm) boron doped diamond layers with metallic conduction and free of un-epitaxial crystallites were grown with a relatively high growth rate of 3.7 μm/h. Diamond were characterized by optical microscopy, optical profilometry, atomic force microscopy and Hall effect.

Corrosion behavior of plasma coatings CuAl10 and CuAl50 on magnesium alloy AZ 91
Kubatík, Tomáš František ; Stoulil, J. ; Stehlíková, K. ; Slepička, P. ; Janata, Marek
The most common magnesium alloy AZ 91 is widely used as a structural material, but its use is limited at higher temperatures and high humidity. Plasma spraying is a technology that allows to prepare protective metallic and non-metallic coatings on a wide variety of substrates including magnesium and its alloys. In this study, CuAl10 and CuAl50 were plasma sprayed on magnesium alloy AZ 91 with the aim to study corrosion resistance of the plasma sprayed coatings. The corrosion resistance of layers was evaluated by the method of electrochemical potentiodynamic measurement as well as long-term corrosion tests in a condensation chamber with 0.5 mol\nNaCl at the temperature of 35 °C for 1344 hours. Layers with 1, 2, 5 passes and passes of CuAl10 with the thickness ranging from 75 to 716 mm and CuAl50 with the thickness ranging from 64 to 566 mm were prepared. The increased corrosion velocity was observed in the case of thin layers of 2 and 5 passes due to the development of a galvanic corrosion couple. The CuAl10 layer prepared with ten passes has an outstanding corrosion resistance.

Optical low dispersion rezonator as length sensor using optical frequency comb
Pravdová, Lenka ; Hucl, Václav ; Lešundák, Adam ; Lazar, Josef ; Číp, Ondřej
Ultra-high precis measurements are domain of lasers interferometers. An optical resonator measuring method using broad spectrum of radiation of an optical frequency comb was designed and experimentally verified at our workplace. The measuring of a quantity – a distance of resonator mirrors – is provided by its conversion to the value of repetition frequency of the pulse laser with mode-locked optical frequency comb. In this paper the comparison of the absolute scale of the optical resonator with an incremental interferometer scale is introduced. The incremental interferometer is implemented for verification of the optical resonator scale. The double beam incremental interferometer is operating at the wavelength of 633 nm and the measuring mirror with piezo actuator is used as one of its reflectors. It turns out that the major error signal is the reflection of the periodic nonlinearity of the incremental resonator scale. The relative resolution of our method reaches values up to 10-9 while maintaining measuring scale.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (referee) ; Steininger, Andreas (referee) ; Kotásek, Zdeněk (advisor)
Při vývoji současných číslicových systémů, např. vestavěných systému a počítačového hardware, je nutné hledat postupy, jak zvýšit jejich spolehlivost. Jednou z možností je zvyšování efektivity a rychlosti verifikačních procesů, které se provádějí v raných fázích návrhu. V této dizertační práci se pozornost věnuje verifikačnímu přístupu s názvem funkční verifikace. Je identifikováno několik výzev a problému týkajících se efektivity a rychlosti funkční verifikace a ty jsou následně řešeny v cílech dizertační práce. První cíl se zaměřuje na redukci simulačního času v průběhu verifikace komplexních systémů. Důvodem je, že simulace inherentně paralelního hardwarového systému trvá velmi dlouho v porovnání s během v skutečném hardware. Je proto navrhnuta optimalizační technika, která umisťuje verifikovaný systém do FPGA akcelerátoru, zatím co část verifikačního prostředí stále běží v simulaci. Tímto přemístěním je možné výrazně zredukovat simulační režii. Druhý cíl se zabývá ručně připravovanými verifikačními prostředími, která představují výrazné omezení ve verifikační produktivitě. Tato režie však není nutná, protože většina verifikačních prostředí má velice podobnou strukturu, jelikož využívají komponenty standardních verifikačních metodik. Tyto komponenty se jen upravují s ohledem na verifikovaný systém. Proto druhá optimalizační technika analyzuje popis systému na vyšší úrovni abstrakce a automatizuje tvorbu verifikačních prostředí tím, že je automaticky generuje z tohoto vysoko-úrovňového popisu. Třetí cíl zkoumá, jak je možné docílit úplnost verifikace pomocí inteligentní automatizace. Úplnost verifikace se typicky měří pomocí různých metrik pokrytí a verifikace je ukončena, když je dosažena právě vysoká úroveň pokrytí. Proto je navržena třetí optimalizační technika, která řídí generování vstupů pro verifikovaný systém tak, aby tyto vstupy aktivovali současně co nejvíc bodů pokrytí a aby byla rychlost konvergence k maximálnímu pokrytí co nejvyšší. Jako hlavní optimalizační prostředek se používá genetický algoritmus, který je přizpůsoben pro funkční verifikaci a jeho parametry jsou vyladěny pro tuto doménu. Běží na pozadí verifikačního procesu, analyzuje dosažené pokrytí a na základě toho dynamicky upravuje omezující podmínky pro generátor vstupů. Tyto podmínky jsou reprezentovány pravděpodobnostmi, které určují výběr vhodných hodnot ze vstupní domény. Čtvrtý cíl diskutuje, zda je možné znovu použít vstupy z funkční verifikace pro účely regresního testování a optimalizovat je tak, aby byla rychlost testování co nejvyšší. Ve funkční verifikaci je totiž běžné, že vstupy jsou značně redundantní, jelikož jsou produkovány generátorem. Pro regresní testy ale tato redundance není potřebná a proto může být eliminována. Zároveň je ale nutné dbát na to, aby úroveň pokrytí dosáhnutá optimalizovanou sadou byla stejná, jako u té původní. Čtvrtá optimalizační technika toto reflektuje a opět používá genetický algoritmus jako optimalizační prostředek. Tentokrát ale není integrován do procesu verifikace, ale je použit až po její ukončení. Velmi rychle odstraňuje redundanci z původní sady vstupů a výsledná doba simulace je tak značně optimalizována.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (referee) ; Dvořák, Václav (advisor)
Tato práce se zabývá klasifikací paketů v počítačových sítích. Klasifikace paketů je klíčovou úlohou mnoha síťových zařízení, především paketových filtrů - firewallů. Práce se tedy týká oblasti počítačové bezpečnosti. Práce je zaměřena na vysokorychlostní sítě s přenosovou rychlostí 100 Gb/s a více. V těchto případech nelze použít pro klasifikaci obecné procesory, které svým výkonem zdaleka nevyhovují požadavkům na rychlost. Proto se využívají specializované technické prostředky, především obvody ASIC a FPGA. Neméně důležitý je také samotný algoritmus klasifikace. Existuje mnoho algoritmů klasifikace paketů předpokládajících hardwarovou implementaci, přesto však tyto přístupy nejsou připraveny pro velmi rychlé sítě. Dizertační práce se proto zabývá návrhem nových algoritmů klasifikace paketů se zaměřením na vysokorychlostní implementaci ve specializovaném hardware. Je navržen algoritmus, který dělí problém klasifikace na jednodušší podproblémy. Prvním krokem je operace vyhledání nejdelšího shodného prefixu, používaná také při směrování paketů v IP sítích. Tato práce předpokládá využití některého existujícího přístupu, neboť již byly prezentovány algoritmy s dostatečnou rychlostí. Následujícím krokem je mapování nalezených prefixů na číslo pravidla. V této části práce přináší vylepšení využitím na míru vytvořené hashovací funkce. Díky použití hashovací funkce lze mapování provést v konstantním čase a využít při tom pouze jednu paměť s úzkým datovým rozhraním. Rychlost tohoto algoritmu lze určit analyticky a nezávisí na počtu pravidel ani na charakteru síťového provozu. S využitím dostupných součástek lze dosáhnout propustnosti 266 milionů paketů za sekundu. Následující tři algoritmy uvedené v této práci snižují paměťové nároky prvního algoritmu, aniž by ovlivňovaly rychlost. Druhý algoritmus snižuje velikost paměti o 11 % až 96 % v závislosti na sadě pravidel. Nevýhodu nízké stability odstraňuje třetí algoritmus, který v porovnání s prvním zmenšuje paměťové nároky o 31 % až 84 %. Čtvrtý algoritmus kombinuje třetí algoritmus se starším přístupem a díky využití několika technik zmenšuje paměťové nároky o 73 % až 99 %.

Optimization of network flow monitoring
Žádník, Martin ; Lhotka,, Ladislav (referee) ; Matoušek, Radomil (referee) ; Sekanina, Lukáš (advisor)
The thesis deals with optimization of network flow monitoring. Flow-based network traffic processing, that is, processing packets based on some state information associated to the flows which the packets belong to, is a key enabler for a variety of network services and applications. The number of simultaneous flows increases with the growing number of new services and applications. It has become a challenge to keep a state per each flow in a network device processing high speed traffic. A flow table, a structure with flow states, must be stored in a memory hierarchy. The memory closest to the processing is known as a flow cache. Flow cache management plays an important role in terms of its effective utilization, which affects the performance of the whole system. This thesis focuses on an automated design of cache replacement policy optimized to a deployment on particular networks. A genetic algorithm is proposed to automate this process. The genetic algorithm generates and evaluates evolved replacement policies by a simulation on obtained traffic traces. The proposed algorithm is evaluated by designing replacement policies for two variations of the cache management problem. The first variation is an evolution of the replacement policy with an overall low number of state evictions from the flow cache. The second variation represents an evolution of the replacement policy with a low number of evictions belonging to large flows only. Optimized replacement policies for both variations are found while experimenting with various encoding of the replacement policy and genetic operators. The newly evolved replacement policies achieve better results than other tested policies. The evolved replacement policy lowers the overall amount of evictions by ten percent in comparison with the best compared policy. The evolved replacement policy focusing on large flows lowers the amount of their evictions two times. Moreover, no eviction occurs for most of the large flows (over 90%). The evolved replacement policy offers better resilience against flooding the flow cache with large amount of short flows which are typical side effects of scanning or distributed denial of service activities. An extension of the replacement policy is also proposed. The extension complements the replacement policy with an additional information extracted from packet headers. The results show further decrease in the number of evictions when the extension is used.