National Repository of Grey Literature 33,173 records found  beginprevious21 - 30nextend  jump to record: Search took 0.73 seconds. 

Single particle analysis of size-segregated aerosol in Prague city center
Marvanová, S. ; Skoupý, Radim ; Kulich, P. ; Bendl, J. ; Hovorka, J. ; Machala, M.
Particulate matter (PM) is omnipresent pollutant in the ambient air known to cause cardiovascular and respiratory diseases (WHO 2004). Recently, outdoor air pollution and particulate matter in outdoor air pollution were classified as carcinogenic to humans, Group 1 (IARC 2015). Especially, ambient PM of aerodynamic diameter < 100 nm, ultrafine particles, appears to be of great importance due to its high specific surface area and high number concentration (Hughes et al. 1998). Ultrafine particles also easily enter and are being transferred in organisms, and interact with cells and subcellular components (Oberdorster et al. 2005). As the evidence of ultrafine PM significance increased, size-fractionated PMs sampled by various cascade impactors have been employed into the toxicological studies on cell cultures or isolated cells, using the organic extracts of size-fractionated PMs (Topinka et al. 2013, Topinka et al. 2015) or directly the size-fractionated particles (Becker et al. 2003, Ramgolam et al. 2009, Reibman et al. 2002, Loxham et al. 2013, Jalava et al. 2006, Thomson et al. 2015, Jalava et al. 2015). The aim of this study was to evaluate shape and composition of size-segregated aerosol particles, sampled by high volume cascade impactor, using electron microscopy and energy dispersive X-ray spectroscopy (EDX).

Corrosion behavior of plasma coatings CuAl10 and CuAl50 on magnesium alloy AZ 91
Kubatík, Tomáš František ; Stoulil, J. ; Stehlíková, K. ; Slepička, P. ; Janata, Marek
The most common magnesium alloy AZ 91 is widely used as a structural material, but its use is limited at higher temperatures and high humidity. Plasma spraying is a technology that allows to prepare protective metallic and non-metallic coatings on a wide variety of substrates including magnesium and its alloys. In this study, CuAl10 and CuAl50 were plasma sprayed on magnesium alloy AZ 91 with the aim to study corrosion resistance of the plasma sprayed coatings. The corrosion resistance of layers was evaluated by the method of electrochemical potentiodynamic measurement as well as long-term corrosion tests in a condensation chamber with 0.5 mol\nNaCl at the temperature of 35 °C for 1344 hours. Layers with 1, 2, 5 passes and passes of CuAl10 with the thickness ranging from 75 to 716 mm and CuAl50 with the thickness ranging from 64 to 566 mm were prepared. The increased corrosion velocity was observed in the case of thin layers of 2 and 5 passes due to the development of a galvanic corrosion couple. The CuAl10 layer prepared with ten passes has an outstanding corrosion resistance.

Frequency stabilized semiconductor laser source for high-resolution interferometry
Řeřucha, Šimon ; Hucl, Václav ; Holá, Miroslava ; Čížek, Martin ; Pham, Minh Tuan ; Pravdová, Lenka ; Lazar, Josef ; Číp, Ondřej
We have assembled an experimental iodine stabilized Distributed Bragg Reflector (DBR) diode based laser system lasing at a wavelength that is in a close proximity to the wavelength of a stabilized He-Ne lasers traditionally used for metrological applications (λ=632.9 nm in vacuum). The aim was to verify whether such a system could be used as an alternative to the He-Ne laser while yielding wider optical frequency tuning range, higher output power and high frequency modulation capability. We have measured the basic characteristics of the laser source and then we have compared the performance of the laser system with that of a traditional frequency stabilized He-Ne laser with a series of experimental arrangements similar to those usually found in laser interferometry and displacement metrology applications. The results indicate that DBR diode laser system provides a good laser source for applications in dimensional (nano)metrology since it provides more output power and advanced tunability options than stabilized He-Ne lasers while maintaining fundamental requirements such as the frequency stability, coherence length and also a defined traceability.\n\n

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (referee) ; Steininger, Andreas (referee) ; Kotásek, Zdeněk (advisor)
Při vývoji současných číslicových systémů, např. vestavěných systému a počítačového hardware, je nutné hledat postupy, jak zvýšit jejich spolehlivost. Jednou z možností je zvyšování efektivity a rychlosti verifikačních procesů, které se provádějí v raných fázích návrhu. V této dizertační práci se pozornost věnuje verifikačnímu přístupu s názvem funkční verifikace. Je identifikováno několik výzev a problému týkajících se efektivity a rychlosti funkční verifikace a ty jsou následně řešeny v cílech dizertační práce. První cíl se zaměřuje na redukci simulačního času v průběhu verifikace komplexních systémů. Důvodem je, že simulace inherentně paralelního hardwarového systému trvá velmi dlouho v porovnání s během v skutečném hardware. Je proto navrhnuta optimalizační technika, která umisťuje verifikovaný systém do FPGA akcelerátoru, zatím co část verifikačního prostředí stále běží v simulaci. Tímto přemístěním je možné výrazně zredukovat simulační režii. Druhý cíl se zabývá ručně připravovanými verifikačními prostředími, která představují výrazné omezení ve verifikační produktivitě. Tato režie však není nutná, protože většina verifikačních prostředí má velice podobnou strukturu, jelikož využívají komponenty standardních verifikačních metodik. Tyto komponenty se jen upravují s ohledem na verifikovaný systém. Proto druhá optimalizační technika analyzuje popis systému na vyšší úrovni abstrakce a automatizuje tvorbu verifikačních prostředí tím, že je automaticky generuje z tohoto vysoko-úrovňového popisu. Třetí cíl zkoumá, jak je možné docílit úplnost verifikace pomocí inteligentní automatizace. Úplnost verifikace se typicky měří pomocí různých metrik pokrytí a verifikace je ukončena, když je dosažena právě vysoká úroveň pokrytí. Proto je navržena třetí optimalizační technika, která řídí generování vstupů pro verifikovaný systém tak, aby tyto vstupy aktivovali současně co nejvíc bodů pokrytí a aby byla rychlost konvergence k maximálnímu pokrytí co nejvyšší. Jako hlavní optimalizační prostředek se používá genetický algoritmus, který je přizpůsoben pro funkční verifikaci a jeho parametry jsou vyladěny pro tuto doménu. Běží na pozadí verifikačního procesu, analyzuje dosažené pokrytí a na základě toho dynamicky upravuje omezující podmínky pro generátor vstupů. Tyto podmínky jsou reprezentovány pravděpodobnostmi, které určují výběr vhodných hodnot ze vstupní domény. Čtvrtý cíl diskutuje, zda je možné znovu použít vstupy z funkční verifikace pro účely regresního testování a optimalizovat je tak, aby byla rychlost testování co nejvyšší. Ve funkční verifikaci je totiž běžné, že vstupy jsou značně redundantní, jelikož jsou produkovány generátorem. Pro regresní testy ale tato redundance není potřebná a proto může být eliminována. Zároveň je ale nutné dbát na to, aby úroveň pokrytí dosáhnutá optimalizovanou sadou byla stejná, jako u té původní. Čtvrtá optimalizační technika toto reflektuje a opět používá genetický algoritmus jako optimalizační prostředek. Tentokrát ale není integrován do procesu verifikace, ale je použit až po její ukončení. Velmi rychle odstraňuje redundanci z původní sady vstupů a výsledná doba simulace je tak značně optimalizována.

Exploitation of GPU in graphics and image processing algorithms
Jošth, Radovan ; Svoboda, David (referee) ; Trajtel,, Ľudovít (referee) ; Herout, Adam (advisor)
Táto práca popisuje niekoľko vybraných algoritmov, ktoré boli primárne vyvinuté pre CPU procesory, avšak vzhľadom k vysokému dopytu po ich vylepšeniach sme sa rozhodli ich využiť v prospech GPGPU (procesorov grafického adaptéra). Modifikácia týchto algoritmov bola zároveň cieľom nášho výskumu, ktorý  bol prevedený pomocou CUDA rozhrania. Práca je členená podľa troch skupín algoritmov, ktorým sme sa venovali: detekcia objektov v reálnom čase, spektrálna analýza obrazu a detekcia čiar v reálnom čase. Pre výskum detekcie objektov v reálnom čase sme zvolili použitie LRD a LRP funkcií.  Výskum spektrálnej analýzy obrazu bol prevedný pomocou PCA a NTF algoritmov. Pre potreby skúmania detekcie čiar v reálnom čase sme používali dva rôzne spôsoby modifikovanej akumulačnej schémy Houghovej transformácie. Pred samotnou časťou práce venujúcej sa konkrétnym algoritmom a predmetu skúmania, je v úvodných kapitolách, hneď po kapitole ozrejmujúcej dôvody skúmania vybranej problematiky, stručný prehľad architektúry GPU a GPGPU. Záverečné kapitoly sú zamerané na konkretizovanie vlastného prínosu autora, jeho zameranie, dosiahnuté výsledky a zvolený prístup k ich dosiahnutiu. Súčasťou výsledkov je niekoľko vyvinutých produktov.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (referee) ; Dvořák, Václav (advisor)
Tato práce se zabývá klasifikací paketů v počítačových sítích. Klasifikace paketů je klíčovou úlohou mnoha síťových zařízení, především paketových filtrů - firewallů. Práce se tedy týká oblasti počítačové bezpečnosti. Práce je zaměřena na vysokorychlostní sítě s přenosovou rychlostí 100 Gb/s a více. V těchto případech nelze použít pro klasifikaci obecné procesory, které svým výkonem zdaleka nevyhovují požadavkům na rychlost. Proto se využívají specializované technické prostředky, především obvody ASIC a FPGA. Neméně důležitý je také samotný algoritmus klasifikace. Existuje mnoho algoritmů klasifikace paketů předpokládajících hardwarovou implementaci, přesto však tyto přístupy nejsou připraveny pro velmi rychlé sítě. Dizertační práce se proto zabývá návrhem nových algoritmů klasifikace paketů se zaměřením na vysokorychlostní implementaci ve specializovaném hardware. Je navržen algoritmus, který dělí problém klasifikace na jednodušší podproblémy. Prvním krokem je operace vyhledání nejdelšího shodného prefixu, používaná také při směrování paketů v IP sítích. Tato práce předpokládá využití některého existujícího přístupu, neboť již byly prezentovány algoritmy s dostatečnou rychlostí. Následujícím krokem je mapování nalezených prefixů na číslo pravidla. V této části práce přináší vylepšení využitím na míru vytvořené hashovací funkce. Díky použití hashovací funkce lze mapování provést v konstantním čase a využít při tom pouze jednu paměť s úzkým datovým rozhraním. Rychlost tohoto algoritmu lze určit analyticky a nezávisí na počtu pravidel ani na charakteru síťového provozu. S využitím dostupných součástek lze dosáhnout propustnosti 266 milionů paketů za sekundu. Následující tři algoritmy uvedené v této práci snižují paměťové nároky prvního algoritmu, aniž by ovlivňovaly rychlost. Druhý algoritmus snižuje velikost paměti o 11 % až 96 % v závislosti na sadě pravidel. Nevýhodu nízké stability odstraňuje třetí algoritmus, který v porovnání s prvním zmenšuje paměťové nároky o 31 % až 84 %. Čtvrtý algoritmus kombinuje třetí algoritmus se starším přístupem a díky využití několika technik zmenšuje paměťové nároky o 73 % až 99 %.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (referee) ; Nöth, Elmar (referee) ; Černocký, Jan (advisor)
Předložená disertační práce se zabývá ověřováním mluvčího pomocí prozodických příznaků zahrnujících hodnoty základního tónu, energie a délek řečových úseků. Studovali jsme dvě rozdílné techniky pro parametrizaci: první vede k dobře definované sadě menšího počtu příznaků, druhá k vysoko-dimenzionální sadě heterogenních prozodických příznaků. První část práce se věnuje vývoji příznaků reprezentujících prozodické kontury, zde jsme vyvinuli a ověřili několik modelovacích technik, s důrazem na modelování v reprezentativních podprostorech. Druhá část práce se zaměřuje na nové pod-prostorové modelovací techniky pro heterogenní prozodické parametry s velkou dimenzionalitou. Model je teoreticky odvozen a experimentálně ověřen na oficiálních datech z NIST evaluací ověřování mluvčího (NIST Speaker Recognition Evaluation). Ve srovnání s ostatními současnými prozodickými jsme dosáhli podstatně lepších výsledků. Na konci práce presentujeme také novou techniku pro elegantní kombinaci dvou prozodických systémů. Tato technika může být použita rovněž pro fúzi prozodického systému se standardním přesným cepstrálním systémem, což vede k dalšímu podstatnému zvýšení úspěšnosti verifikace.  

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (referee) ; Sojka, Eduard (referee) ; Zemčík, Pavel (advisor)
Detekce objektů v počítačovém vidění je složítá úloha. Velmi populární a rozšířená metoda pro detekci je využití statistických klasifikátorů a skenovacích oken. Pro učení kalsifikátorů se často používá algoritmus AdaBoost (nebo jeho modifikace), protože dosahuje vysoké úspěšnosti detekce, nízkého počtu chybných detekcí a je vhodný pro detekci v reálném čase. Implementaci detekce objektů je možné provést různými způsoby a lze využít vlastnosti konkrétní architektury, pro urychlení detekce. Pro akceleraci je možné využít grafické procesory, vícejádrové architektury, SIMD instrukce, nebo programovatelný hardware. Tato práce představuje metodu optimalizace, která vylepšuje výkon detekce objektů s ohledem na cenovou funkci zadanou uživatelem. Metoda rozděluje předem natrénovaný klasifikátor do několika různých implementací, tak aby celková cena klasifikace byla minimalizována. Metoda je verifikována na základním experimentu, kdy je klasifikátor rozdělen do předzpracovací jednotku v FPGA a do jednotky ve standardním PC.

High-Quality Shadow Rendering from Complex Light Sources
Navrátil, Jan ; Sochor, Jiří (referee) ; Navrátil, Jan (referee) ; Zemčík, Pavel (advisor)
V interaktivních aplikacích jsou stíny tradičně zobrazovány s pomocí algoritmu založeným na stínových mapách. Nevýhodou toho algoritmu je, že stínová mapa, reprezentovaná texturou, má pouze omezené rozlišení. To může vést k nepěkným vizuálním artefaktům objevujících se na hranách stínů. Tato práce představuje postup, který je založen na vylepšené deformaci textury. To umožní zobrazit scénu obsahující složité světelné zdroje, zredukovat artefakty na hranicích stínů a také vylepšit kvalitu stínů bez ohledu na typu scény a její konfiguraci.

Security of Contactless Smart Card Protocols
Henzl, Martin ; Rosa, Tomáš (referee) ; Staudek, Jan (referee) ; Hanáček, Petr (advisor)
Tato práce analyzuje hrozby pro protokoly využívající bezkontaktní čipové karty a představuje metodu pro poloautomatické hledání zranitelností v takových protokolech pomocí model checkingu. Návrh a implementace bezpečných aplikací jsou obtížné úkoly, i když je použit bezpečný hardware. Specifikace na vysoké úrovni abstrakce může vést k různým implementacím. Je důležité používat čipovou kartu správně, nevhodná implementace protokolu může přinést zranitelnosti, i když je protokol sám o sobě bezpečný. Cílem této práce je poskytnout metodu, která může být využita vývojáři protokolů k vytvoření modelu libovolné čipové karty, se zaměřením na bezkontaktní čipové karty, k vytvoření modelu protokolu a k použití model checkingu pro nalezení útoků v tomto modelu. Útok může být následně proveden a pokud není úspěšný, model je upraven pro další běh model checkingu. Pro formální verifikaci byla použita platforma AVANTSSAR, modely jsou psány v jazyce ASLan++. Jsou poskytnuty příklady pro demonstraci použitelnosti navrhované metody. Tato metoda byla použita k nalezení slabiny bezkontaktní čipové karty Mifare DESFire. Tato práce se dále zabývá hrozbami, které není možné pokrýt navrhovanou metodou, jako jsou útoky relay.