National Repository of Grey Literature 25,178 records found  previous11 - 20nextend  jump to record: Search took 0.63 seconds. 

Confidence Cycles and Liquidity Hoarding
Audzei, Volha
Market confidence has proved to be an important factor during past crises. However, many existing general equilibrium models do not account for agents’ expectations, market volatility, or overly pessimistic investor forecasts. In this paper, we incorporate a model of the interbank market into a DSGE model, with the interbank market rate and the volume of lending depending on market confidence and the perception of counterparty risk. In our model, a credit crunch occurs if the perception of counterparty risk increases. Our results suggest that changes in market confidence can generate credit crunches and contribute to the depth of recessions. We then conduct an exercise to mimic some central bank policies: targeted and untargeted liquidity provision, and reduction of the policy rate. Our results indicate that policy actions have a limited effect on the supply of credit if they fail to influence agents’ expectations. Interestingly, a policy of a low policy rate worsens recessions due to its negative impact on banks’ revenues. Liquidity provision stimulates credit slightly, but its efficiency is undermined by liquidity hoarding.
Fulltext: Download fulltextPDF

Photocatalytic Decomposition of Wastewater from the Production of Explosives
Brom, Petr ; Brožek, Vlastimil ; Březina, Václav ; Hlína, Michal ; Mastný, L. ; Novák, M.
Water stabilized plasma generator WSP® H-500, operating on the principle of Gerdien arc was used for the photocatalytic decomposition of furazan- and picraminate-based explosives. The generator emits intensive radiation in the range of 300-660 nm, which allows not only to activate photocatalysts based on TiO2, but also other semiconductor oxides with a narrower band gap, such as tungsten oxide. The photocatalytic decomposition of sewage and slurries containing the potassium salt of 4-hydroxy-4,6-dihydro-5,7- dinitrobenzofurazane-3-oxide (KDNBF) or sodium picraminate (NaC6H4N3O5) was performed using the anatase paste and newly developed photocatalyst produced by the company Precheza a.s. The photocatalytic reactor was built using a quartz tube coil with an internal volume of 650 ml, with a nominal size of the irradiated area of 7.5 dm2 (value reduced by the area of the gaps between coil turns) to enable the flow the processing solution or suspension of up to 10 l / min. The centre of the coil is exposed to the plasma jet with the intensity\nof 80 kW; of which 15 kW is transformed into the light radiation. 11% of the radiation output was used for the presented experiments. The time of exposition was 45 mins and 20 l of solution were treated. In the case of KDNBF, 90% of the compound was decomposed. Moreover, 100% of sodium picraminate were decomposed after 15 minutes into low-molecular inorganic compounds. Advantage of the assembly is the ability to treat highly dangerous chemical compounds in a closed cycle and test selective catalyst

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (referee) ; Dvořák, Václav (advisor)
Tato práce se zabývá klasifikací paketů v počítačových sítích. Klasifikace paketů je klíčovou úlohou mnoha síťových zařízení, především paketových filtrů - firewallů. Práce se tedy týká oblasti počítačové bezpečnosti. Práce je zaměřena na vysokorychlostní sítě s přenosovou rychlostí 100 Gb/s a více. V těchto případech nelze použít pro klasifikaci obecné procesory, které svým výkonem zdaleka nevyhovují požadavkům na rychlost. Proto se využívají specializované technické prostředky, především obvody ASIC a FPGA. Neméně důležitý je také samotný algoritmus klasifikace. Existuje mnoho algoritmů klasifikace paketů předpokládajících hardwarovou implementaci, přesto však tyto přístupy nejsou připraveny pro velmi rychlé sítě. Dizertační práce se proto zabývá návrhem nových algoritmů klasifikace paketů se zaměřením na vysokorychlostní implementaci ve specializovaném hardware. Je navržen algoritmus, který dělí problém klasifikace na jednodušší podproblémy. Prvním krokem je operace vyhledání nejdelšího shodného prefixu, používaná také při směrování paketů v IP sítích. Tato práce předpokládá využití některého existujícího přístupu, neboť již byly prezentovány algoritmy s dostatečnou rychlostí. Následujícím krokem je mapování nalezených prefixů na číslo pravidla. V této části práce přináší vylepšení využitím na míru vytvořené hashovací funkce. Díky použití hashovací funkce lze mapování provést v konstantním čase a využít při tom pouze jednu paměť s úzkým datovým rozhraním. Rychlost tohoto algoritmu lze určit analyticky a nezávisí na počtu pravidel ani na charakteru síťového provozu. S využitím dostupných součástek lze dosáhnout propustnosti 266 milionů paketů za sekundu. Následující tři algoritmy uvedené v této práci snižují paměťové nároky prvního algoritmu, aniž by ovlivňovaly rychlost. Druhý algoritmus snižuje velikost paměti o 11 % až 96 % v závislosti na sadě pravidel. Nevýhodu nízké stability odstraňuje třetí algoritmus, který v porovnání s prvním zmenšuje paměťové nároky o 31 % až 84 %. Čtvrtý algoritmus kombinuje třetí algoritmus se starším přístupem a díky využití několika technik zmenšuje paměťové nároky o 73 % až 99 %.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (referee) ; Nöth, Elmar (referee) ; Černocký, Jan (advisor)
Předložená disertační práce se zabývá ověřováním mluvčího pomocí prozodických příznaků zahrnujících hodnoty základního tónu, energie a délek řečových úseků. Studovali jsme dvě rozdílné techniky pro parametrizaci: první vede k dobře definované sadě menšího počtu příznaků, druhá k vysoko-dimenzionální sadě heterogenních prozodických příznaků. První část práce se věnuje vývoji příznaků reprezentujících prozodické kontury, zde jsme vyvinuli a ověřili několik modelovacích technik, s důrazem na modelování v reprezentativních podprostorech. Druhá část práce se zaměřuje na nové pod-prostorové modelovací techniky pro heterogenní prozodické parametry s velkou dimenzionalitou. Model je teoreticky odvozen a experimentálně ověřen na oficiálních datech z NIST evaluací ověřování mluvčího (NIST Speaker Recognition Evaluation). Ve srovnání s ostatními současnými prozodickými jsme dosáhli podstatně lepších výsledků. Na konci práce presentujeme také novou techniku pro elegantní kombinaci dvou prozodických systémů. Tato technika může být použita rovněž pro fúzi prozodického systému se standardním přesným cepstrálním systémem, což vede k dalšímu podstatnému zvýšení úspěšnosti verifikace.  

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (referee) ; Sojka, Eduard (referee) ; Zemčík, Pavel (advisor)
Detekce objektů v počítačovém vidění je složítá úloha. Velmi populární a rozšířená metoda pro detekci je využití statistických klasifikátorů a skenovacích oken. Pro učení kalsifikátorů se často používá algoritmus AdaBoost (nebo jeho modifikace), protože dosahuje vysoké úspěšnosti detekce, nízkého počtu chybných detekcí a je vhodný pro detekci v reálném čase. Implementaci detekce objektů je možné provést různými způsoby a lze využít vlastnosti konkrétní architektury, pro urychlení detekce. Pro akceleraci je možné využít grafické procesory, vícejádrové architektury, SIMD instrukce, nebo programovatelný hardware. Tato práce představuje metodu optimalizace, která vylepšuje výkon detekce objektů s ohledem na cenovou funkci zadanou uživatelem. Metoda rozděluje předem natrénovaný klasifikátor do několika různých implementací, tak aby celková cena klasifikace byla minimalizována. Metoda je verifikována na základním experimentu, kdy je klasifikátor rozdělen do předzpracovací jednotku v FPGA a do jednotky ve standardním PC.

Stiff Systems Analysis
Šátek, Václav ; Dalík, Josef (referee) ; Horová, Ivana (referee) ; Kunovský, Jiří (advisor)
The solving of stiff systems is still a contemporary sophisticated problem. The basic problem is the absence of precise definition of stiff systems. A question is also how to detect the stiffness in a given system of differential equations. Implicit numerical methods are commonly used for solving stiff systems. The stability domains of these methods are relatively large but the order of them is low.   The thesis deals with numerical solution of ordinary differential equations, especially numerical calculations using Taylor series methods. The source of stiffness is analyzed and the possibility how to reduce stiffness             in systems of ordinary differential equations (ODEs) is introduced. The possibility of detection stiff systems using explicit Taylor series terms is analyzed. The stability domains of explicit and implicit Taylor series are presented. The solutions of stiff systems using implicit Taylor series method are presented in many examples. The multiple arithmetic must be used in many cases. The new suitable parallel algorithm based on implicit Taylor series method with recurrent calculation of Taylor series terms and Newton iteration method (ITMRN) is proposed.

Network Architecture and Interconnection of Embedded Systems
Trchalík, Roman ; Drábek, Vladimír (referee) ; Srovnal, Vilém (referee) ; Švéda, Miroslav (advisor)
The thesis focuses on the architecture of embedded systems. It summarizes the current state of accepted standards from IEEE 1451 family, which deals with creating an environment for the sensors and their involvement in various networks. These standards describe the open, network-independent communication architecture for a sensor-based system. One of the main outcomes of this work is the architectures presented as case studies, which can be used as design patters for embedded applications. They are demonstrated on ZigBee technology suitable mainly for small devices with very low power consumption. Based on these studies the new design of universal gateway was proposed. Its major advantage is that it allows interconnection of the endpoints based on different sensor network technologies. Additionally, the thesis deals with modifying the routing protocol of ZigBee network in order to reduce power consumption required to transmit one data packet.

Optimization of network flow monitoring
Žádník, Martin ; Lhotka,, Ladislav (referee) ; Matoušek, Radomil (referee) ; Sekanina, Lukáš (advisor)
The thesis deals with optimization of network flow monitoring. Flow-based network traffic processing, that is, processing packets based on some state information associated to the flows which the packets belong to, is a key enabler for a variety of network services and applications. The number of simultaneous flows increases with the growing number of new services and applications. It has become a challenge to keep a state per each flow in a network device processing high speed traffic. A flow table, a structure with flow states, must be stored in a memory hierarchy. The memory closest to the processing is known as a flow cache. Flow cache management plays an important role in terms of its effective utilization, which affects the performance of the whole system. This thesis focuses on an automated design of cache replacement policy optimized to a deployment on particular networks. A genetic algorithm is proposed to automate this process. The genetic algorithm generates and evaluates evolved replacement policies by a simulation on obtained traffic traces. The proposed algorithm is evaluated by designing replacement policies for two variations of the cache management problem. The first variation is an evolution of the replacement policy with an overall low number of state evictions from the flow cache. The second variation represents an evolution of the replacement policy with a low number of evictions belonging to large flows only. Optimized replacement policies for both variations are found while experimenting with various encoding of the replacement policy and genetic operators. The newly evolved replacement policies achieve better results than other tested policies. The evolved replacement policy lowers the overall amount of evictions by ten percent in comparison with the best compared policy. The evolved replacement policy focusing on large flows lowers the amount of their evictions two times. Moreover, no eviction occurs for most of the large flows (over 90%). The evolved replacement policy offers better resilience against flooding the flow cache with large amount of short flows which are typical side effects of scanning or distributed denial of service activities. An extension of the replacement policy is also proposed. The extension complements the replacement policy with an additional information extracted from packet headers. The results show further decrease in the number of evictions when the extension is used.

Surface modification of glass fibers for polymer composites
Knob, Antonín ; Marek,, Aleš (referee) ; Burša, Jiří (referee) ; Čech, Vladimír (advisor)
The doctoral thesis is aimed at preparation of glass fiber reinforced polymer composites with controlled interphase formed by plasma-polymerized tetravinylsilane and tetravinylsilane/oxygen thin films. The thin polymer films of specific physico-chemical properties and thickness were deposited to improve interfacial adhesion of glass fiber/polyester composites. The fiber surface modification was performed by using plasma enhanced chemical vapor deposition in low-temperature RF plasma operating in an various effective power range and different treatment time. Test results were examined in relation to the interlayer thickness and different treatment conditions. The prepared interlayers were analyzed to evaluate physico-chemical composition and properties (XPS, RBS, ERDA, FTIR and spectroscopic elipsometry). Selected mechanical properties were evaluated by AFM. Mechanical response of plasma interlayers was evaluated by short beam shear test and direct method of testing the interfacial shear strength using microindentation. The interphase shear failure was controlled by the shear strength at the interlayer/fiber interface as follows from experimental and model data.

Identification of damaged zones in C/PPS specimens subjected to fatigue loading based on high-resolution thermography
Koudelka_ml., P. ; Kytýř, Daniel ; Fenclová, Nela ; Šperl, Martin
In this study high resolution thermography is used for identification of damaged zones in Carbon fiber/polyphenylene sulfide (C/PPS) long fiber composite specimens with induced impact damage subjected to tensile fatigue loading. Image processing techniques were applied on thermographs from all loading cases to obtain segmented images of the damaged location that were then used for\ncalculation of the heated area. Results show that the considered method can be used to identify heated area in the vicinity of damage with high confidence at low number of cycles where no significant fatigue effect is present in the material.