Národní úložiště šedé literatury Nalezeno 24,159 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.73 vteřin. 

Celkové obsahy a speciace arsenu a selenu v rostlinách rostoucích na půdách s různými fyzikálně-chemickými vlastnostmi.
Tremlová, Jana ; Száková, Jiřina (vedoucí práce) ; Vymazal, Jan (oponent)
Disertační práce se zabývá příjmem, akumulací a přeměnou arsenu a selenu rostlinami rostoucích na půdách s odlišnými chemicko-fyzikálními vlastnostmi. Obsahy arsenu byly zkoumány v 99 volně rostoucích rostlinných druzích, pocházejících z 27 různých čeledí a 6 různých druzích zeleniny rostoucích na půdách kontaminovaných arsenem. Výsledky naznačují, že existují druhově specifické mechanismy, které některé rostliny chrání od nadměrného příjmu arsenu z půdy. Na druhou stranu se vyskytovaly i rostliny využívající strategii akumulace arsenu, které teoreticky mohou zvyšovat riziko vstupu arsenu do potravního řetězce, ať už skrze pasoucí se skot a volně žijící divokou zvěř nebo přímou konzumací v případě konzumace zelenin rostoucích na arsenem kontaminovaných půdách. Nejvíce zastoupenými sloučeninami arsenu pak byly AsV a AsIII. V daleko menší míře se pak v rostlinách nacházejí ostatní běžně se vyskytující sloučeniny arsenu. Významným zjištěním pak byl výskyt arsenobetainu v Plantago lanceolata L. a Carex praecox Schreb.. Obsahy selenu byly zkoumány v 73 druzích volně rostoucích rostlin pocházejících z 29 různých čeledí. Výsledky naznačují, že přirozeně nízké obsahy selenu v půdách vybraných lokalit spolu s nízkou schopností příjmu selenu zkoumanými druhy rostlin, vedou k nízkému obsahu selenu v biomase rostlin nezávisle na lokalitě, což může ve volné přírodě přispívat k deficientu selenu napříč celým potravním řetězcem. Foliární aplikace selenanu na volně rostoucí rostlinná společenstva, ale např. i k obohacení některých druhů zelenin, v našem případě Brasicca oleracea var. italica může mít kladný vliv na zvýšení obsahu selenu v nadzemní biomase těchto rostlin a tím potažmo zvyšovat obsah selenu ve stravě člověka. Nejvíce zastoupenými sloučeninami selenu v nadzemní biomase analyzovaných rostlin byly SeVI a selenomethionin, s proměnlivým zastoupením dalších běžně se vyskytujících organických sloučenin Se, které bylo ovlivněno zejména rostlinným druhem.

Photocatalytic Decomposition of Wastewater from the Production of Explosives
Brom, Petr ; Brožek, Vlastimil ; Březina, Václav ; Hlína, Michal ; Mastný, L. ; Novák, M.
Water stabilized plasma generator WSP® H-500, operating on the principle of Gerdien arc was used for the photocatalytic decomposition of furazan- and picraminate-based explosives. The generator emits intensive radiation in the range of 300-660 nm, which allows not only to activate photocatalysts based on TiO2, but also other semiconductor oxides with a narrower band gap, such as tungsten oxide. The photocatalytic decomposition of sewage and slurries containing the potassium salt of 4-hydroxy-4,6-dihydro-5,7- dinitrobenzofurazane-3-oxide (KDNBF) or sodium picraminate (NaC6H4N3O5) was performed using the anatase paste and newly developed photocatalyst produced by the company Precheza a.s. The photocatalytic reactor was built using a quartz tube coil with an internal volume of 650 ml, with a nominal size of the irradiated area of 7.5 dm2 (value reduced by the area of the gaps between coil turns) to enable the flow the processing solution or suspension of up to 10 l / min. The centre of the coil is exposed to the plasma jet with the intensity\nof 80 kW; of which 15 kW is transformed into the light radiation. 11% of the radiation output was used for the presented experiments. The time of exposition was 45 mins and 20 l of solution were treated. In the case of KDNBF, 90% of the compound was decomposed. Moreover, 100% of sodium picraminate were decomposed after 15 minutes into low-molecular inorganic compounds. Advantage of the assembly is the ability to treat highly dangerous chemical compounds in a closed cycle and test selective catalyst

Optický rezonátor s nízkou disperzí pro účely délkového senzoru využivající optický frekvenční hřeben
Pravdová, Lenka ; Hucl, Václav ; Lešundák, Adam ; Lazar, Josef ; Číp, Ondřej
Ultra přesná měření délky jsou doménou laserových interferometrů. Na našem pracovišti jsme navrhli a experimentálně ověřili metodu měření s optickým rezonátorem, která využívá širokospektrálního záření optického frekvenčního hřebene. Měřená délka, tj. délka rezonátoru, je pak převedena na hodnotu opakovací frekvence pulsního laseru se synchronizací modů optického frekvenčního hřebene. V našem příspěvku nyní představujeme porovnání absolutní stupnice optického rezonátoru se stupnicí inkrementálního interferometru. Inkrementální interferometr je do sestavy implementován pro provedení požadované verifikace stupnice optického rezonátoru. Dvousvazkový inkrementální interferometr pracuje na vlnové délce 633 nm a měřicí zrcadlo rezonátoru vybavené piezo posuvem je s výhodou použito zároveň i jako zpětný odrážeč pro tento interferometr. Jako markantní chybový signál se zde projevuje periodická nelinearita stupnice inkrementálního interferometru. Relativní rozlišení naší metody tak dosahuje hodnoty až 10-9 při zachování absolutní stupnice měření.\n

Automatický systém pro kalibraci koncových měrek optimalizovaný pro legální délkovou metrologii
Buchta, Zdeněk ; Šarbort, Martin ; Čížek, Martin ; Hucl, Václav ; Řeřucha, Šimon ; Pikálek, Tomáš ; Dvořáčková, Š. ; Dvořáček, F. ; Kůr, J. ; Konečný, P. ; Lazar, Josef ; Číp, Ondřej
Článek prezentuje bezkontaktní systém pro kalibraci koncových měrek, kombinující laserovou interferometrii a interferometrii nízké koherence. Absolutní hodnota koncové měrky je pak měřena bezkontaktně a jednokrokově, bez nutnosti jakékoli změny v optické sestavě v průběhu měření. Optická sestava je kombinována s podavačem koncových měrek o kapacitě 126 kusů, což umožňuje automatizaci celého měření.\nČlánek prezentuje optimalizační kroky pro přizpůsobení navrženého systému požadavkům sekundární délkové metrologie. Jsou prezentovány výsledky měření, srovnávající nový systém s referenčním systémem TESA-UPC, instalovaným v laboratořích Českého metrologického institutu.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (oponent) ; Nöth, Elmar (oponent) ; Černocký, Jan (vedoucí práce)
 The thesis investigates into speaker verification by means of prosodic features. This includes an appropriate representation of speech by measurements of pitch, energy and duration of speech sounds. Two diverse parameterization methods are investigated: the first leads to a low-dimensional well-defined set, the second to a large-scale set of heterogeneous prosodic features. The first part of this work concentrates on the development of so called prosodic contour features. Different modeling techniques are developed and investigated, with a special focus on subspace modeling. The second part focuses on a novel subspace modeling technique for the heterogeneous large-scale prosodic features. The model is theoretically derived and experimentally evaluated on official NIST Speaker Recognition Evaluation tasks. Huge improvements over the current state-of-the-art in prosodic speaker verification were obtained. Eventually, a novel fusion method is presented to elegantly combine the two diverse prosodic systems. This technique can also be used to fuse the higher-level systems with a high-performing cepstral system, leading to further significant improvements.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Estimating the determinants of FDI in Transition economies: comparative analysis of the Republic of Kosovo
Berisha, Jetëmira ; Dědek, Oldřich (vedoucí práce) ; Benáček, Vladimír (oponent)
This study develops a panel data analysis over 27 transition and post transition economies for the period 2003-2010. Its intent is to investigate empirically the true effect of seven variables into foreign flows and takes later on the advantage of observed findings to conduct a comparative analysis between Kosovo and regional countries such: Albania, Bosnia and Herzegovina, Macedonia, Montenegro and Serbia. As the breakdown period (2008-2010) was included in the data set used to modelling the behaviour of FDI, both Chow test and the time dummies technique suggest the presence of structural break. Ultimately, empirical results show that FDI is positively related with one year lagged effect of real GDP growth, trade openness, labour force, low level of wages proxied by remittances, real interest rate and the low level of corruption. Besides, the corporate income tax is found to be significant and inversely related with foreign flows. The comparative analysis referring the growth rate of real GDP shows that Kosovo has the most stable macroeconomic environment in the region, but still it is continuously confronted by the high deficit of trade balance and high rate of unemployment. Appart, the key obstacle that has abolished efforts for foreign investment attraction is found to be the trade blockade of...

Optimalizace sledování síťových toků
Žádník, Martin ; Lhotka,, Ladislav (oponent) ; Matoušek, Radomil (oponent) ; Sekanina, Lukáš (vedoucí práce)
Tato disertační práce se zabývá optimalizací sledování síťových toků. Sledování síťových toků spočívá ve sledování jejich stavu a je klíčovou úlohou pro řadu síťových aplikací. S každým příchodem paketu je nutné aktualizovat hodnoty stavu, což zahrnuje přístupy do paměti. Vzhledem k vysoké propustnosti linek a obrovskému množství souběžných toků hraje přístup do paměti kritickou roli ve výkonnosti stavového zpracování síťového provozu. Tento problém se řeší různými technikami. Tyto techniky ale ve výsledku vždy požadují, aby nejblíže zpracování provozu byla nasazena paměť s nízkou odezvou, cache toků, schopná vyřídit všechny přístupy. Cache toků má proto omezenou kapacitu a její efektivní správa má zásadní vliv na výkonnost a výsledky zpracování síťového provozu. Vzhledem ke specifikům síťového provozu nemusí být stávající správy vhodné pro správu cache toků. Disertační práce se proto zabývá automatizovaným vývojem správy cache na základě reálného provozu dané sítě. Automatizace vývoje správy cache toků je realizována pomocí genetického algoritmu. Genetický algoritmus vyvíjí nová řešení a hodnotí je simulací nad vzorkem provozu z různých sítí. Navržený postup je ověřen na vývoji správ pro dva problémy. Prvním problémem je vývoj správy, která bude vykazovat celkově nízký počet výpadků stavů z cache toků. Druhým problémem je vývoj správy, která bude vykazovat velmi nízký počet výpadků u velkých toků. Optimalizace zakódování správy a experimenty s parametry genetického algoritmu ukázují, že je možné nalézt správy cache toků, které jsou optimalizované pro specifika daného nasazení. Nově vyvinuté správy poskytují lepší výsledky než ostatní testované správy. Z hlediska snížení celkového počtu výpadků je vyvinuta správa, která snižuje počet výpadků na konkrétní datové sadě až o deset procent vůči nejlepší porovnávané správě. Z pohledu snížení počtu výpadků u velkých toků je dosaženo vyvinutou správou až dvojnásobného snížení výpadků. Většina velkých toků (více než 90%) nezaznamenala při použití vyvinuté správy dokonce ani jeden výpadek. Rovněž během záplav nových toků, které se v síťovém provozu vyskytují v souvislosti se skenováním sítí a útoky, se ukazují velmi dobré vlastnosti vyvinuté správy. V rámci práce je rovněž navrženo rozšíření správy o využití doplňkové informace ze záhlaví příchozích paketů. Výsledky ukazují, že kombinací této informace lze počet výpadků u správ dále snižovat.