Národní úložiště šedé literatury Nalezeno 34,674 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 1.27 vteřin. 

Možnosti monitorování laserového svařovacího procesu
Horník, Petr ; Mrňa, Libor
Se zvyšujícími se nároky na kvalitu svarů se běžně používá automatické strojní svařování s monitorováním procesu. Výsledná kvalita svaru je do značné míry ovlivněna chováním paroplynové dutiny - keyhole. Nicméně, její přímé pozorování během svařovacího procesu je prakticky nemožné a je nutné použít nepřímé metody. V ÚPT vyvíjíme optické metody sledování procesů založené na analýze záření laserem indukovaného plazmatu pomocí Fourierovy a autokorelační analýzy. Pozorovat vstupní otvor keyhole je částečně možné prostřednictvím koaxiální kamery umístěné na svařovací hlavě a následného zpracování obrazu. Vysokorychlostní boční kamera pomáhá pochopit dynamiku plazmového obláčku. Prostřednictvím optické spektroskopie plazmatu, lze studovat excitaci prvků v materiálu. Proud ochranné atmosféry může být vizualizován za použití schlierové metody.\n\n

Noise, Transport and Structural Properties of High Energy Radiation Detectors Based on CdTe
Šik, Ondřej ; Lazar, Josef (oponent) ; Navrátil, Vladislav (oponent) ; Grmela, Lubomír (vedoucí práce)
Because of demands from space research, healthcare and nuclear safety industry, gamma and X-ray imaging and detection is rapidly growing topic of research. CdTe and its alloy CdZnTe are materials that are suitable to detect high energy photons in range from 10 keV to 500 keV. Their 1.46 -1.6 eV band gap gives the possibility of high resistivity (10^10-10^11 cm) crystals production that is high enough for room temperature X-ray detection and imaging. CdTe/CdZnTe detectors under various states of their defectiveness. Investigation of detector grade crystals, crystals with lower resistivity and enhanced polarization, detectors with asymmetry of electrical characteristics and thermally degenerated crystals were subject of my work in terms of analysis of their current stability, additional noise, electric field distribution and structural properties. The results of the noise analysis showed that enhanced concentration of defects resulted into change from monotonous spectrum of 1/f noise to spectrum that showed significant effects of generation-recombination mechanisms. Next important feature of deteriorated quality of investigated samples was higher increase of the noise power spectral density than 2 with increasing applied voltage. Structural and chemical analyses showed diffusion of metal material and trace elements deeper to the crystal bulk. Part of this work is also focused on surface modification by argon ion beam and its effect on chemical and morphological properties of the surface.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Exploitation of GPU in graphics and image processing algorithms
Jošth, Radovan ; Svoboda, David (oponent) ; Trajtel,, Ľudovít (oponent) ; Herout, Adam (vedoucí práce)
This thesis introduces several selected algorithms, which were primarily developed for CPUs, but based on high demand for improvements; we have decided to utilize it on behalf of GPGPU. This modification was at the same time goal of our research. The research itself was performed on CUDA enabled devices. The thesis is divided in accordance with three algorithm’s groups that have been researched: a real-time object detection, spectral image analysis and real-time line detection. The research on real-time object detection was performed by using LRD and LRP features. Research on spectral image analysis was performed by using PCA and NTF algorithms and for the needs of real-time line detection, we have modified accumulation scheme for the Hough transform in two different ways. Prior to explaining particular algorithms and performed research, GPU architecture together with GPGPU overview are provided in second chapter, right after an introduction. Chapter dedicated to research achievements focus on methodology used for the different algorithm modifications and authors’ assess to the research, as well as several products that have been developed during the research. The final part of the thesis concludes our research and provides more information about the research impact.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

On-line Data Analysis Based on Visual Codebooks
Beran, Vítězslav ; Honec, Jozef (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
This work introduces the new adaptable method for on-line video searching in real-time based on visual codebook. The new method addresses the high computational efficiency and retrieval performance when used on on-line data. The method originates in procedures utilized by static visual codebook techniques. These standard procedures are modified to be able to adapt to changing data. The procedures, that improve the new method adaptability, are dynamic inverse document frequency, adaptable visual codebook and flowing inverted index. The developed adaptable method was evaluated and the presented results show how the adaptable method outperforms the static approaches when evaluating on the video searching tasks. The new adaptable method is based on introduced flowing window concept that defines the ways of selection of data, both for system adaptation and for processing. Together with the concept, the mathematical background is defined to find the best configuration when applying the concept to some new method. The practical application of the adaptable method is particularly in the video processing systems where significant changes of the data domain, unknown in advance, is expected. The method is applicable in embedded systems monitoring and analyzing the broadcasted TV on-line signals in real-time.

Generic Reverse Compilation to Recognize Specific Behavior
Ďurfina, Lukáš ; Šaloun, Petr (oponent) ; Zahradnický,, Tomáš (oponent) ; Kolář, Dušan (vedoucí práce)
Thesis is aimed on recognition of specific behavior by generic reverse compilation. The generic reverse compilation is a process that transforms executables from different architectures and object file formats to same high level language. This process is covered by a tool Lissom Decompiler. For purpose of behavior recognition the thesis introduces Language for Decompilation -- LfD. LfD represents a simple imperative language, which is suitable for a comparison. The specific behavior is given by the known executable (e.g. malware) and the recognition is performed as finding the ratio of similarity with other unknown executable. This ratio of similarity is calculated by a tool LfDComparator, which processes two sources in LfD to decide their similarity.

Methods for class prediction with high-dimensional gene expression data
Šilhavá, Jana ; Matula, Petr (oponent) ; Železný, Filip (oponent) ; Smrž, Pavel (vedoucí práce)
This thesis deals with class prediction with high-dimensional gene expression data. During the last decade, an increasing amount of genomic data has become available. Combining gene expression data with other data can be useful in clinical management, where it can improve the prediction of disease prognosis. The main part of this thesis is aimed at combining gene expression data with clinical data. We use logistic regression models that can be built through various regularized techniques. Generalized linear models enable us to combine models with different structure of data. It is shown that such a combination may yield more accurate predictions than those obtained based on the use of gene expression or clinical data alone. Suggested approaches are not computationally intensive. Evaluations are performed with simulated data sets in different settings and then with real benchmark data sets. The work also characterizes an additional predictive value of microarrays. The thesis includes a comparison of selected features of gene expression classifiers built up in five different breast cancer data sets. Finally, a feature selection that combines gene expression data with gene ontology information is proposed.

Optimalizace sledování síťových toků
Žádník, Martin ; Lhotka,, Ladislav (oponent) ; Matoušek, Radomil (oponent) ; Sekanina, Lukáš (vedoucí práce)
Tato disertační práce se zabývá optimalizací sledování síťových toků. Sledování síťových toků spočívá ve sledování jejich stavu a je klíčovou úlohou pro řadu síťových aplikací. S každým příchodem paketu je nutné aktualizovat hodnoty stavu, což zahrnuje přístupy do paměti. Vzhledem k vysoké propustnosti linek a obrovskému množství souběžných toků hraje přístup do paměti kritickou roli ve výkonnosti stavového zpracování síťového provozu. Tento problém se řeší různými technikami. Tyto techniky ale ve výsledku vždy požadují, aby nejblíže zpracování provozu byla nasazena paměť s nízkou odezvou, cache toků, schopná vyřídit všechny přístupy. Cache toků má proto omezenou kapacitu a její efektivní správa má zásadní vliv na výkonnost a výsledky zpracování síťového provozu. Vzhledem ke specifikům síťového provozu nemusí být stávající správy vhodné pro správu cache toků. Disertační práce se proto zabývá automatizovaným vývojem správy cache na základě reálného provozu dané sítě. Automatizace vývoje správy cache toků je realizována pomocí genetického algoritmu. Genetický algoritmus vyvíjí nová řešení a hodnotí je simulací nad vzorkem provozu z různých sítí. Navržený postup je ověřen na vývoji správ pro dva problémy. Prvním problémem je vývoj správy, která bude vykazovat celkově nízký počet výpadků stavů z cache toků. Druhým problémem je vývoj správy, která bude vykazovat velmi nízký počet výpadků u velkých toků. Optimalizace zakódování správy a experimenty s parametry genetického algoritmu ukázují, že je možné nalézt správy cache toků, které jsou optimalizované pro specifika daného nasazení. Nově vyvinuté správy poskytují lepší výsledky než ostatní testované správy. Z hlediska snížení celkového počtu výpadků je vyvinuta správa, která snižuje počet výpadků na konkrétní datové sadě až o deset procent vůči nejlepší porovnávané správě. Z pohledu snížení počtu výpadků u velkých toků je dosaženo vyvinutou správou až dvojnásobného snížení výpadků. Většina velkých toků (více než 90%) nezaznamenala při použití vyvinuté správy dokonce ani jeden výpadek. Rovněž během záplav nových toků, které se v síťovém provozu vyskytují v souvislosti se skenováním sítí a útoky, se ukazují velmi dobré vlastnosti vyvinuté správy. V rámci práce je rovněž navrženo rozšíření správy o využití doplňkové informace ze záhlaví příchozích paketů. Výsledky ukazují, že kombinací této informace lze počet výpadků u správ dále snižovat.

Čerpadlo s difuzorem s použitím stochastických lopatek (oběžné kolo i difuzor)
Dobšáková, Lenka ; Melichar, Jan (oponent) ; Veselý, Jindřich (oponent) ; Haluza, Miloslav (vedoucí práce)
Tato dizertační práce se zabývá studiem nerovnoměrné lopatkové mříže u odstředivých čerpadel. Vliv nerovnoměrné lopatkové mříže je zkoumána u oběžného i rozváděcího kola. Nerovnoměrné lopatkování kol čerpadla je v této práci zkoumáno z hlediska vlivu na účinnostní charakteristiku. Myšlenkou použití nerovnoměrného lopatkování je získání ploché účinnostní charakteristiky. Odstředivé čerpadlo by pak mohlo být používáno na větším rozsahu výkonů při dosažení dostatečně velké účinnosti. Práce je založena na experimentální měření a numerické simulaci nerovnoměrných hydraulických prvků čerpadla. Nerovnoměrné oběžné kolo a rozvaděč byli pro tento výzkum nově navrženy. Pro měření bylo v rámci této práce potřeba navrhnout a sestavit novou měřící trať malých ponorných čerpadel. Měřeny byly různé sestavy čerpadla s kombinacemi běžných návrhů hydraulik na jeden pracovní bod a hydraulik s nerovnoměrnou lopatkovou mříží. Všechna měření byla vyhodnocena a byly získány charakteristiky účinnosti, dopravní výšky a příkonu pro každou měřenou kombinaci. Část sestav měřených experimentálně byla také numericky vypočtena pomocí programu Ansys Fluent. Z numerických výpočtů byla sbírána data potřebná pro vyhodnocení charakteristiky účinnosti a měrné energie pro každou řešenou sestavu. Teoretické úvahy se týkají vlivu nerovnoměrné mříže u rozvaděče a vzniká tak doporučení, jak by bylo možné významně snížit ztráty v kanálech. Bylo také provedeno teoretické odvození způsobu, jak získat plochou charakteristiku účinnosti oběžného kola.