Národní úložiště šedé literatury Nalezeno 34,887 záznamů.  začátekpředchozí21 - 30dalšíkonec  přejít na záznam: Hledání trvalo 0.89 vteřin. 

Dendrochronologie arktické tundry
Lehejček, Jiří ; Svoboda, Miroslav (vedoucí práce) ; Monika, Monika (oponent)
Historicky bezprecedentní environmentální změny arktických ekosystémů jsou často zasazovány do kontextu jejich vývoje; minulého, ale i očekávaného budoucího. V oblastech s nedostatečnými instrumentálními meteorologickými pozorováními je nutné studovat klimatické archivy, které jsou schopny zasadit probíhající environmentální změny do kontextu minulosti. Práce předkládá syntézu jednoho takového archivu jalovce obecného (Juniperus communis) dlouhověkého cirkumpolárního keře arktické tundry. Na úrovni anatomie buňky bylo prozkoumáno 20 keřů. Kromě ekologických nároků druhu se tím odkryl i jeho potenciál pro environmentální a klimatické rekonstrukce. Mezi klíčové výsledky patří následující: i) Zastavení exponenciálního zvětšování plochy vodivého aparátu s věkem je v rozporu s přirozeným charakterem tohoto fenoménu u stromů. To naznačuje, že keře nepotřebují zajišťovat potřeby vody a živin klasickými cestami zákonů hydraulické konduktivity ale spíše pomocí jiných mechanismů. Extrémní podmínky tedy limitují výškový vzrůst rostlin, které kvůli nim mění převládající směr svého růstu z vertikálního na horizontální. Jednotlivé projevy počasí však na vzrůst působí pravděpodobně odlišně. Zatímco sníh a vítr ovlivňují růst kmene/větví mechanicky, pak teplota spíše fyziologicky. Až do věku, kdy je mladý keř schopen ustát silný vítr ve vzpřímené pozici a jeho kmínek/větve mají dostatečnou resilienci se po odtání sněhové pokrývky opět narovnat, roste vzhůru a plocha vodivého aparátu se zvětšuje. Současně s tím teplota, resp. cykly opakovaného mrznutí a rozmrzání, způsobuje konzervativní vývoj keře, který preferuje bezpečnost (limitní velikost plochy vodivého aparátu) před hydraulickou efektivitou, čímž se brání embólii, ale tím i dalšímu výškovému růstu. Všechny tyto (ale i další) faktory jsou zřejmě dohromady zodpovědné za postupný přechod od vertikálního ke kvazihorizontálnímu růstu. Od této chvíle již není potřeba (ani to není fyziologicky možné) dále zvětšovat plochu vodivého aparátu, jelikož voda přestává být transportována proti gravitaci. ii) Tento věkový/růstový trend je nutné uvažovat při dalším využívání růstových parametrů v paleoenvironmentálních studiích. Buněčné parametry by tedy neměly být využívány k těmto účelům, pokud nejsou správně detrendovány. To umožní nejen přesnější ale i delší rekonstrukce, protože je možné využít celý život rostlin včetně často opomíjené juvenilní fáze. iii) Předložena je i rekonstrukce tání jihozápadní části Grónského ledovcového štítu (GrIS) během 20. st. Tato oblast je považována v rámci celého GrIS za nejaktivnější. Dle naší rekonstrukce není míra současného tání GrIS v kontextu 20. st. neobvyklá, resp. je srovnatelná s prvními dekádami 20. st. Tento poznatek je významným přispěním do debaty o Atlantické meridionální zpětné cirkulaci (AMOC). A sice, příliš velký přítok sladké studené vody do severního Atlantiku v důsledku tání GrIS může zpomalit nebo dokonce zastavit AMOC, což by způsobilo prohloubení kontinentálního charakteru evropského klimatu. Naše výsledky tak ukazují, že tato hranice leží výše, než je současná míra tání GrIS. Jalovec obecný je fascinující arktický keř, který prokázal schopnost zodpovědět množství ekologický a environmentálních otázek. Především díky své dlouhověkosti a četnosti má obrovský potenciál stát se významných účastníkem arktického výzkumu.

Individuální lidský pach jako kriminalistická stopa vytvořená kontaktním nebo bezkontaktním přenosem a jeho odolnost vůči fyzikálním vlivům
Santariová, Milena ; Bartoš, Luděk (vedoucí práce) ; Chmelíková, Eva (oponent)
Disertační práce je tvořena čtyřmi vědeckými publikacemi, které se zabývají tématy týkající se vlastností lidského pachu a schopností speciálně vycvičených psů lidské pachy ztotožňovat. První tři práce se zaměřují na odolnost pachové stopy vůči fyzikálním vlivům, čtvrtá publikace je věnována tématu vzniku pachové stopy bezkontaktním způsobem. Cílem první studie bylo ověřit perzistenci pachové stopy na předmětu vystaveného vlivu proudící vody. Vzhledem k vlastnostem chemických látek obsažených v lidském pachu byla stanovena hypotéza, že psi budou schopni pachovou stopu, zajištěnou z předmětu vytaženého z vody, ztotožňovat. Tato hypotéza byla potvrzena a pach vystavený účinkům proudící vody po dobu jedné hodiny je stále způsobilý k pachové identifikaci pomocí speciálně cvičených psů. V druhé studii byla ověřována účinnost procesu parní sterilizace při odstraňování pachové stopy. Tento proces je rutinně používaný v kriminalistické praxi a předpokladem bylo, že psi vzorek ošetřený parní sterilizací ztotožňovat nebudou. Stanovená hypotéza nebyla potvrzena, výsledky potvrdily, že psi jsou schopni ztotožnit pach prošlý procesem parní sterilizace. Třetí studie se zabývala perzistencí pachů vůči sálavému teplu. Jelikož teplota varu organických látek nepřesahuje 400 °C, nepředpokládalo se, že by psi byli schopni komparace pachu vystaveného vyšší teplotě, než je zmiňovaná teplota varu. Tento předpoklad se překvapivě nepotvrdil a psi byli schopni komparovat vzorky vystavené teplotě až 900 °C. Čtvrtá studie řešila možnost vytvoření pachové stopy bezkontaktním způsobem. Přestože minulé studie tuto možnost jednoznačně neprokázaly, výsledky našeho experimentu zcela jasně ukazují, že speciálně vycvičení psi na metodu pachové identifikace jsou schopni ztotožňovat pachovou stopu vytvořenou spadem s ruky držené po dobu třech minut ve výšce 5 cm nad pachovým nosičem.

Neinvazivní metody pro stanovení pohlaví a stereoidních hormonů u gibonů rodu Nomascus
Bolechová, Petra ; Bartoš, Luděk (vedoucí práce) ; Pavel, Pavel (oponent)
Giboni rodu Nomascus patří ke kriticky ohroženému druhu, o kterém zároveň chybí velké množství základních biologických informací. Vzhledem ke statutu těchto zvířat ve volné přírodě i počtu chovaných jedinců v chovu zoologických zahrad je prioritní otázkou zlepšení managmentu chovu, kam patří i znalost reprodukce. Základním cílem této práce je praktické využití neinvazivních metod (polymerázová řetězová reakce k extrakci DNA a enzymové imunotesty), využívajících k analýzám vzorky výkalů. První metoda, polymerázová řetězová reakce, byla využita pro determinaci pohlaví u mláďat, protože kvůli jejich specifickému zbarvení a vzhledové podobnosti vnějších pohlavních orgánů, není diagnostika možná bez odchycení zvířete. Další částí je zodpovězení hypotéz týkajících se ovariálního cyklu samic a faktorů ovlivňujících jejich koncentrace včetně souvislosti nástupu pohlavního cyklu u samic a jejich změny barvy srsti. Hypotézy byly ověřeny sledováním výše koncentrací metabolitů progesteronu a estrogenu ve výkalech a vyhodnocením složení chovné skupiny gibonů a vlivu ZOO. Celkem bylo analyzováno během čtyř let (2010-2014) 51 zvířat z 16 zoologických zahrad v celkovém množství 1618 vzorků výkalů. Výsledky potvrdily využití neinvazivních metod pro determinaci pohlaví a tak zajištění maximálního welfare v chovech. Endokrinologické analýzy potvrdily hypotézy o vlivu prostředí (ZOO) na koncentraci hormonů a vliv březosti samice a jejího věku na výši koncentrace hormonů, ale také vliv březosti na koncentraci hormonů u samců-otců. Prvotní informací v této studii je potvrzení nástupu ovariálního cyklu u mladých samic bez návaznosti na jejich přebarvení a významný faktor vlivu matky a její teritoriality. Tato studie předkládá první dlouhodobější monitoring ovariálního cyklu u samic a koncentrace hormonů u ostatních jedinců ve všech věkových kategoriích i pohlaví. Výsledky umožňují pochopit vliv chovatelského prostředí na reprodukční postavení těchto gibonů a přispívají k celkovému zlepšení managementu chovu.

Predicting asp and pikeperch recruitment in a riverine redervoir.
BLABOLIL, Petr
Recruitment of two species, asp (Leuciscus aspius) and pikeperch (Sander lucioperca), in a riverine reservoir was studied using a novel statistical approach. Both species are piscivorous and are stocked into reservoirs for biomanipulative purposes to reduce planktivore species. Long-term data series were used, but the number of potential predictors was high. Therefore, a novel informative statistical approach based on dimension reduction methods was applied. Quality of outputs was driven by sampling methods. Main factors affecting asp recruitment were zooplankton abundance, predator density and temperature. In terms of pikeperch fry measured with seine and trawls, the number of predators was the only important factor. Gillnets underestimate small fish and the data were unsuitable for statistical modelling.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Location-aware data transfers scheduling for distributed virtual walkthrough applications.
Přibyl, Jaroslav ; Sochor, Jiří (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Data transfers scheduling process is an important part of almost all distributed virtual walkthrough applications. Its main purpose is to preserve data transfer efficiency and rendered image quality. The most limiting factors here are network restrictions. These restrictions can be reduced using multi-resolution data representation, download priority determination and data prefetching algorithms. Advanced priority determination and data prefetching methods use mathematic description of motion to predict next position of a user. These methods can accurately predict only close future positions. In the case of sudden but regular changes in user motion direction (road networks), these algorithms are not sufficient to predict future position with required accuracy and at required distance. In this thesis a systematic solution to data transfers scheduling is proposed which solves also these cases. The proposed solution uses next location prediction methods to compute download priority or additionally prefetch data needed to render a scene in advance. Experiments show that compared to motion functions the proposed scheduling scheme can increase data transfer efficiency and rendered image quality during exploration of tested scene.

Generic Reverse Compilation to Recognize Specific Behavior
Ďurfina, Lukáš ; Šaloun, Petr (oponent) ; Zahradnický,, Tomáš (oponent) ; Kolář, Dušan (vedoucí práce)
Thesis is aimed on recognition of specific behavior by generic reverse compilation. The generic reverse compilation is a process that transforms executables from different architectures and object file formats to same high level language. This process is covered by a tool Lissom Decompiler. For purpose of behavior recognition the thesis introduces Language for Decompilation -- LfD. LfD represents a simple imperative language, which is suitable for a comparison. The specific behavior is given by the known executable (e.g. malware) and the recognition is performed as finding the ratio of similarity with other unknown executable. This ratio of similarity is calculated by a tool LfDComparator, which processes two sources in LfD to decide their similarity.

Lifting Scheme Cores for Wavelet Transform
Bařina, David ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
The thesis focuses on efficient computation of the two-dimensional discrete wavelet transform. The state-of-the-art methods are extended in several ways to perform the transform in a single loop, possibly in multi-scale fashion, using a compact streaming core. This core can further be appropriately reorganized to target the minimization of certain platform resources. The approach presented here nicely fits into common SIMD extensions, exploits the cache hierarchy of modern general-purpose processors, and is suitable for parallel evaluation. Finally, the approach presented is incorporated into the JPEG 2000 compression chain, in which it has proved to be fundamentally faster than widely used implementations.