Národní úložiště šedé literatury Nalezeno 30,892 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.82 vteřin. 

Španělsko jako destinace cestovního ruchu
Zbořilová, Kristýna ; Abrhám, Josef (vedoucí práce) ; Havlíčková, Blanka (oponent)
Tato bakalářská práce se zabývá cestovním ruchem ve Španělsku. Jelikož se jedná o velmi široké téma, hlavním cílem práce je zhodnocení cestovního ruchu ve zcela odlišných regionech, a to v Andalusii a Baskicku. První kapitola se věnuje základním pojmům cestovního ruchu, které jsou potřebné k pochopení souvislostí v bakalářské práci. Zde je objasněn například pojem turismus a jeho typologie. Druhá kapitola se zabývá celým Španělskem. Nejdříve je tato země představena, a to i z hlediska historie, dále je zhodnocen její cestovní ruch a na závěr jsou prezentovány nejatraktivnější místa. Předposlední a poslední kapitola jsou ve svojí stavbě totožné, aby bylo možno dosáhnout srovnání. V první části u každé kapitoly dochází k charakteristice regionu, dále je zhodnocen turismus z hlediska statistik přijíždějících turistů a na závěr je z výše uvedených informací provedena SWOT analýza.

Výběr a implementace open source nástroje pro řízení portfolia projektů
Marek, Jan ; Chlapek, Dušan (vedoucí práce) ; Kučera, Jan (oponent)
Metody a způsoby realizace změn a inovací v podnicích pomocí projektů jsou v dnešní společnosti již zažité. Jsou dobře známé metodiky, postupy i nástroje pro řízení jednotlivých projektů. Nicméně ve své praxi projektového manažera jsem se často setkával s tím, že společnosti často velmi intuitivním způsobem řeší řízení celkového portfolia projektů, což samo o sobě často vede k předčasně ukončeným projektům, řešení nesprávných projektů, případně řešení správných projektů, ale v nesprávný čas. Velmi často jsem se také setkal se situací, že chybí povědomí o tom, že existují i Open Source aplikace, které mohou s organizací portfolia pomoci. Tato práce se zabývá definováním požadavků, vyhledáváním a výběrem a následně i návrhem implementací takové OSS aplikace. V prvé části práce definuji teoretický rámec pro řízení portfolia a na jeho základě následně identifikuji a ověřím set požadavků pro výběr aplikace. Následná část řeší již samotné hledání vhodných aplikací z různých zdrojů, jejich vyhodnocení vůči požadavkům a následný výběr. Následně je pak připraven návrh implementačního projektu, který má za cíl sloužit dalším kolegům v oblasti projektového řízení jako jedna z možných implementačních cest. Výstupy jsou následně průběžně konfrontovány s experty na problematiku projektů v oboru IT tak, aby se podařilo co nejvíce skloubit teorii a následnou praxi. Prakticky ve všech metodikách projektového řízení je kladen značný důraz na přebírání již odzkoušených postupů, proto za hlavní přínos této práce pro praxi považuji fakt, že obsahuje nejen návrh implementačního projektu, ale zároveň i popisuje logickou cestu, jak jsem k němu došel. Práce je tak využitelná při řešení jakéhokoli projektu implementace PPM aplikace.

Právo na informace o životním prostředí a přístup k právní ochraně v otázkách životního prostředí v Irské a České republice
Vítková, Martina ; Stejskal, Vojtěch (vedoucí práce) ; Sobotka, Michal (oponent)
Shrnutí Tato diplomová práce pojednává o právu na informace o životním prostředí a právu na přístup k soudům v otázkách životního prostředí tak jak bylo zavedeno Aarhuskou úmluvou, v konkrétních podmínkách České a Irské republiky. Tato práva jsou velmi významným nástrojem ochrany životního prostředí. V době, kdy sami lidé ohrožují svou existenci negativními zásahy do životního prostředí, je třeba, aby existovaly účinné prostředky pro jeho ochranu. Těmito prostředky jsou právě právo na informace o životním prostředí a právo na přístup k soudům v otázkách životního prostředí, které společně můžeme označit jako environmentální procesní práva. Úvodní kapitola se zabývá prameny environmentálních procesních práv a sleduje jejich vývoj na mezinárodní, nadnárodní a národní úrovni. Nejdůležitějším mezinárodním dokumentem v této oblasti je Aarhuská úmluva, která byla přijata v roce 1998 většinou evropských států, a která mimo práva na informace o životním prostředí a práva na přístup k právní ochraně vymezuje také právo účasti veřejnosti na rozhodování v záležitostech životního prostředí. Na tuto úmluvu navazuje v právu Evropské unie několik směrnic, z nichž za nedůležitější je nutno považovat směrnici provádějící právo na informace o životním prostředí a směrnici provádějící právo účasti veřejnosti na rozhodování....

Úvod do bio artu
Šperanda, Nina ; SILVERIO, Robert (vedoucí práce) ; JANOŠČÍK, Václav (oponent)
Bio art je současný umělecký směr, který pracuje s živými organismy (kromě lidí), nebo je vytvářen ve spolupráci s živými organismy. Je to relativně nové umělecké hnutí, které má své kořeny hluboko v historii evoluce. Vychází z domestikace zvířat a rostlin, technologických objevů, vývoje a vědy. V minulosti nebylo umění, které by zpochybňovalo svou estetiku a etiku v tak hluboké míře způsobem molekulárním a submolekulárním, jak je tomu u bio umění. V této práci se budu zabývat historickými vlivy a podmínkami, které vedly k současnému vývoji této oblasti. Pokusím se také vysvětlit problematiku toho, co je bio umění a současně vysvětlit terminologii s ním spojenou. Ve své práci zmíním průlomové objevy a díla současných umělců zabývajících se oborem bio artu. V teorii bývá estetika bio artu často zastíněna diskuzí o etice, nicméně je velmi důležitou a nedílnou součástí tohoto uměleckého směru. Ve své práci se budu zabývat hlavně estetikou bio umění s odkazem na filosofii. Nastíním stručný přehled názorů současných autorů.

Etienne Decroux a jeho metoda Le Mime Corporel
Šimon, Lukáš ; VIZVÁRY, Radim (vedoucí práce) ; SOPROVÁ, Jana (oponent)
Tato práce pojednává o životě a díle Etienna Decrouxe, jednoho z nejvýznamnějších francouzských reformátorů divadla a jeho metodě Le Mime Corporel, která dodnes tvoří základ moderní pantomimy. Decroux je známý ve světě jako vynikající mim, režisér, pedagog, teoretik a reformátor divadla. Jeho přínos pro vývoj evropského divadla v minulém století je velmi významný, zejména pro mimické divadelní žánry. Práce přibližuje čtenáři Decrouxovu osobnost a jeho přínos pro pantomimu vytvořením nové metody mimického divadla - Le Mime Corporel. Další náplní práce je zmapovat významné vlivy různých osobností na umělecký vývoj Etienna Decrouxe, popsat základní prvky formující metodu Le Mime Corporel a porovnání s jinými žánry pohybového divadla.

Vliv lučního managementu na migrační chování vybraných druhů motýlů
Bubová, Terezie ; Langrová, Iva (vedoucí práce) ; Farkač, Jan (oponent)
Migrace jsou klíčovým procesem a jednou ze základních biologických vlastností, které umožňují ohroženým druhům motýlů přežít ve fragmentovaných krajinách. V posledních desetiletích ubývají přirozená stanoviště pro motýly vlivem intenzivního zemědělství, průmyslu či urbanizace. Vhodné lokality jsou přeměněny na zemědělské plochy či zastavěny. Cílem disertační práce bylo vytvoření kompromisního řešení obhospodařování luk, tak aby byla možnost jejich komerčního využití a přesto bylo umožněno přežití vzácných lučních organismů. Hlavní myšlenka spočívala v cíleném působení na emigrační chování motýlů s cílem přesídlení populace v době letu imag na potencionálně vhodné stanoviště. Možnost cíleně manipulovat s emigracemi motýlů by znamenalo zásadní průlom v jejich ochraně. Studovanými druhy byli ohrožení modrásci Phengaris nausithous (Bergsträsser, 1779) a Phengaris teleius (Bergsträsser, 1779), kteří jsou stěžejními druhy pro ochranu Evropských motýlů na otevřených loukách. Výzkum probíhal na lokalitě Dolní Labe v České republice v letových sezónách 2013 až 2015. Na lokalitě bylo sledováno 17 ploch. V těchto letech byla uprostřed letové sezóny záměrně pokosena zvolená plocha. Před a po pokosení plochy byly podrobně monitorovány emigrace metodou mark-release-recapture. Výsledky populačních a migračních charakteristik byly vypočteny pomocí programu MARK 8.1. Vliv kosení na vyvolání emigrace byl zpracován v programu Statistica 13, prostřednictvím porovnání výsledků emigrací před a po pokosení plochy. Zvolené hypotézy vycházely z předpokladu, že ztráta zdrojů po pokosení louky zvýší emigrační aktivitu imag, čehož lze dosáhnout vhodným načasováním seče. Ve třech sledovaných letových sezónách došlo k navýšení emigrací po aplikování managementového zákroku pouze v letové sezóně 2015 u obou druhů. Statistické zpracování však ukázalo, že tento nárůst nemá průkazný vliv na efekt nárůstu emigrací po pokosení. Potvrzená byla hypotéza předpokládající kolonizaci nejblíže dostupných ploch po pokosení. Vliv cíleného ovlivnění emigrací prostřednictvím managementových zákroků nebyl prokázán. Důležité zjištění však vyplynulo při současném sledování velikosti populace na kosené ploše. Kosení uprostřed letové sezóny působí na larvální mortalitu a ztrátu zdrojů. I přesto tyto známe argumenty, jsme z důvodu dlouhodobé znalosti lokality, aplikovali kosení na jedné z ploch. V průběhu tří letových sezón došlo na této ploše ke snížení skutečné velikosti populace. Snížení se neprojevilo na velikosti celkové populace. Razantní pokles byl zaznamenán u P. nausithous. U druhu P. teleius bylo snížení skutečné velikosti populace velmi nízké, tudíž se s podmínkami seče uprostřed letové sezóny dokázal vyrovnat lépe. V případě našeho výzkumu vyplývá jasný závěr o potřebě nastolení vhodných managementových zákroků pro ohrožené druhy motýlů. Ty se týkají hlavně nutnosti snížení kosení luk uprostřed letu imag a upravení režimů dle potřeb motýlů pro jejich ochranu.

Noise, Transport and Structural Properties of High Energy Radiation Detectors Based on CdTe
Šik, Ondřej ; Lazar, Josef (oponent) ; Navrátil, Vladislav (oponent) ; Grmela, Lubomír (vedoucí práce)
Because of demands from space research, healthcare and nuclear safety industry, gamma and X-ray imaging and detection is rapidly growing topic of research. CdTe and its alloy CdZnTe are materials that are suitable to detect high energy photons in range from 10 keV to 500 keV. Their 1.46 -1.6 eV band gap gives the possibility of high resistivity (10^10-10^11 cm) crystals production that is high enough for room temperature X-ray detection and imaging. CdTe/CdZnTe detectors under various states of their defectiveness. Investigation of detector grade crystals, crystals with lower resistivity and enhanced polarization, detectors with asymmetry of electrical characteristics and thermally degenerated crystals were subject of my work in terms of analysis of their current stability, additional noise, electric field distribution and structural properties. The results of the noise analysis showed that enhanced concentration of defects resulted into change from monotonous spectrum of 1/f noise to spectrum that showed significant effects of generation-recombination mechanisms. Next important feature of deteriorated quality of investigated samples was higher increase of the noise power spectral density than 2 with increasing applied voltage. Structural and chemical analyses showed diffusion of metal material and trace elements deeper to the crystal bulk. Part of this work is also focused on surface modification by argon ion beam and its effect on chemical and morphological properties of the surface.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.