Národní úložiště šedé literatury Nalezeno 5,417 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.17 vteřin. 

SAN MINN (ANEB) UMĚLEC, KTERÝ DÁVÁ PŘEDNOST TVORBĚ A OBRAZŮM PŘED SVÝM ŽIVOTEM
Zeya, Pyin Nyar ; JANEČEK, Vít (vedoucí práce) ; VOJTĚCHOVSKÝ, Miloš (oponent)
Nikdo nemůže ovládat svobodné myšlení a inspiraci umělce. Přestože jeho obrazy a tvorba byly vystaveny velkému tlaku a na nátlak shora zakázány, jejich umělecká hodnota nikdy neklesla. Proto píši tuto práci. San Minn vystoupil zbarmského malířského mainstreamu a nikdy nenamaloval komerční obraz. Je stále věren své víře v umění a malbu a přichází vždy s novými způsoby, jak přistoupit malování. Jeho tvorba se podstatně odlišuje od jeho souputníků a jeho styl se výrazně liší. V barmském malířství je unikátním jevem. Naskytla se mi možnost studovat jeho styl, myšlenky, způsob uvažování a jeho odhodlání s jakým umění vytváří. Moje práce má za cíl ukázat život umělce a malíře, který vyrostl a žil 50 let pod vojenskou nadvládou, a skrze pohled na jeho případ popsat vývoj a stav výtvarné scény v Barmě. Zprostředkuji tak nejen zájemcům o malbu, ale všem ostatním čtenářům vhled do barmského malířství a místní umělecké scény. Doufám, že moje práce tak bude vhledem prospěšným a barvitým. Zdá se, že jakožto malíř, San Minn chce, aby jeho publikum cítilo a zažilo jeho práce, ale jen zřídka odhaluje svůj osobní život, který se odvíjí za jeho plátny. Pro mě je tato práce zároveň i příležitostí jeho osobní rovinu alespoň trochu poodkrýt na následujících stránkách. xxxxxxxxx Cíl Práce Má práce může být zajímavá pro každého, kdo se zajímá o současnou uměleckou scénu Barmy (Myanmaru). Umožňuje čtenáři, aby se dočetl o jednom z nejslavnějších a nejvýznamnějších umělců a uměleckých směrů v Barmě (Myanmaru). Jeho malby jsou svědectvím o více než 40 let dlouhé cestě pod dohledem cenzury, avšak na každém kroku ukazují na jeho nebojácnost řešit politické a sociální otázky. Mnohé z uměleckých děl San Minna jsou autobiografické, vytváří břitký sociální komentář k populární kultuře a zrcadlí sociální hodnoty, stejně jako situace, které jejich autor prožíval. xxxxxxxxxxxx

Zpracování podnikatelského záměru
Halmlová, Lenka ; Štůsek, Jaromír (vedoucí práce)
Diplomová práce se zabývá zpracováním podnikatelského záměru, který se týká založení zemědělské živnosti. Práce obsahuje strukturu a postup při zpracování podnikatelského, marketingového a finančního plánu. Diplomová práce se skládá z teoretické a praktické části. Po prostudování odborné literatury jsou teoretické poznatky použity v praktické části práce, ve které je následně zpracován konkrétní podnikatelský plán nového podnikatele. Předmětem podnikání nového podnikatele je zemědělská činnost, především včelaření.

Antioxidační, anti-proliferační a imunomodulační účinky ovoce, zeleniny a hub in vitro
Doskočil, Ivo ; Havlík, Jaroslav (vedoucí práce) ; Orsák, Matyáš (oponent)
V poslední době stoupá zájem o nalezení nových druhů rostlin a hub, které mají antioxidační nebo antiproliferační aktivitu. Tento zájem je vyvolán zejména jejich možným léčivým a potravinovým využitím při mnoha onemocněních, které mohou být spojeny s oxidačním stresem, jako jsou například zánětlivá onemocnění střev, kardiovaskulární onemocnění, hypertenze nebo nádorová onemocnění. Tato práce předkládá charakterizaci in vitro antioxidační a anti proliferační aktivity vybraných 19 džusů a 28 metanolových extraktů z ovoce a zeleniny, které jsou běžnou součástí jídelníčku. Dále 13 etanolových extraktů jedlých hub řádu chorošotvarých (Popyporales). Pro stanovení antioxidační aktivity byly využity metody 2,2 diphenyl 1 picrylhydrazyl (DPPH); absorbance kyslíkových radikálů (oxygen radical absorbance capacity ORAC) a inhibice produkce oxidu dusnatého (NO). Cytotoxicita byla měřena pomocí metody MTT využívající tetrazolovou sůl 3 [4,5 dimetyltiazol 2 yl] 2,5 difenyltetrazol bromid; a pro stanovení imunomodulační aktivity byla použita metoda fagocytární aktivity lidských neutrofilních granulocytů. Dále byl zjišťován celkový obsah fenolů (TPC) a ß glukanů, jako potenciálně aktivních složek podílejících se na těchto aktivitách. Z výsledků je patrné, že z testovaných vzorků ovoce a zeleniny vykazovaly nejvyšší antioxidační aktivitu džusy (TPC = 1603,2 mg GAE/l džusu; ORAC = 438,5 umol TE/g) a extrakty (ORAC 836,6 umol TE/g; DPPH = 404,6 umol TE/g) z plodů brusnice borůvky (Vaccinium myrtillus), následované džusem z papriky (Capsicum L.)(TPC = 642,1 mg GAE/l džusu; ORAC = 127,9 umol TE/g) a extraktem z ředkve bílé (Raphanus sativus L.)(ORAC = 724,5 umol TE/g; DPPH = 52,2 umol TE/g). Z testovaných druhů ovoce a zeleniny inhibovaly produkci NO džusy z cibule kuchyňské (Allium cepa L)(snižoval produkci NO o 57 %) a mandarinka (Citrus reticulata Blanco)(o 52 %) spolu s extrakty z brokolice (Brassica oleracea var. botrytis italica) (o 21 %) a pomeranče (Citrus sinensis Pers.) (o 10 %). Z jedlých hub byl stanoven nejvyšší obsah fenolových sloučenin u Lentinus tigrinus (Bull.) (houževnatec tygrovaný) Fr. (TPC = 216,2 umol GAE/g extraktu), Ganoderma lucidum (Curtis) P. Kras (lesklokorka lesklá)(TPC = 257,9 umol GAE/g extraktu) a Royoporus badius (Pers.) A.B. De (choroš smolonohý)(TPC = 257,8 umol GAE/g extraktu). Obsah ß glukanů byl nejvyšší u Sparassis crispa (Wulfen) Fr. (kotrč kadeřavá)(117,4 mg/g extraktu). Významný efekt na fagocytární aktivitu granulocytů byl zaznamenán u Neolentinus lepideus (Fr.) Redhead & Ginns, Polyporus squamosus (Huds.) Fr. (choroš šupinatý) a S. crispa. U poslední ze zmíněných hub byl taktéž zaznamenán mírný inhibiční účinek vůči buněčné linii HT 29 kolorektálního karcinomu člověka (IC50 = 107 ug/ml extraktu). Výsledky naznačují, že některé námi testované rostliny a houby mohou být perspektivní ve snižování následků vzniklých v důsledku oxidačního stresu, který má podíl na celé řadě onemocnění a snížení toho oxidačního stresu může vést ke snížení progrese těchto onemocnění. Výsledky naznačují možný mechanismus účinku na lidské zdraví, při jejich interpretaci je však třeba brát v úvahu, že in vitro testy a screeningy jsou prvním stupněm systematického výzkumu těchto účinků a slouží pro výběr kandidátů pro návazné podrobnější studie.

Single particle analysis of size-segregated aerosol in Prague city center
Marvanová, S. ; Skoupý, Radim ; Kulich, P. ; Bendl, J. ; Hovorka, J. ; Machala, M.
Particulate matter (PM) is omnipresent pollutant in the ambient air known to cause cardiovascular and respiratory diseases (WHO 2004). Recently, outdoor air pollution and particulate matter in outdoor air pollution were classified as carcinogenic to humans, Group 1 (IARC 2015). Especially, ambient PM of aerodynamic diameter < 100 nm, ultrafine particles, appears to be of great importance due to its high specific surface area and high number concentration (Hughes et al. 1998). Ultrafine particles also easily enter and are being transferred in organisms, and interact with cells and subcellular components (Oberdorster et al. 2005). As the evidence of ultrafine PM significance increased, size-fractionated PMs sampled by various cascade impactors have been employed into the toxicological studies on cell cultures or isolated cells, using the organic extracts of size-fractionated PMs (Topinka et al. 2013, Topinka et al. 2015) or directly the size-fractionated particles (Becker et al. 2003, Ramgolam et al. 2009, Reibman et al. 2002, Loxham et al. 2013, Jalava et al. 2006, Thomson et al. 2015, Jalava et al. 2015). The aim of this study was to evaluate shape and composition of size-segregated aerosol particles, sampled by high volume cascade impactor, using electron microscopy and energy dispersive X-ray spectroscopy (EDX).

DCTOOL-A3
Bakule, Lubomír ; Papík, Martin ; Rehák, Branislav
DCTOOL-A3 is a documentation of Matlab routines developed for the design of decentralized control of large scale complex systems. The current beta version covers three areas as follows:\nReport 4.1 deals with the event-triggered control design for unstructured uncertain systems. Both non-quantized and quantized feedback is analyzed. The results are given in terms of linear matrix inequalities (LMIs). Logarithmic quantizer is used. Numerical example illustrates the effectiveness of the presented results.\nReport 4.2 presents a new decentralized overlapping wireless control design with a switched communication protocol. The method is applied by simulations on the 20-story building structure including the test of robustness of the methods against sensor failures and network node dropouts of a digital network.\nReport 4.3 presents the construction of a new decentralized wireless controller and a set of heuristic algorithms for evaluation of packet dropouts, sensor faults and actuator faults. The digital network operates at the standard frequency used in well-known widely-used industrial protocols. The results are tested at the Benchmark model decomposed into two disjoint substructures. The results are published. Thus, the details are omitted here.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

On-line Data Analysis Based on Visual Codebooks
Beran, Vítězslav ; Honec, Jozef (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
This work introduces the new adaptable method for on-line video searching in real-time based on visual codebook. The new method addresses the high computational efficiency and retrieval performance when used on on-line data. The method originates in procedures utilized by static visual codebook techniques. These standard procedures are modified to be able to adapt to changing data. The procedures, that improve the new method adaptability, are dynamic inverse document frequency, adaptable visual codebook and flowing inverted index. The developed adaptable method was evaluated and the presented results show how the adaptable method outperforms the static approaches when evaluating on the video searching tasks. The new adaptable method is based on introduced flowing window concept that defines the ways of selection of data, both for system adaptation and for processing. Together with the concept, the mathematical background is defined to find the best configuration when applying the concept to some new method. The practical application of the adaptable method is particularly in the video processing systems where significant changes of the data domain, unknown in advance, is expected. The method is applicable in embedded systems monitoring and analyzing the broadcasted TV on-line signals in real-time.

OPTIMIZATION OF ALGORITHMS AND DATA STRUCTURES FOR REGULAR EXPRESSION MATCHING USING FPGA TECHNOLOGY
Kaštil, Jan ; Plíva, Zdeněk (oponent) ; Vlček, Karel (oponent) ; Kotásek, Zdeněk (vedoucí práce)
This thesis deals with fast regular expression matching using FPGA. Regular expression matching in high speed computer networks is computationally intensive operation used mostly in the field of the computer network security and in the field of monitoring of the network traffic. Current solutions do not achieve throughput required by modern networks with respect to all requirements placed on the matching unit. Innovative hardware architectures implemented in FPGA or ASIC have the highest throughput. This thesis describes two new architectures suitable for the FPGA and ASIC implementation. The basic idea of these architectures is to use perfect hash function to implement transitional function of deterministic finite automaton. Also, architecture that allows the user to introduce small probability of errors into the matching process in order to reduce memory requirement of the matching unit was introduced. The thesis contains analysis of the effect of these errors to overall reliability of the system and compares it to the reliability of currently used approach. The measurement of properties of regular expressions used in analysis of the traffic in modern computer networks was performed in the thesis. The analysis implies that most of the used regular expressions are suitable for the implementation by proposed architectures. To guarantee high throughput of the matching unit new algorithms for alphabet transformation is proposed. The algorithm allows to transform the automaton to accept several input characters per one transition. The main advantage of the proposed algorithm over currently used solutions is that it does not have any limitation over the number of characters that are accepted at once. Implemented architectures were compared with the current state of the art algorithm and 200MB memory reduction was achieve

Optimalizace sledování síťových toků
Žádník, Martin ; Lhotka,, Ladislav (oponent) ; Matoušek, Radomil (oponent) ; Sekanina, Lukáš (vedoucí práce)
Tato disertační práce se zabývá optimalizací sledování síťových toků. Sledování síťových toků spočívá ve sledování jejich stavu a je klíčovou úlohou pro řadu síťových aplikací. S každým příchodem paketu je nutné aktualizovat hodnoty stavu, což zahrnuje přístupy do paměti. Vzhledem k vysoké propustnosti linek a obrovskému množství souběžných toků hraje přístup do paměti kritickou roli ve výkonnosti stavového zpracování síťového provozu. Tento problém se řeší různými technikami. Tyto techniky ale ve výsledku vždy požadují, aby nejblíže zpracování provozu byla nasazena paměť s nízkou odezvou, cache toků, schopná vyřídit všechny přístupy. Cache toků má proto omezenou kapacitu a její efektivní správa má zásadní vliv na výkonnost a výsledky zpracování síťového provozu. Vzhledem ke specifikům síťového provozu nemusí být stávající správy vhodné pro správu cache toků. Disertační práce se proto zabývá automatizovaným vývojem správy cache na základě reálného provozu dané sítě. Automatizace vývoje správy cache toků je realizována pomocí genetického algoritmu. Genetický algoritmus vyvíjí nová řešení a hodnotí je simulací nad vzorkem provozu z různých sítí. Navržený postup je ověřen na vývoji správ pro dva problémy. Prvním problémem je vývoj správy, která bude vykazovat celkově nízký počet výpadků stavů z cache toků. Druhým problémem je vývoj správy, která bude vykazovat velmi nízký počet výpadků u velkých toků. Optimalizace zakódování správy a experimenty s parametry genetického algoritmu ukázují, že je možné nalézt správy cache toků, které jsou optimalizované pro specifika daného nasazení. Nově vyvinuté správy poskytují lepší výsledky než ostatní testované správy. Z hlediska snížení celkového počtu výpadků je vyvinuta správa, která snižuje počet výpadků na konkrétní datové sadě až o deset procent vůči nejlepší porovnávané správě. Z pohledu snížení počtu výpadků u velkých toků je dosaženo vyvinutou správou až dvojnásobného snížení výpadků. Většina velkých toků (více než 90%) nezaznamenala při použití vyvinuté správy dokonce ani jeden výpadek. Rovněž během záplav nových toků, které se v síťovém provozu vyskytují v souvislosti se skenováním sítí a útoky, se ukazují velmi dobré vlastnosti vyvinuté správy. V rámci práce je rovněž navrženo rozšíření správy o využití doplňkové informace ze záhlaví příchozích paketů. Výsledky ukazují, že kombinací této informace lze počet výpadků u správ dále snižovat.