Národní úložiště šedé literatury Nalezeno 25,122 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.60 vteřin. 

Optimization techniques in inventory management
Němečková, Zita
Tato bakalářská práce mapuje problematiku řízení zásob se zaměřením na optimalizační techniky a jejich využití v této oblasti. Na základě dat získaných od skutečné firmy práce popisuje praktické využití optimalizačního algoritmu. Obsahuje zhodnocení výsledků získaných z aplikace, která je implementována jako součást bakalářské práce.

Vývoj asistenční aplikace pro lidi s demencí
Černý, Martin ; Šlajchrt, Zbyněk (vedoucí práce) ; Pecinovský, Rudolf (oponent)
Cílem této diplomové práce je implementace prezentační vrstvy aplikace využívající reminisceční terapii a pomáhající lidem s demencí. Reminiscenční terapie je diskuze nad vzpomínkami, které mají pacienti. Výzkumy prokázali, že tato terapie má pozitivní účinky na život pacientů a na udržení jejích vzpomínek. Výzkumná část uvádí do problematiky demence, reminiscenční terapie s a bez použití technologií. Aplikace vyvýjená jako součást této diplomové práce používá vstupy ve formě nahraných obrázků a rozpoznaného mluveného slova. Tyto vstupy jsou použity na podporu pamatování a rozpoutání diskuze. Aplikace může být použita pacientem s nebo bez ošetřovatele a případně s přáteli nebo členy rodiny. Šest nejdůležitějších požadavků na vyvíjenou aplikaci je rozpoznávání reči, nahrání obrázků, vytváření otázek o předchozích nahrávkách, vytváření otázek o označených přátelích, používání starých obrázků pro následnou diskuzi a zobrazení statistiky. Aplikace byla vyvinuta jak součást soutěže pořádané AngelHack organizací. Architektura prezentační, databázové a aplikační vrstvy je diskutována v diplomové práci se zaměřením na prezentační vrstvu spolu s uživatelskou příručkou a implementací požadavků v této vrstvě. Prezentační vrstva byla vytvořena s pomocí React knihovny pro JavaScript. Byly použity i další knihovny. Z nichž nejdůležitější je Redux knihovna, která slouží k ukládání stavu aplikace. Tato knihovna navíc výrazně ovlivnila strukturu prezentační vrstvy.

Změny při posuzování nároku dávek pěstounské péče od roku 2013
ZEMANOVÁ, Hana
Pěstounská péče je jednou z forem náhradní rodinné péče v České republice. Dítě svěřené do pěstounské péče i jeho pěstoun jsou státem hmotně zabezpečeni dávkami pěstounské péče. Do roku 2012 upravoval dávky pěstounské péče zákon č. 117/1995 Sb., o státní sociální podpoře. V roce 2012 byly novelou č. 401/2012 Sb. přeneseny dávky pěstounské péče do zákona č. 359/1999 Sb., o sociálně-právní ochraně dětí. Zároveň s touto změnou došlo i ke změně podmínek nároku na dávky pěstounské péče a k nastolení snahy o profesionalizaci pěstounské péče. Cílem této bakalářské práce je analýza a porovnání legislativních změn dávek pěstounské péče z pohledu zákona o státní sociální podpoře a zákona o sociálně-právní ochraně dětí. V empirické části práce je popsán kvantitativní výzkum, jehož snahou bylo potvrdit či vyvrátit předem stanovené hypotézy. Hypotézy byly zaměřeny na porovnání stavu před novelou a po novele zákona o sociálně-právní ochraně dětí. Zvolenou technikou výzkumu bylo studium dokumentů, v rámci kterého byla provedena sekundární analýza dat. Využity byly statistiky Ministerstva práce a sociálních věcí ČR, Úřadu práce ČR a krajských úřadů. Výsledky výzkumu ukazují, že nárok na dávky pěstounské péče má větší okruh pěstounů. Snaha o profesionalizaci pěstounské péče, zejména uzákonění pěstounské péče na přechodnou dobu, pozitivně ovlivnilo zvýšení počtu zájemců o výkon pěstounské péče. Bakalářskou práci lze použít jako studijní materiál pro studenty sociálních oborů či pracovníky orgánů sociálně-právní ochrany dětí. Práce by mohla být zároveň i zpětnou vazbou pro ministerské úředníky o reálném stavu provedených změn.

Výběr a implementace open source nástroje pro řízení portfolia projektů
Marek, Jan ; Chlapek, Dušan (vedoucí práce) ; Kučera, Jan (oponent)
Metody a způsoby realizace změn a inovací v podnicích pomocí projektů jsou v dnešní společnosti již zažité. Jsou dobře známé metodiky, postupy i nástroje pro řízení jednotlivých projektů. Nicméně ve své praxi projektového manažera jsem se často setkával s tím, že společnosti často velmi intuitivním způsobem řeší řízení celkového portfolia projektů, což samo o sobě často vede k předčasně ukončeným projektům, řešení nesprávných projektů, případně řešení správných projektů, ale v nesprávný čas. Velmi často jsem se také setkal se situací, že chybí povědomí o tom, že existují i Open Source aplikace, které mohou s organizací portfolia pomoci. Tato práce se zabývá definováním požadavků, vyhledáváním a výběrem a následně i návrhem implementací takové OSS aplikace. V prvé části práce definuji teoretický rámec pro řízení portfolia a na jeho základě následně identifikuji a ověřím set požadavků pro výběr aplikace. Následná část řeší již samotné hledání vhodných aplikací z různých zdrojů, jejich vyhodnocení vůči požadavkům a následný výběr. Následně je pak připraven návrh implementačního projektu, který má za cíl sloužit dalším kolegům v oblasti projektového řízení jako jedna z možných implementačních cest. Výstupy jsou následně průběžně konfrontovány s experty na problematiku projektů v oboru IT tak, aby se podařilo co nejvíce skloubit teorii a následnou praxi. Prakticky ve všech metodikách projektového řízení je kladen značný důraz na přebírání již odzkoušených postupů, proto za hlavní přínos této práce pro praxi považuji fakt, že obsahuje nejen návrh implementačního projektu, ale zároveň i popisuje logickou cestu, jak jsem k němu došel. Práce je tak využitelná při řešení jakéhokoli projektu implementace PPM aplikace.

Optické vláknové senzory a svařování optických vláken
Jelínek, Michal ; Mikel, Břetislav
Vyvinuli jsme nové metody a techniky pro svařování a tvarování jednovidových (SM) a mnohavidových (MM) optických vláken a vláken s rozdílnými průměry. Společně s touto technikou jsme připravili techniku pro svařování mikrostrukturních vláken s SM vlákny. Tyto svařovací techniky optických vláken jsme vyvíjeli s ohledem na výzkum a vývoj v oblasti senzorové techniky.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (oponent) ; Dvořák, Václav (vedoucí práce)
This thesis deals with packet classification in computer networks. Classification is the key task in many networking devices, most notably packet filters - firewalls. This thesis therefore concerns the area of computer security. The thesis is focused on high-speed networks with the bandwidth of 100 Gb/s and beyond. General-purpose processors can not be used in such cases, because their performance is not sufficient. Therefore, specialized hardware is used, mainly ASICs and FPGAs. Many packet classification algorithms designed for hardware implementation were presented, yet these approaches are not ready for very high-speed networks. This thesis addresses the design of new high-speed packet classification algorithms, targeted for the implementation in dedicated hardware. The algorithm that decomposes the problem into several easier sub-problems is proposed. The first subproblem is the longest prefix match (LPM) operation, which is used also in IP packet routing. As the LPM algorithms with sufficient speed have already been published, they can be used in out context. The following subproblem is mapping the prefixes to the rule numbers. This is where the thesis brings innovation by using a specifically constructed hash function. This hash function allows the mapping to be done in constant time and requires only one memory with narrow data bus. The algorithm throughput can be determined analytically and is independent on the number of rules or the network traffic characteristics. With the use of available parts the throughput of 266 million packets per second can be achieved. Additional three algorithms (PFCA, PCCA, MSPCCA) that follow in this thesis are designed to lower the memory requirements of the first one without compromising the speed. The second algorithm lowers the memory size by 11 % to 96 %, depending on the rule set. The disadvantage of low stability is removed by the third algorithm, which reduces the memory requirements by 31 % to 84 %, compared to the first one. The fourth algorithm combines the third one with the older approach and thanks to the use of several techniques lowers the memory requirements by 73 % to 99 %.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (oponent) ; Nöth, Elmar (oponent) ; Černocký, Jan (vedoucí práce)
 The thesis investigates into speaker verification by means of prosodic features. This includes an appropriate representation of speech by measurements of pitch, energy and duration of speech sounds. Two diverse parameterization methods are investigated: the first leads to a low-dimensional well-defined set, the second to a large-scale set of heterogeneous prosodic features. The first part of this work concentrates on the development of so called prosodic contour features. Different modeling techniques are developed and investigated, with a special focus on subspace modeling. The second part focuses on a novel subspace modeling technique for the heterogeneous large-scale prosodic features. The model is theoretically derived and experimentally evaluated on official NIST Speaker Recognition Evaluation tasks. Huge improvements over the current state-of-the-art in prosodic speaker verification were obtained. Eventually, a novel fusion method is presented to elegantly combine the two diverse prosodic systems. This technique can also be used to fuse the higher-level systems with a high-performing cepstral system, leading to further significant improvements.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

STATISTICAL LANGUAGE MODELS BASED ON NEURAL NETWORKS
Mikolov, Tomáš ; Zweig, Geoffrey (oponent) ; Hajič,, Jan (oponent) ; Černocký, Jan (vedoucí práce)
Statistical language models are crucial part of many successful applications, such as automatic speech recognition and statistical machine translation (for example well-known Google Translate). Traditional techniques for estimating these models are based on Ngram counts. Despite known weaknesses of N-grams and huge efforts of research communities across many fields (speech recognition, machine translation, neuroscience, artificial intelligence, natural language processing, data compression, psychology etc.), N-grams remained basically the state-of-the-art. The goal of this thesis is to present various architectures of language models that are based on artificial neural networks. Although these models are computationally more expensive than N-gram models, with the presented techniques it is possible to apply them to state-of-the-art systems efficiently. Achieved reductions of word error rate of speech recognition systems are up to 20%, against stateof-the-art N-gram model. The presented recurrent neural network based model achieves the best published performance on well-known Penn Treebank setup.