National Repository of Grey Literature 25,122 records found  1 - 10nextend  jump to record: Search took 1.30 seconds. 

Optimization techniques in inventory management
Němečková, Zita
This Bachelor's thesis explores the area of inventory management with focus on optimization techniques and their use in the area. Based on data provided by a real company, it describes the practical uses of the evolutionary algorithm. It contains an evaluation of the results obtained from the application that was implemented as a part of the thesis.

Vývoj asistenční aplikace pro lidi s demencí
Černý, Martin ; Šlajchrt, Zbyněk (advisor) ; Pecinovský, Rudolf (referee)
The aim of this diploma thesis is to implement a presentation layer for the Reminiscence Computer Therapy application. Reminiscence Therapy involves the discussion of the past memories and it is believed to help people with dementia to improve their well-being and sustain their memories. Computer Reminiscence Therapy involves technology in this therapy. The research introduces into Dementia and Reminiscence Therapy with and without using technologies. The application developed as part of this diploma thesis uses picture upload and speech recognition techniques for the memory input. This is used to support remembering of past memories and to increase discussion. The application can be used with or without the carer as well as with friends and family members. The six most important requirements on the developed application are the speech recognition, picture upload, asking questions about the previous recordings, asking questions about tagged friends, using old stories for discussion and presenting the statistics. The application was developed as a part of the competition made by AngelHack organization. Presentation, business and persistence layers of the application are discussed in this diploma thesis as well as user manual and persistence layer implementation of the requirements. The presentation layer was developed using React framework for JavaScript. Other libraries have to be used as well with the most important being Redux library for storing application state. This library affected the structure of the persistence layer.

Changes to rights to claim foster care benefits since year 2013
ZEMANOVÁ, Hana
Foster care is a form of social care in the Czech Republic. A fostered children and foster parents receive from state a foster care benefits. Up until 2012 these benefits were set by Act No. 117/1995 Coll., on State Social Support. In 2012, Amendment No. 401/2012 Coll., transferred foster care benefits to Act No. 359/1999 Coll., for Social-Legal Protection of Children. With this change in law, there was also a change in the conditions of entitlement to claim foster care benefits and the establishment of efforts to professionalize foster care. The aim of my work is to analyse and compare the legislation of changes to foster care benefits from the perspective of the State Social Support Law and the Law of Social-Legal Protection of Children. I have tried to confirm or invalidate the hypotheses using quantitative research, this forms the empirical part of my work. Hypotheses were focusing on comparing the situation before and after the changes of Law for Social-Legal Protection of Children. As a technique I chose to study documents and using these documents I have provided secondary analysis. I have worked with the statistics of the Ministry for Labour and Social Affairs of the Czech Republic, the Labor Offices and the Regional Offices. The results of my findings have shown that more foster parents should be able to claim foster care benefits. Passing the bill on professional foster care has increased the interest in providing foster care, this must be seen as positive outcome. My research could be used as study material for other students of social science or for people who work in the area of social-legal protection of children. It could also be used as feedback for ministerial officials to sea the real situation since the changes in foster care law.

Výběr a implementace open source nástroje pro řízení portfolia projektů
Marek, Jan ; Chlapek, Dušan (advisor) ; Kučera, Jan (referee)
Methods and ways of implementation of changes and innovations in companies through project management are in today's society very well established. There exists methodologies, techniques and tools for the management of individual projects. However in a role of project manager, I very often faced the fact that companies are performing the project portfolio management in very intuitive way. This in itself leads to failed and prematurely terminated projects, initiation of the wrong projects or realisation of correct projects, but at the wrong time. Very often I have also recognized, that there is lack of awareness of fact, that there are also Open Source applications that can help with the organization's portfolio. This thesis deals with the definition of requirements, search and selection of proper OSS application and subsequent implementation. In the first part of this thesis I prepare a theoretical framework about PPM, and on that basis then identify and verify a set of requirements for selection of right OSS PPM application. The next section of thesis describes searching for suitable applications from a variety of sources, assessment against the requirements and the final selection. In the last part the implementation project is drafted, which aims to serve other colleagues in project management as one of the possible implementation paths. The outputs are then continuously confronted with experts in matter of projects and project management in the field of IT in order to maximize symbiosis between theory and real life experiences. Virtually every project management methodology defines the collection of already-proven techniques, best practices or lessons learned from the previous similar implementations. The main contribution of this thesis I see in fact that it contains not only the design of the project implementation, but also describes a logical path, what leads to the result. Therefore this thesis could be used as a base or discussed best practice, when a project of implementation of PPM application in place.

Optical fiber sensors and optical fiber splicing
Jelínek, Michal ; Mikel, Břetislav
We present development of new methods and techniques of the splicing and shaping optical fibers. We developed new techniques of splicing for standard Single Mode (SM) and Multimode (MM) optical fibers and optical fibers with different diameters. Together with development these techniques we prepared other techniques to splicing hollow core Photonic Crystal Fiber (PCF) and theirs cross splicing methods.Development of these new techniques and methods of the optical fibers splicing are made with respect to using these fibers to another research and development in the field of optical fibers sensors.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (referee) ; Steininger, Andreas (referee) ; Kotásek, Zdeněk (advisor)
Při vývoji současných číslicových systémů, např. vestavěných systému a počítačového hardware, je nutné hledat postupy, jak zvýšit jejich spolehlivost. Jednou z možností je zvyšování efektivity a rychlosti verifikačních procesů, které se provádějí v raných fázích návrhu. V této dizertační práci se pozornost věnuje verifikačnímu přístupu s názvem funkční verifikace. Je identifikováno několik výzev a problému týkajících se efektivity a rychlosti funkční verifikace a ty jsou následně řešeny v cílech dizertační práce. První cíl se zaměřuje na redukci simulačního času v průběhu verifikace komplexních systémů. Důvodem je, že simulace inherentně paralelního hardwarového systému trvá velmi dlouho v porovnání s během v skutečném hardware. Je proto navrhnuta optimalizační technika, která umisťuje verifikovaný systém do FPGA akcelerátoru, zatím co část verifikačního prostředí stále běží v simulaci. Tímto přemístěním je možné výrazně zredukovat simulační režii. Druhý cíl se zabývá ručně připravovanými verifikačními prostředími, která představují výrazné omezení ve verifikační produktivitě. Tato režie však není nutná, protože většina verifikačních prostředí má velice podobnou strukturu, jelikož využívají komponenty standardních verifikačních metodik. Tyto komponenty se jen upravují s ohledem na verifikovaný systém. Proto druhá optimalizační technika analyzuje popis systému na vyšší úrovni abstrakce a automatizuje tvorbu verifikačních prostředí tím, že je automaticky generuje z tohoto vysoko-úrovňového popisu. Třetí cíl zkoumá, jak je možné docílit úplnost verifikace pomocí inteligentní automatizace. Úplnost verifikace se typicky měří pomocí různých metrik pokrytí a verifikace je ukončena, když je dosažena právě vysoká úroveň pokrytí. Proto je navržena třetí optimalizační technika, která řídí generování vstupů pro verifikovaný systém tak, aby tyto vstupy aktivovali současně co nejvíc bodů pokrytí a aby byla rychlost konvergence k maximálnímu pokrytí co nejvyšší. Jako hlavní optimalizační prostředek se používá genetický algoritmus, který je přizpůsoben pro funkční verifikaci a jeho parametry jsou vyladěny pro tuto doménu. Běží na pozadí verifikačního procesu, analyzuje dosažené pokrytí a na základě toho dynamicky upravuje omezující podmínky pro generátor vstupů. Tyto podmínky jsou reprezentovány pravděpodobnostmi, které určují výběr vhodných hodnot ze vstupní domény. Čtvrtý cíl diskutuje, zda je možné znovu použít vstupy z funkční verifikace pro účely regresního testování a optimalizovat je tak, aby byla rychlost testování co nejvyšší. Ve funkční verifikaci je totiž běžné, že vstupy jsou značně redundantní, jelikož jsou produkovány generátorem. Pro regresní testy ale tato redundance není potřebná a proto může být eliminována. Zároveň je ale nutné dbát na to, aby úroveň pokrytí dosáhnutá optimalizovanou sadou byla stejná, jako u té původní. Čtvrtá optimalizační technika toto reflektuje a opět používá genetický algoritmus jako optimalizační prostředek. Tentokrát ale není integrován do procesu verifikace, ale je použit až po její ukončení. Velmi rychle odstraňuje redundanci z původní sady vstupů a výsledná doba simulace je tak značně optimalizována.

Packet Classification Algorithms
Puš, Viktor ; Lhotka,, Ladislav (referee) ; Dvořák, Václav (advisor)
Tato práce se zabývá klasifikací paketů v počítačových sítích. Klasifikace paketů je klíčovou úlohou mnoha síťových zařízení, především paketových filtrů - firewallů. Práce se tedy týká oblasti počítačové bezpečnosti. Práce je zaměřena na vysokorychlostní sítě s přenosovou rychlostí 100 Gb/s a více. V těchto případech nelze použít pro klasifikaci obecné procesory, které svým výkonem zdaleka nevyhovují požadavkům na rychlost. Proto se využívají specializované technické prostředky, především obvody ASIC a FPGA. Neméně důležitý je také samotný algoritmus klasifikace. Existuje mnoho algoritmů klasifikace paketů předpokládajících hardwarovou implementaci, přesto však tyto přístupy nejsou připraveny pro velmi rychlé sítě. Dizertační práce se proto zabývá návrhem nových algoritmů klasifikace paketů se zaměřením na vysokorychlostní implementaci ve specializovaném hardware. Je navržen algoritmus, který dělí problém klasifikace na jednodušší podproblémy. Prvním krokem je operace vyhledání nejdelšího shodného prefixu, používaná také při směrování paketů v IP sítích. Tato práce předpokládá využití některého existujícího přístupu, neboť již byly prezentovány algoritmy s dostatečnou rychlostí. Následujícím krokem je mapování nalezených prefixů na číslo pravidla. V této části práce přináší vylepšení využitím na míru vytvořené hashovací funkce. Díky použití hashovací funkce lze mapování provést v konstantním čase a využít při tom pouze jednu paměť s úzkým datovým rozhraním. Rychlost tohoto algoritmu lze určit analyticky a nezávisí na počtu pravidel ani na charakteru síťového provozu. S využitím dostupných součástek lze dosáhnout propustnosti 266 milionů paketů za sekundu. Následující tři algoritmy uvedené v této práci snižují paměťové nároky prvního algoritmu, aniž by ovlivňovaly rychlost. Druhý algoritmus snižuje velikost paměti o 11 % až 96 % v závislosti na sadě pravidel. Nevýhodu nízké stability odstraňuje třetí algoritmus, který v porovnání s prvním zmenšuje paměťové nároky o 31 % až 84 %. Čtvrtý algoritmus kombinuje třetí algoritmus se starším přístupem a díky využití několika technik zmenšuje paměťové nároky o 73 % až 99 %.

Subspace Modeling of Prosodic Features for Speaker Verification
Kockmann, Marcel ; Kenny, Patrick (referee) ; Nöth, Elmar (referee) ; Černocký, Jan (advisor)
Předložená disertační práce se zabývá ověřováním mluvčího pomocí prozodických příznaků zahrnujících hodnoty základního tónu, energie a délek řečových úseků. Studovali jsme dvě rozdílné techniky pro parametrizaci: první vede k dobře definované sadě menšího počtu příznaků, druhá k vysoko-dimenzionální sadě heterogenních prozodických příznaků. První část práce se věnuje vývoji příznaků reprezentujících prozodické kontury, zde jsme vyvinuli a ověřili několik modelovacích technik, s důrazem na modelování v reprezentativních podprostorech. Druhá část práce se zaměřuje na nové pod-prostorové modelovací techniky pro heterogenní prozodické parametry s velkou dimenzionalitou. Model je teoreticky odvozen a experimentálně ověřen na oficiálních datech z NIST evaluací ověřování mluvčího (NIST Speaker Recognition Evaluation). Ve srovnání s ostatními současnými prozodickými jsme dosáhli podstatně lepších výsledků. Na konci práce presentujeme také novou techniku pro elegantní kombinaci dvou prozodických systémů. Tato technika může být použita rovněž pro fúzi prozodického systému se standardním přesným cepstrálním systémem, což vede k dalšímu podstatnému zvýšení úspěšnosti verifikace.  

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (referee) ; Sojka, Eduard (referee) ; Zemčík, Pavel (advisor)
Detekce objektů v počítačovém vidění je složítá úloha. Velmi populární a rozšířená metoda pro detekci je využití statistických klasifikátorů a skenovacích oken. Pro učení kalsifikátorů se často používá algoritmus AdaBoost (nebo jeho modifikace), protože dosahuje vysoké úspěšnosti detekce, nízkého počtu chybných detekcí a je vhodný pro detekci v reálném čase. Implementaci detekce objektů je možné provést různými způsoby a lze využít vlastnosti konkrétní architektury, pro urychlení detekce. Pro akceleraci je možné využít grafické procesory, vícejádrové architektury, SIMD instrukce, nebo programovatelný hardware. Tato práce představuje metodu optimalizace, která vylepšuje výkon detekce objektů s ohledem na cenovou funkci zadanou uživatelem. Metoda rozděluje předem natrénovaný klasifikátor do několika různých implementací, tak aby celková cena klasifikace byla minimalizována. Metoda je verifikována na základním experimentu, kdy je klasifikátor rozdělen do předzpracovací jednotku v FPGA a do jednotky ve standardním PC.

STATISTICAL LANGUAGE MODELS BASED ON NEURAL NETWORKS
Mikolov, Tomáš ; Zweig, Geoffrey (referee) ; Hajič,, Jan (referee) ; Černocký, Jan (advisor)
Statistické jazykové modely jsou důležitou součástí mnoha úspěšných aplikací, mezi něž patří například automatické rozpoznávání řeči a strojový překlad (příkladem je známá aplikace Google Translate). Tradiční techniky pro odhad těchto modelů jsou založeny na tzv. N-gramech. Navzdory známým nedostatkům těchto technik a obrovskému úsilí výzkumných skupin napříč mnoha oblastmi (rozpoznávání řeči, automatický překlad, neuroscience, umělá inteligence, zpracování přirozeného jazyka, komprese dat, psychologie atd.), N-gramy v podstatě zůstaly nejúspěšnější technikou. Cílem této práce je prezentace několika architektur jazykových modelůzaložených na neuronových sítích. Ačkoliv jsou tyto modely výpočetně náročnější než N-gramové modely, s technikami vyvinutými v této práci je možné jejich efektivní použití v reálných aplikacích. Dosažené snížení počtu chyb při rozpoznávání řeči oproti nejlepším N-gramovým modelům dosahuje 20%. Model založený na rekurentní neurovové síti dosahuje nejlepších publikovaných výsledků na velmi známé datové sadě (Penn Treebank).