Národní úložiště šedé literatury Nalezeno 14,163 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.56 vteřin. 


Optimalizace CRM řešení
Fučík, Ivan ; Mildeová, Stanislava (vedoucí práce)
Tato práce je zaměřena na problematiku CRM řešení v malých a středních organizacích s ohledem na kvalitu jejich vztahů se zákazníky. Cílem této práce je připravit návrh optimalizace CRM řešení v reálné organizaci. Pro naplnění tohoto cíle je nutné porozumět teoretickým východiskům práce, tj. organizacím a jejich vztahům se zákazníky, CRM systémům, jejich funkcím a trendům. Na základě těchto teoretických východisek bylo možné analyzovat současné CRM řešení v dané organizaci. Z údajů, získaných metodami pozorování a řízeného rozhovoru, bylo možné navrhnout optimální CRM řešení v souladu s požadavky organizace a uživatelů CRM systému. Toto nové CRM řešení klade důraz na úsporu času a nákladů, spojených s provozem a obsluhou CRM systému tím, že nahrazuje stávající ne zcela efektivní CRM nástroje.

Optimalizace toku materiálu ve výrobní firmě v automobilovém průmyslu
Kolář, Tomáš ; Jirsák, Petr (vedoucí práce) ; Vinš, Marek (oponent)
Diplomová práce je zaměřena na optimalizaci materiálového toku v automobilovém průmyslu. První část práce uvádí teoretická východiska. Představuje odvětví automobilového průmyslu a aktuální tendence na světovém trhu. Následuje krátké představení společnosti, kde byla práce zpracována. Hlavní teoretická část pojednává o konceptu štíhlé výroby, kde na konkrétních příkladech popisuje jednotlivé nástroje lean managementu, ale zaměřuje se také na filozofickou rovinu, zejména tedy na přístup k práci a firemní strategii. Na teoretické poznatky již navazuje aplikační část. Celý projekt diplomové práce se zaměřuje na optimalizaci specifické oblasti PC store. Nejprve je tato oblast zasazena do kontextu s celkovým tokem materiálu, kde jsou ve zkratce představeny všechny procesy a oblasti na toku plných obalů. Poté se již přistupuje k hlubší analýze a samotné optimalizaci PC storu, kde jsou aplikovány tři různé způsoby redukce zásob a zrychlení materiálového toku. Závěrečná část uvádí porovnání výchozího a budoucího stavu, včetně přehledu provedených změn.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Inteligence skupiny
Winklerová, Zdenka ; Šaloun, Petr (oponent) ; Škrinárová,, Jarmila (oponent) ; Zbořil, František (vedoucí práce)
Záměrem disertační práce je aplikovaný výzkum skupinové ( kolektivní ) inteligence . K prokázání použitelnosti inteligence skupiny je zkoumán algoritmus na bázi roje částic ( Particle Swarm Optimization PSO ), v němž je problém inteligence skupiny převeden na matematickou optimalizaci, kdy roj částic ( particle swarm ) hledá globální optimum ve vymezeném prostoru problému a prohledávání je řízeno podle předem nadefinované účelové funkce ( objective function ), která zastupuje řešený problém. Byla navržena a experimentálně ověřena strategie prohledávání, v níž částice průběžně přizpůsobují své chování charakteristikám prostoru řešeného problému, a bylo experimentálně zjištěno, jak se vliv řídící účelové funkce zastupující řešený problém projevuje v chování částic. Výsledky experimentování s navrženou strategií prohledávání byly porovnány s výsledky experimentů s referenční verzí algoritmu PSO . Experimenty ukázaly, že klasické prohledávání, kde jedinou podmínkou je stabilní trajektorie, po níž se částice pohybuje v prostoru řešeného problému, a kde je ve výsledku eliminován vliv řídící účelové funkce, může selhat a že dynamická stabilita trajektorií částic sama o sobě není ukazatelem prohledávacích schopností algoritmu ani konvergence algoritmu ke správnému, globálnímu řešení. Byl navržen způsob prohledávání prostoru řešeného problému, v němž algoritmus PSO reguluje stabilitu algoritmu průběžným přizpůsobováním chování částic charakteristikám prostoru problému. Navržený algoritmus usměrňoval vývoj prohledávání prostoru problému tak, že vzrostla pravděpodobnost úspěšnosti řešení.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

Optimization of Gaussian Mixture Subspace Models and Related Scoring Algorithms in Speaker Verification
Glembek, Ondřej ; Brummer, Niko (oponent) ; Campbell,, William (oponent) ; Burget, Lukáš (vedoucí práce)
This thesis deals with Gaussian Mixture Subspace Modeling in automatic speaker recognition. The thesis consists of three parts.  In the first part, Joint Factor Analysis (JFA) scoring methods are studied.  The methods differ mainly in how they deal with the channel of the tested utterance.  The general JFA likelihood function is investigated and the methods are compared both in terms of accuracy and speed.  It was found that linear approximation of the log-likelihood function gives comparable results to the full log-likelihood evaluation while simplyfing the formula and dramatically reducing the computation speed. In the second part, i-vector extraction is studied and two simplification methods are proposed. The motivation for this part was to allow for using the state-of-the-art technique on small scale devices and to setup a simple discriminative-training system.  It is shown that, for long utterances, while sacrificing the accuracy, we can get very fast and compact i-vector systems. On a short-utterance(5-second) task, the results of the simplified systems are comparable to the full i-vector extraction. The third part deals with discriminative training in automatic speaker recognition.  Previous work in the field is summarized and---based on the knowledge from the earlier chapters of this work---discriminative training of the i-vector extractor parameters is proposed.  It is shown that discriminative re-training of the i-vector extractor can improve the system if the initial estimation is computed using the generative approach.

Optimalizace testu digitálního obvodu multifunkčními prvky
Stareček, Lukáš ; Gramatová, Elena (oponent) ; Kubátová, Hana (oponent) ; Kotásek, Zdeněk (vedoucí práce)
Tato práce se zabývá možností optimalizace testu číslicových obvodů pomocí multifunkčních logických hradel. Nejdůležitější částí práce je vysvětlení samotného principu optimalizace, který je popsán také formálními matematickými prostředky. Na základě tohoto popisu je v práci prezentováno několik možností využití. Ukázána je optimalizace testovatelnosti obdobná metodě vkládání testovacích bodů a jednoduchá metodika založena na základě SCOAP. Těžištěm práce je však metodika, která byla vytvořena pro optimalizaci testu obvodu. Ta byla implementována v podobě softwarových nástrojů. V práci jsou následně prezentovány výsledky použití těchto nástrojů na úloze snížení počtu testovacích vektorů se zachováním pokrytí poruch pro různé obvody včetně testovací sady ISCAS 85. Část práce je věnována také různým principům a technologiím tvorby multifunkčních logických hradel. Některá vybraná hradla z těchto technologií jsou podrobena simulacím elektronických vlastností ve SPICE. Na základě principů prezentované metodiky a výsledků simulací multifunkčních hradel je také provedena analýza a rozbor různých problémů jako je platnost testu modifikovaného obvodu a vhodnost jednotlivých technologií multifunkčních hradel pro danou metodiku. Výsledky analýz a provedených experimentů je potvrzeno, že pomocí multifunkčních hradel lze optimalizovat diagnostické vlastnosti obvodu takovým způsobem, aby došlo k požadovaným úpravám parametrů výsledných testů obvodů při minimálních dopadech na kvalitu a věrohodnost těchto testů.

Evolutionary Approach to Synthesis and Optimization of Ordinary and Polymorphic Circuits
Gajda, Zbyšek ; Schmidt, Jan (oponent) ; Zelinka,, Ivan (oponent) ; Sekanina, Lukáš (vedoucí práce)
This thesis deals with the evolutionary design and optimization of ordinary and polymorphic circuits. New extensions of Cartesian Genetic Programming (CGP) that allow reducing of the computational time and obtaining more compact circuits are proposed and evaluated. Second part of the thesis is focused on new methods for synthesis of polymorphic circuits. Proposed methods, based on polymorphic binary decision diagrams and polymorphic multiplexing, extend the ordinary circuit representations with the aim of including polymorphic gates. In order to reduce the number of gates in circuits synthesized using proposed methods, an evolutionary optimization based on CGP is implemented and evaluated. The implementations of polymorphic circuits optimized by CGP represent the best known solutions if the number of gates is considered as the target criterion.

OPTIMIZATION OF ALGORITHMS AND DATA STRUCTURES FOR REGULAR EXPRESSION MATCHING USING FPGA TECHNOLOGY
Kaštil, Jan ; Plíva, Zdeněk (oponent) ; Vlček, Karel (oponent) ; Kotásek, Zdeněk (vedoucí práce)
This thesis deals with fast regular expression matching using FPGA. Regular expression matching in high speed computer networks is computationally intensive operation used mostly in the field of the computer network security and in the field of monitoring of the network traffic. Current solutions do not achieve throughput required by modern networks with respect to all requirements placed on the matching unit. Innovative hardware architectures implemented in FPGA or ASIC have the highest throughput. This thesis describes two new architectures suitable for the FPGA and ASIC implementation. The basic idea of these architectures is to use perfect hash function to implement transitional function of deterministic finite automaton. Also, architecture that allows the user to introduce small probability of errors into the matching process in order to reduce memory requirement of the matching unit was introduced. The thesis contains analysis of the effect of these errors to overall reliability of the system and compares it to the reliability of currently used approach. The measurement of properties of regular expressions used in analysis of the traffic in modern computer networks was performed in the thesis. The analysis implies that most of the used regular expressions are suitable for the implementation by proposed architectures. To guarantee high throughput of the matching unit new algorithms for alphabet transformation is proposed. The algorithm allows to transform the automaton to accept several input characters per one transition. The main advantage of the proposed algorithm over currently used solutions is that it does not have any limitation over the number of characters that are accepted at once. Implemented architectures were compared with the current state of the art algorithm and 200MB memory reduction was achieve