Národní úložiště šedé literatury Nalezeno 2,535 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.27 vteřin. 

Využití místního koeficientu u daně z nemovitostí obcemi pro rok 2009
MATĚJŮ, Zuzana
Tato bakalářská práce je zaměřena na využití místního koeficientu u dani z nemovitostí obcemi pro rok 2009. V první části této práce jsou definovány pojmy obec a obecní rozpočet. Dále je uvedeno postavení daně z nemovitostí v rozpočtech obcí a v daňovém systému České republiky. V neposlední řadě je uvedena právní úprava této daně. V druhé části je uveden rozsah využití, důvody zavedení resp. nezavedení místního koeficientu pro rok 2009 obcemi v působnosti Finančního úřadu v Prachaticích a v závěru této práce je uveden dopad zavedení místního koeficientu u daně z nemovitostí do rozpočtů pěti konkrétních obcí.

Řízení IS/ICT se zaměřením na sourcing služeb informačního systému
Šebesta, Michal ; Voříšek, Jiří (vedoucí práce) ; Havlíček, Zdeněk (oponent) ; Příklenk, Oldřich (oponent) ; Král, Jaroslav (oponent)
Předmětem odborného výzkumu je sourcing již několik desítek let. Evoluce v oblasti informačních systémů v poslední době charakterizovaná především komoditizací ICT služeb však významně mění celkový kontext rozhodování. Služby dostupné na vyžádání přes Internet umožnují organizacím implementaci požadovaných funkcí oproti dřívější době za zlomek času. Tento trend znamená významnou šanci pro organizace, které by rády využily pokročilé ICT služby, bez nutnosti vysokých investic. Problémem je současný nedostatek metod a nástrojů pro řízení služeb informačního systému a jejich outsourcing. Vzhledem k vývoji a trendům na trhu ICT služeb lze očekávat, že v budoucnu velká část řízení IT bude zahrnovat ICT služby a strukturované řízení jejich úrovně. Současně dostupné metody jsou buď příliš široké, anebo naopak zahrnují pouze malou část celého problému. Nahodilá a nepodložená rozhodnutí v této oblasti mohou způsobit značné komplikace z hlediska kvality, využitelnosti, integrace, a v důsledku toho významně ovlivnit celkové náklady na IT daného podniku. Organizace musí buď revidovat existující modely, anebo navrhnout a zavést zcela nové modely řízení svého IS/ICT. Tato disertační práce se zabývá řízením IS/ICT se zaměřením na sourcing služeb informačního systému. Diskutuje dostupné sourcingové modely uváděné v literatuře a propojuje je se souvisejícím oblastmi. Na základě těchto oblastí pak prezentuje integrovaný pohled na možné strategie sourcingu IT. Především pak práce navrhuje originální concept rozhodování o sourcingu ICT služeb nazvaný SOURCER framework. Tento přístup navazuje na zmínené strategie sourcingu, a předkládá komplexní metodiku a kritéria pro rozhodování. Ty pomohou organizacím s výběrem ICT služeb s cílem udržování a řízení co nejvhodnějšího portfolia ICT služeb. Rozhodování je založeno na čtyřech základních pohledech: funkce, cena, čas, a kvalita. Tyto pohledy jsou diskutovány, individuálně analyzovány, a slouží jako základ pro další zkoumání. Celý framework je vyvíjen a validován s využitím přístupu Design Science Research Methodology (DSRM). Individuální komponenty jsou vyhodnoceny s využitím průzkumu mezi vybranými IT manažery. Další ověření přístupu je pak zajištěno realizováním případové studie, která mapuje reálné využití frameworku v organizaci. Tato případová studie zahrnuje specifikaci strategie, business--IT alignment, specifikace architektury služeb a její propojení, sourcing, and řízení portfolia ICT služeb.

Míry podobnosti pro nominální data v hierarchickém shlukování
Šulc, Zdeněk ; Řezanková, Hana (vedoucí práce) ; Šimůnek, Milan (oponent) ; Žambochová, Marta (oponent)
Tato disertační práce se zabývá mírami podobnosti pro nominální data v hierarchickém shlukování, které umožňují zacházet s proměnnými s více než dvěma kategoriemi a které si kladou za cíl nahradit postupy založené na koeficientu prosté shody, které se v této oblasti běžně používají. Tyto míry podobnosti uvažují dodatečné informace ohledně datového souboru, jako je rozdělení četností kategorií u dané proměnné nebo počet jejích kategorií. Tato práce se věnuje třem hlavním cílům. Prvním cílem je prozkoumání a ohodnocení kvality shlukování vybraných měr podobnosti pro hierarchické shlukování objektů a proměnných. K dosažení tohoto cíle bylo provedeno několik experimentů, které se zabývají jak shlukováním objektů, tak proměnných. Tyto experimenty zkoumají kvalitu shluků vytvořených za pomocí zkoumaných měr podobnosti pro nominální data ve srovnání běžně používanými mírami podobnostmi využívajícími binární transformaci a dále s několika alternativními metodami pro shlukování nominálních dat. Toto porovnání je provedeno na reálných i generovaných souborech. Výstupy těchto experimentů vedou ke zjištění, které míry podobnosti jsou vhodné k obecnému použití, které podávají dobré výsledky v konktrétních situacích a které nejsou doporučeny pro shlukování objektů nebo proměnných. Druhým cílem práce je navržení míry podobnosti vycházející z teoretických předpokladů a její následné porovnání s ostatními zkoumanými mírami podobnosti. Na základě tohoto cíle byly představeny dvě nové míry podobnosti, Variable Entropy a Variable Mutability. Obzvláště prvně zmíněná míra podává velmi dobré výsledky u souborů s nižším počtem proměnných. Třetím cílem této práce je poskytnout komfortní sofwarové řešení založené na zkoumaných mírách podobnosti pro nominální data, které pokrývá celý proces shlukování od výpočtu matice vzdálenosti po hodnocení výsledných shluků. Tento cíl byl dosažen vytvořením balíčku nomclust pro program R, který řeší tuto problematiku a který je volně dostupný.

Využití modelů úrokových měr při řízení úrokového rizika v prostředí českého finančního trhu
Cíchová Králová, Dana ; Arlt, Josef (vedoucí práce) ; Cipra, Tomáš (oponent) ; Witzany, Jiří (oponent)
Hlavním cílem práce je zejména nalezení vhodného přístupu k modelování úrokového rizika v prostředí českého finančního trhu při různých situacích na finančních trzích. Analyzována jsou tři zcela odlišná období, která jsou charakteristická různou mírou ohodnocení likviditního a kreditního rizika, rozdílnými vztahy mezi finančními veličinami a účastníky trhu a rozdílnou regulací trhu. Konkrétně se jedná o období před globální finanční krizí, období finanční krize a období po odeznění globální finanční krize a uklidnění následné dluhové krize v eurozóně. V rámci tohoto cíle je stěžejní aplikace modelu BGM v prostředí českého trhu. Použití modelu BGM pro účely predikce dynamiky výnosové křivky není běžné, neboť primární použití tohoto modelu je oceňování finančních derivátů při zajištění neexis- tence arbitráže a jeho aplikace je navíc relativně náročná. Přesto v této práci model BGM využiji pro získání predikcí pravděpodobnostních rozdělení úrokových sazeb v pro- středí české trhu a trhu eurozóny, protože jeho komplexnost, přímé modelování výnosové křivky na základě tržních sazeb a hlavně možnost odhadu parametrů založená na ak- tuálních kotacích volatilit swapcí mohou vést k výraznému zkvalitnění predikcí, což se v této práci potvrdilo. Převážně v období bezprecedentního monetárního uvolňování a zvýšených zásahů centrálních bank a ostatních regulátorů do činnosti finančních trhů, ke kterým dochází po finanční krizi, je využití tržních kotací volatilit swapcí výhodné, protože odráží aktuální očekávání trhu se započítáním očekávaných budoucích zásahů do fungování finančních trhů. Vzhledem k tomu, že v důsledku nerozvinutosti českého finančního trhu neexistují tržní kotace volatilit korunových swapcí, navrhuji jejich aproximace na základě kotací volatilit eurových swapcí s využitím volatilit forwardových korunových i eurových sazeb, díky čemuž jsou v získaných predikcích dynamiky české výnosové křivky započteny aktuální očekávání trhu. Není mi známo, že by nějaký jiný autor dosud publikoval obdobnou aplikace modelu BGM v prostředí českého finančního trhu. V této práci dále konstruuji predikce dynamiky české a eurové výnosové křivky peněžního trhu pomocí modelů CIR a GP jakožto zástupců různých typů modelů úro- kových měr. Pro posouzení predikční schopnosti jednotlivých modelů a vhodnosti jejich použití v prostředí českého trhu během různých situacích na finančním trhu navrhuji ucelený systém tří kritérií založený na porovnání predikcí se skutečností. Z této analýzy pre- dikční schopnosti vyplývá, že na základě modelu BGM lze získat predikce dynamiky výnosové křivky českého peněžního trhu s vysokou predikční schopností a nejlepší kva- litou ve srovnání s ostatními analyzovanými modely, nicméně i model GP poskytuje relativně kvalitní predikce. Naopak predikce učiněné na základě modelu CIR jakožto 6 zástupce modelů okamžité úrokové míry při popsání skutečnosti zcela selhaly. V situaci, kdy ekonomika umožňuje záporné sazby a zároveň existuje signifikantní pravděpodob- nost jejich zavedení, doporučuji provedení predikcí dynamiky výnosové křivky českého peněžního trhu pomocí modelu GP, který záporné sazby připouští. Součástí této analýzy je i provedení statistického testu predikční schopnosti jednotlivých modelů a informace o dalších možných statistických testech pro zhodnocení kvality modelů. Při aplikaci Berkowitzova testu byla u všech zkoumaných modelů zamítnuta hypotéza o tom, že vý- sledné predikce přesně popisují skutečnost. Tento fakt je však při aplikaci statistických testů na reálná data běžný i při použití relativně dobrého modelu především z důvodu obtížného splnění podmínek testů v reálném světě. Takovouto analýzu predikční schop- nosti vybraných modelů úrokových měr a navíc v prostředí českého finančního trhu jsem doposud v žádných jiných publikacích nezaznamenala. Posledním cílem této práce je navržení vhodného přístupu k predikci dynamiky ri- zikové přirážky českých státních dluhopisů, kterou definuji jako rozdíl mezi výnosem státních dluhopisů a fixní sazbou CZK IRS totožné délky. Takto definovaný ukazatel kreditního rizika České republiky modeluji pomocí modelu GP. Pro získání časových řad rizikové přirážky potřebných k odhadu parametrů modelu GP odhadnu nejdříve výnosové křivky českých státních dluhopisů pomocí Svenssonova modelu pro každý obchodní den od roku 2005. Z výsledných simulací je patrné, že model GP relativně dobře predikoval skutečný vývoj rizikových přirážek všech analyzovaných splatností. Navržený postup je vhodný pro modelování kreditního rizika České republiky na zá- kladě využití informací z finančních trhů. S takovýmto přístupem k modelování rizikové přirážky státních dluhopisů a navíc v českém prostředí jsem se doposud v žádné jiné publikaci nesetkala.

Optimalizace CRM řešení
Fučík, Ivan ; Mildeová, Stanislava (vedoucí práce)
Tato práce je zaměřena na problematiku CRM řešení v malých a středních organizacích s ohledem na kvalitu jejich vztahů se zákazníky. Cílem této práce je připravit návrh optimalizace CRM řešení v reálné organizaci. Pro naplnění tohoto cíle je nutné porozumět teoretickým východiskům práce, tj. organizacím a jejich vztahům se zákazníky, CRM systémům, jejich funkcím a trendům. Na základě těchto teoretických východisek bylo možné analyzovat současné CRM řešení v dané organizaci. Z údajů, získaných metodami pozorování a řízeného rozhovoru, bylo možné navrhnout optimální CRM řešení v souladu s požadavky organizace a uživatelů CRM systému. Toto nové CRM řešení klade důraz na úsporu času a nákladů, spojených s provozem a obsluhou CRM systému tím, že nahrazuje stávající ne zcela efektivní CRM nástroje.

Alban Berg: "Vojcek" - komplexní scénografický projekt
Ermakova, Olga ; ZÁBRODSKÁ, Dana (vedoucí práce) ; DAVID, Milan (oponent)
Tématem mé bakalářské práce je zpracování komplexního scénografického projektu k opeře Vojcek. V první části je obsažen životopis dramatika Georga Büchnera, autora hry a skladatele Albana Berga, autora hudby. Následuje popis děje Vojcka a analýza alternativních zpracování Vojcka. V závěru práce představuji koncept k teoretické části mého bakalářského projektu. Součástí konceptu jsou obrázky mé scény a kostýmů. V přílohách jsou obsaženy i fotky kostýmů v reálném prostředí.

New Methods for Increasing Efficiency and Speed of Functional Verification
Zachariášová, Marcela ; Dohnal, Jan (oponent) ; Steininger, Andreas (oponent) ; Kotásek, Zdeněk (vedoucí práce)
In the development of current hardware systems, e.g. embedded systems or computer hardware, new ways how to increase their reliability are highly investigated. One way how to tackle the issue of reliability is to increase the efficiency and the speed of verification processes that are performed in the early phases of the design cycle. In this Ph.D. thesis, the attention is focused on the verification approach called functional verification. Several challenges and problems connected with the efficiency and the speed of functional verification are identified and reflected in the goals of the Ph.D. thesis. The first goal focuses on the reduction of the simulation runtime when verifying complex hardware systems. The reason is that the simulation of inherently parallel hardware systems is very slow in comparison to the speed of real hardware. The optimization technique is proposed that moves the verified system into the FPGA acceleration board while the rest of the verification environment runs in simulation. By this single move, the simulation overhead can be significantly reduced. The second goal deals with manually written verification environments which represent a huge bottleneck in the verification productivity. However, it is not reasonable, because almost all verification environments have the same structure as they utilize libraries of basic components from the standard verification methodologies. They are only adjusted to the system that is verified. Therefore, the second optimization technique takes the high-level specification of the system and then automatically generates a comprehensive verification environment for this system. The third goal elaborates how the completeness of the verification process can be achieved using the intelligent automation. The completeness is measured by different coverage metrics and the verification is usually ended when a satisfying level of coverage is achieved. Therefore, the third optimization technique drives generation of input stimuli in order to activate multiple coverage points in the veri\-fied system and to enhance the overall coverage rate. As the main optimization tool the genetic algorithm is used, which is adopted for the functional verification purposes and its parameters are well-tuned for this domain. It is running in the background of the verification process, it analyses the coverage and it dynamically changes constraints of the stimuli generator. Constraints are represented by the probabilities using which particular values from the input domain are selected.       The fourth goal discusses the re-usability of verification stimuli for regression testing and how these stimuli can be further optimized in order to speed-up the testing. It is quite common in verification that until a satisfying level of coverage is achieved, many redundant stimuli are evaluated as they are produced by pseudo-random generators. However, when creating optimal regression suites, redundancy is not needed anymore and can be removed. At the same time, it is important to retain the same level of coverage in order to check all the key properties of the system. The fourth optimization technique is also based on the genetic algorithm, but it is not integrated into the verification process but works offline after the verification is ended. It removes the redundancy from the original suite of stimuli very fast and effectively so the resulting verification runtime of the regression suite is significantly improved.

Acceleration of Object Detection Using Classifiers
Juránek, Roman ; Kälviäinen, Heikki (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
Detection of objects in computer vision is a complex task. One of most popular and well explored  approaches is the use of statistical classifiers and scanning windows. In this approach, classifiers learned by AdaBoost algorithm (or some modification) are often used as they achieve low error rates, high detection rates and they are suitable for detection in real-time applications. Object detection run-time which uses such classifiers can be implemented by various methods and properties of underlying architecture can be used for speed-up of the detection.  For the purpose of acceleration, graphics hardware, multi-core architectures, SIMD or other means can be used. The detection is often implemented on programmable hardware.  The contribution of this thesis is to introduce an optimization technique which enhances object detection performance with respect to an user defined cost function. The optimization balances computations of previously learned classifiers between two or more run-time implementations in order to minimize the cost function.  The optimization method is verified on a basic example -- division of a classifier to a pre-processing unit implemented in FPGA, and a post-processing unit in standard PC.

On-line Data Analysis Based on Visual Codebooks
Beran, Vítězslav ; Honec, Jozef (oponent) ; Sojka, Eduard (oponent) ; Zemčík, Pavel (vedoucí práce)
This work introduces the new adaptable method for on-line video searching in real-time based on visual codebook. The new method addresses the high computational efficiency and retrieval performance when used on on-line data. The method originates in procedures utilized by static visual codebook techniques. These standard procedures are modified to be able to adapt to changing data. The procedures, that improve the new method adaptability, are dynamic inverse document frequency, adaptable visual codebook and flowing inverted index. The developed adaptable method was evaluated and the presented results show how the adaptable method outperforms the static approaches when evaluating on the video searching tasks. The new adaptable method is based on introduced flowing window concept that defines the ways of selection of data, both for system adaptation and for processing. Together with the concept, the mathematical background is defined to find the best configuration when applying the concept to some new method. The practical application of the adaptable method is particularly in the video processing systems where significant changes of the data domain, unknown in advance, is expected. The method is applicable in embedded systems monitoring and analyzing the broadcasted TV on-line signals in real-time.

Multimedia Data Processing in Heterogeneous Distributed Environment
Kajan, Rudolf ; Ferko,, Andrej (oponent) ; Míkovec, Zdeněk (oponent) ; Herout, Adam (vedoucí práce)
Ubiquitous computing, a paradigm in which the processing of information is linked with each activity or object as encountered, was proposed by Mark Weiser as the next era for interacting with computers. Its goal is to enable people to interact with devices more naturally and casually in ways that suit whatever location or context they find themselves in. Ubiquitous computing focuses on learning by removing the complexity of computing and increases efficiency while using computing for different daily activities. But after more than 15 years since Weiser formulated these goals, several aspects of ubiquitous computing are still not a part of user experience with today’s technology. Seamless integration with environment leading to technological invisibility or user interaction spanning across multiple devices pose still a great challenge. The main goal of our work is to make a step towards making the idea of ubiquitous computing a reality by addressing the question about intuitive information sharing between a personal device and a situated display. We have developed three interaction techniques which support unobtrusive content exchange between touch-enabled personal device and a large display - whether it is shared-private or public. These techniques are based on video streams, augmented reality, and analysis of gaze data. Besides the interaction techniques, we also present a framework for real-time application state acquisition and reconstruction on target platform. We report on user studies focused on the usability of our prototypes and a system performance evaluations. Our experiments were formed around real-life scenarios which are commonly experienced throughout the day. For interactions based on video streams, the results indicate that our techniques outperform the existing solutions: the localization and task migration is done in real time on a midlevel cellphone; the localization is reliable even for different observation angles and for cluttered screen content. Our technique based on gaze analysis goes even further by allowing for modeling of implicit user preferences through gaze data, while being accurate and unobtrusive.