Národní úložiště šedé literatury Nalezeno 26 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Zvýšení rozlišení perfúzního zobrazování magnetickou rezonancí pomocí komprimovaného snímání
Mangová, Marie ; Polec,, Jaroslav (oponent) ; Šmídl, Václav (oponent) ; Rajmic, Pavel (vedoucí práce)
Perfúzní zobrazování v magnetické rezonanci je lékařská diagnostická metoda, která vyžaduje vysoké prostorové i časové rozlišení. Toto vysoké rozlišení je důležité proto, aby bylo možné zachytit dynamiku nitrožilně podané kontrastní látky, která se pro měření perfúze používá. Magnetická rezonance má však svá fyzikální omezení, která nedovolují dosáhnutí současně vysokého časového i prostorového rozlišení. Práce se zabývá komprimovaným snímáním, které umožňuje rekonstrukci obrazu i z relativně malého počtu naměřených dat (pod Nyquistovým kritériem), zatímco rozlišení potřebné k perfúzní analýze se zvýší. Toho lze dosáhnout pomocí vhodně navržených apriorních informací o snímaných datech a sestavení modelu. Rekonstrukce pak probíhá jako optimalizační problém. Dizertační práce přináší několik nových rekonstrukčních modelů, dále navrhuje metodu, jak zmenšit vychýlenost těchto odhadů, a zkoumá vliv komprimovaného snímání na perfúzní parametry. Celá práce je zakončena rozšířením komprimovaného snímání na trojrozměrná data, u kterých je rovněž popsán vliv rekonstrukce na perfúzní parametry. Celkově práce ukazuje, že díky komprimovanému snímání je možné zvýšit buď časové rozlišení při ponechání prostorového rozlišení, nebo při ponechání časového rozlišení lze zvýšit prostorové rozlišení.
Exploiting Uncertainty Information in Speaker Verification and Diarization
Silnova, Anna ; Šmídl, Václav (oponent) ; Villalba Lopez, Jesus Antonio (oponent) ; Burget, Lukáš (vedoucí práce)
This thesis considers two models allowing to utilize uncertainty information in the tasks of Automatic Speaker Verification and Speaker Diarization. The first model we consider is a modification of the widely-used Gaussian Probabilistic Linear Discriminant Analysis (G-PLDA) that models the distribution of the vector utterance representations called embeddings. In G-PLDA, the embeddings are assumed to be generated by adding a noise vector sampled from a Gaussian distribution to a speakerdependent vector. We show that when assuming that the noise was instead sampled from a Student's T-distribution, the PLDA model (we call this version heavy-tailed PLDA) can use the uncertainty information when making the verification decisions. Our model is conceptually similar to the HT-PLDA model defined by Kenny et al. in 2010, but, as we show in this thesis, it allows for fast scoring, while the original HT-PLDA definition requires considerable time and computation resources for scoring. We present the algorithm to train our version of HT-PLDA as a generative model. Also, we consider various strategies for discriminatively training the parameters of the model. We test the performance of generatively and discriminatively trained HT-PLDA on the speaker verification task. The results indicate that HT-PLDA performs on par with the standard G-PLDA while having the advantage of being more robust against variations in the data pre-processing. Experiments on the speaker diarization demonstrate that the HT-PLDA model not only provides better performance than the G-PLDA baseline model but also has the advantage of producing better-calibrated Log-Likelihood Ratio (LLR) scores. In the second model, unlike in HT-PLDA, we do not consider the embeddings as the observed data. Instead, in this model, the embeddings are normally distributed hidden variables. The embedding precision carries the information about the quality of the speech segment: for clean long segments, the precision should be high, and for short and noisy utterances, it should be low. We show how such probabilistic embeddings can be incorporated into the G-PLDA framework and how the parameters of the hidden embedding influence its impact when computing the likelihood with this model. In the experiments, we demonstrate how to utilize an existing neural network (NN) embedding extractor to provide not embeddings but parameters of probabilistic embedding distribution. We test the performance of the probabilistic embeddings model on the speaker diarization task. The results demonstrate that this model provides well-calibrated LLR scores allowing for better diarization when no development dataset is available to tune the clustering algorithm.
Software environment for data assimilation in radiation protection
Majer, Peter ; Šmídl, Václav (vedoucí práce) ; Hofman, Radek (oponent)
Táto práca sa zaoberá asimiláciou dát prízemného vetra v rámci meteorologického modelu WRF pre lokálnu doménu. Využívame pritom bayesovskú štatistiku, konkrétne metódu sekvenčné Monte Carlo v kombinácii s filtrom vzoriek - particle filtering. Súčasťou práce je aplikácia napísaná v jazyku Python, ktorá tvorí rozhranie s WRF, uskutočňuje samotnú asimiláciu a poskytuje výstup v podobe grafov. V prípade stabilných veterných podmienok sú predpovede korigovaného WRF signifikantne bližšie meraným dátam než predpoveď nekorigovaného WRF. Za týchto okolností je možné použiť takto asimilovaný model pre spoľahlivejšie krátkodobé lokálne predpovede. Powered by TCPDF (www.tcpdf.org)
DEnFi: Deep Ensemble Filter for Active Learning
Ulrych, Lukáš ; Šmídl, Václav
Deep Ensembles proved to be a one of the most accurate representation of uncertainty for deep neural networks. Their accuracy is beneficial in the task of active learning where unknown samples are selected for labeling based on the uncertainty of their prediction. Underestimation of the predictive uncertainty leads to poor exploration of the method. The main issue of deep ensembles is their computational cost since multiple complex networks have to be computed in parallel. In this paper, we propose to address this issue by taking advantage of the recursive nature of active learning. Specifically, we propose several methods how to generate initial values of an ensemble based of the previous ensemble. We provide comparison of the proposed strategies with existing methods on benchmark problems from Bayesian optimization and active classification. Practical benefits of the approach is demonstrated on example of learning ID of an IoT device from structured data using deep-set based networks.
Zvýšení rozlišení perfúzního zobrazování magnetickou rezonancí pomocí komprimovaného snímání
Mangová, Marie ; Polec,, Jaroslav (oponent) ; Šmídl, Václav (oponent) ; Rajmic, Pavel (vedoucí práce)
Perfúzní zobrazování v magnetické rezonanci je lékařská diagnostická metoda, která vyžaduje vysoké prostorové i časové rozlišení. Toto vysoké rozlišení je důležité proto, aby bylo možné zachytit dynamiku nitrožilně podané kontrastní látky, která se pro měření perfúze používá. Magnetická rezonance má však svá fyzikální omezení, která nedovolují dosáhnutí současně vysokého časového i prostorového rozlišení. Práce se zabývá komprimovaným snímáním, které umožňuje rekonstrukci obrazu i z relativně malého počtu naměřených dat (pod Nyquistovým kritériem), zatímco rozlišení potřebné k perfúzní analýze se zvýší. Toho lze dosáhnout pomocí vhodně navržených apriorních informací o snímaných datech a sestavení modelu. Rekonstrukce pak probíhá jako optimalizační problém. Dizertační práce přináší několik nových rekonstrukčních modelů, dále navrhuje metodu, jak zmenšit vychýlenost těchto odhadů, a zkoumá vliv komprimovaného snímání na perfúzní parametry. Celá práce je zakončena rozšířením komprimovaného snímání na trojrozměrná data, u kterých je rovněž popsán vliv rekonstrukce na perfúzní parametry. Celkově práce ukazuje, že díky komprimovanému snímání je možné zvýšit buď časové rozlišení při ponechání prostorového rozlišení, nebo při ponechání časového rozlišení lze zvýšit prostorové rozlišení.
Optimization using derivative-free and metaheuristic methods
Márová, Kateřina ; Tichý, Petr (vedoucí práce) ; Šmídl, Václav (oponent)
Evoluční algoritmy jsou s úspěchem používány k řešení mnoha praktických optimalizačních úloh, obzvláště těch zadaných jako black box. Tato práce popisuje CMA-ES, jeden z nejlepších evolučních algoritmů dneška, a ukazuje jeho novou aplikaci při automatickém ladění propojených PID regulátorů v modelech spalovacích motorů. Powered by TCPDF (www.tcpdf.org)
Software environment for data assimilation in radiation protection
Majer, Peter ; Šmídl, Václav (vedoucí práce) ; Hofman, Radek (oponent)
Táto práca sa zaoberá asimiláciou dát prízemného vetra v rámci meteorologického modelu WRF pre lokálnu doménu. Využívame pritom bayesovskú štatistiku, konkrétne metódu sekvenčné Monte Carlo v kombinácii s filtrom vzoriek - particle filtering. Súčasťou práce je aplikácia napísaná v jazyku Python, ktorá tvorí rozhranie s WRF, uskutočňuje samotnú asimiláciu a poskytuje výstup v podobe grafov. V prípade stabilných veterných podmienok sú predpovede korigovaného WRF signifikantne bližšie meraným dátam než predpoveď nekorigovaného WRF. Za týchto okolností je možné použiť takto asimilovaný model pre spoľahlivejšie krátkodobé lokálne predpovede. Powered by TCPDF (www.tcpdf.org)
Extending Horizon of Finite Control Set MPC of PMSM Drive with Input LC Filter using LQ Lookahead
Šmídl, Václav ; Janouš, Š. ; Peroutka, Z.
Finite control set model predictive control (FS-MPC) has been shown to be a very effective approach to control of PMSM drives. FS-MPC is a very flexible tool since it can evaluate an arbitrary loss function. However, design of the appropriate loss function for the problem can be a challenge especially when the design input is visible only on the long horizon. An example where this problem becomes apparent is the main propulsion drive of a traction vehicle fed from a dc catenary. Specifically, the catenary voltage is subject to short circuits, fast changes, harmonics and other disturbances which can vary in very wide range. Therefore, the drive is equipped with the trolley-wire input LC filter. The filter is almost undamped by design in order to achieve maximum efficiency and the control strategy needs to secure active damping of the filter to guarantee the drive stability. While it is possible to introduce active damping terms to the loss function, it is hard to predict its properties.
Data assimilation methods used in the ASIM module
Šmídl, Václav ; Hofman, Radek ; Pecha, Petr
Comprehensive review of data assimilation methods for improvement of the model predictions of consequences of a radiation accident. The methods of the numerical optimization techniques and sequential Monte Carlo techniques are implemented. Applications in the field of consequence assessments are presented.
Convolution Model of Time-activity Curves in Blind Source Separation
Tichý, Ondřej ; Šmídl, Václav
Availability of input and organ functions is a prerequisite for analysis of dynamic image sequences in scintigraphy and positron emission tomography (PET) via kinetic models. In PET, the input function can be directly measured by sampling the arterial blood. This invasive procedure can be substituted by extraction of the input function from the observed images. Standard procedure for the extraction is based on manual selection of a region of interest (ROI) which is user-dependent and inaccurate. The aim of our contribution is to demonstrate a new procedure for simultaneous estimation of the input and organ functions from the observed image sequence. We design a mathematical model that integrates all common assumption of the domain, including convolution of the input function and tissue-specific kernels. The input function as well as the kernel parameters are considered to be unknown. They are estimated from the observed images using the Variational Bayes method.

Národní úložiště šedé literatury : Nalezeno 26 záznamů.   1 - 10dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.