Národní úložiště šedé literatury Nalezeno 900 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.02 vteřin. 
Využití neuronové sítě při detekci poruch srdečního rytmu z EKG dat a signálu akcelerometru
Aleksandrenko, Borys ; Ředina, Richard (oponent) ; Bulková, Veronika (vedoucí práce)
Tato bakalářská práce se věnuje problematice detekce poruch srdečního rytmu ze signálů EKG a akcelerometru s využitím strojového učení. Nejprve byla provedena analýza možností detekce poruch srdečního rytmu z těchto signálů pomocí teoretické rešerše. V další části byla navržena metodika pro detekci dvou poruch rytmu: nepřiměřené sinusové tachykardie a chronotropní inkompetence. Metodika byla dodatečně doplněna adaptivní filtrací EKG signálu pomocí signálu akcelerometru. Ve třeti částí práce byla vytvořena databáze vzorků pro trénování modelů strojového učení navržených v metodice. Další část obsahovala popis a realizaci modelů. V páté části práce byla v programovacím jazyce Python vytvořena aplikace pro detekci poruch srdečního rytmu pomocí navržené metodiky. Nakonec byla provedena diskuze a evaluace výsledků.
Evoluční návrh neuronových sítí
Kastner, Jan ; Hurta, Martin (oponent) ; Sekanina, Lukáš (vedoucí práce)
Tato práce je věnována implementaci metody pro řešení problémů v oblasti automatizovaného návrhu architektury konvolučních neuronových sítí (CNN). Optimalizace dvou základních a často protichůdných charakteristik, počtu parametrů a kvality klasifikace CNN, je prováděna pomocí vícekriteriálního optimalizačního genetického algoritmu (NSGA-II). Pro zakódování tohoto problému je využita technika kartézského genetického programování (CGP), která umožňuje reprezentaci široké škály architektur CNN a současně lze parametrizací vhodně omezit prohledávaný prostor. Experimenty byly prováděny na datasetu MNIST za účelem pochopení vlivu velikosti populace na kvalitu výsledného řešení. Z výsledků experimentů je také patrné, že kvalita nalezených architektur dokáže konkurovat již etablovaným modelům. Jedná se tedy o alternativní přístup, který v porovnání s manuálním návrhem nevyžaduje lidskou intervenci.
Využití umělé inteligence pro automatizaci obchodování na burze
Čermák, František ; Hůlka, Tomáš (oponent) ; Matoušek, Radomil (vedoucí práce)
Tahle diplomová práce se zabývá využitím umělé inteligence pro automatizaci obchodování na burze. Hlavním cílem bylo prozkoumat současné technologie aplikované v algoritmickém obchodování a následně navrhnout a vyvinout automatizovaný obchodní systém využívající umělou inteligenci. Práce se zaměřuje na různé aspekty algoritmického obchodování, včetně vysokofrekvenčního obchodování, cloudových řešení, strojového učení, blockchainu a smart contracts. Dále zkoumá aplikace umělé inteligence v obchodování, jako je prediktivní analytika a zpracování přirozeného jazyka, a diskutuje etické a regulační výzvy spojené s touto technologií. Návrh a vývoj automatizovaného obchodního systému je popsán detailně, včetně architektury systému, volby programovacích jazyků a nástrojů, a implementace obchodních algoritmů. Výsledky ukazují, že využití umělé inteligence může výrazně zvýšit efektivitu a přesnost obchodování na burze, avšak je třeba vzít v úvahu technologická a etická rizika. Tato práce přináší významný příspěvek k výzkumu v oblasti algoritmického obchodování a poskytuje základy pro další výzkum v optimalizaci obchodních algoritmů a integraci nových technologií.
Moderní přístup k měření citlivosti mikrobiálních kultur na antibiotika s využitím strojového učení
Lepík, Jakub ; Burget, Radim (oponent) ; Čičatka, Michal (vedoucí práce)
Bakalářská práce se zaměřuje na problematiku měření citlivosti mikrobiálních kultur na antibiotika (AST), konkrétně na vylepšení a automatizaci vyhodnocení diskové difúzní metody pomocí strojového učení a architektur pro detekci objektů v obraze. Díky využití vývojové platformy TensorFlow a rozsáhlé datové sady, na níž byly vytrénovány vlastní detekční modely, jako je EfficientDet, je umožněno zpracování široké škály vstupních dat. To přináší možnost využití mobilních zařízení vedle tradičních laboratorních přístrojů při vyhodnocování této metody. Pomocí dalších technik zpracování obrazu a knihovny OpenCV byl vyvinut vlastní algoritmus na měření velikosti inhibičních zón, který je společně s detekčními modely integrován v rámci modulu do webové aplikace společnosti Bruker Daltonics GmbH & Co. Tento modul, vyvíjený pomocí platformy ASP.NET, je přehledným a užitečným nástrojem pro asistenci pracovníkům v mikrobiologických laboratořích.
Measuring the thickness of contamination layers in scanning electron microscopy using image processing
Macek, Matěj ; Munzar, Milan (oponent) ; Čadík, Martin (vedoucí práce)
The motivation for this thesis arises from the aim of the Thermo Fisher Scientific company to develop a method to measure the thickness of contamination layers in scanning electron microscopy (SEM) images through advanced image processing techniques. The primary aim is to create automated methods for quantifying contamination in images that adversely impact imaging in material science research, using image processing techniques. In this study, we collect a dataset of images with contamination and manually annotate masks for each image. These annotations will serve to fine-tune and evaluate the effectiveness of the methods we propose. By employing a combination of edge detection algorithms and machine learning models, specifically a fine-tuned DeepLabv3 network, this work enhances the precision and efficiency for contamination detection. The edge Detection-Based Contamination Analyzer (EDCA) utilizes traditional image processing methods, while the DeepLabv3 model introduces a machine learning approach to robustly handle diverse imaging conditions. Comparative analyses demonstrate the effectiveness of these methods in providing reliable, scalable, and detailed measurements of contamination layers, significantly contributing to the field of materials science.
Simulation of Biological Processes Using Asynchronous Cellular Automata and Machine Learning
Kališ, Vojtěch ; Bidlo, Michal (oponent) ; Fritz, Karel (vedoucí práce)
This thesis explores the fusion of asynchronous cellular automata and machine learning techniques for simulating complex biological processes. Its main focus is on showcasing the inherent potential of a computational framework constructed through combining the parallelism of an asynchronous cellular automata updating model with the predictive capabilities of machine learning algorithms. This study aims to demonstrate the qualities of such hybrid approach by implementing three mathematical cellular automata models of increasing complexity—that is, listed based on their level of complexity, Conway’s Game of Life, SmoothLife and Lenia—in their basic form and then integrate machine learning into the function of the latter two, comparing the results of both approaches afterwards.
Anion-exchange enabled tuning of caesium lead mixed-halide perovskites for high-energy radiation detection
Matula, Radovan ; Friák, Martin (oponent) ; Dvořák, Petr (vedoucí práce)
Lead halide perovskites (LHPs) with their unprecedented functional qualities which are only enhanced by the simple band gap tuning, have taken the world of semiconductors by storm. The process of anion exchange, possible even post-synthesis, allows for band gap tuning of LHPs, resulting in lead mixed-halide perovskites (LMHPs), thus expanding their potential for applications, notably in tuneable detectors. The widespread adoption of LMHPs is, however, hindered by their chemical instability, which leads to halide segregation in the material, seriously inhibiting reliable operation of any LMHP-based device. Understanding the kinetics of the halide segregation over extended periods remains a challenge, motivating the use of theoretical simulations like Monte Carlo (MC) methods. Yet, MC simulations rely on well-defined potential energy surfaces (PES), typically derived from computationally intensive density functional theory (DFT) calculations. In this thesis, we propose a novel approach for constructing well-defined PES from high-fidelity DFT data with fraction of the computational load. Utilizing activation-relaxation technique noveau (ARTn) motivated searches for transition points in the PES combined with state-of-the-art machine learning approaches, we aim to to significantly reduce computational costs. Additionally, employing classical theory, we assess the detection capabilities of selected LMHPs.
Automatický přepis řeči s podporou code switching
Bílek, Štěpán ; Karafiát, Martin (oponent) ; Szőke, Igor (vedoucí práce)
Tato práce se zabývá problematikou automatického rozpoznávání řeči. Zaměřuje se na rozpoznávání audia obsahující vícejazyčné promluvy, tzv. code-switching. Problém nedostatku vícejazyčných dat pro trénování je řešen kombinováním nahrávek v angličtině a němčině dohromady. Pro co největší přiblížení ke skutečné dvojjazyčné řeči je část datasetů tvořena spojováním nahrávek podobných mluvčích. Na vytvořených datech je trénován a testován model Whisper. Ten v původní neadaptované verzi dosahuje chybovosti až 70 %. Nejlepší modely trénované na kombinovaných datasetech dosahují chybovosti jen lehce přes 7 %. Výsledky této práce ukazují způsoby jak modely trénovat, aby dosahovaly co nejlepších výsledků.
Machine learning in audio effects
Sychra, Jakub ; Mošner, Ladislav (oponent) ; Černocký, Jan (vedoucí práce)
Reverse engineering audio effects from mixed tracks is a complex topic requiring signal processing and music engineering experience. This work aims at creation of a system capable of identifying the sequence and parameters of guitar effects from a mixed audio track. Training data was created using clean guitar sounds from IDMT-SMT-Audio-Effects, augmented by known effects (BitCrush, Chorus, Clipping, Compressor, Delay, Distortion, High-pass filter, Ladder filter, Low-pass filter, Limiter, Phaser and Reverb), all implemented with a Python wrapper around standard VST effects. The system is based on VGGish neural network architecture with several classification (presence of effects) and regression (parameters of effects) heads. The performance of the algorithm is evaluated on classification and regression accuracy, as well as in informal listening tests.
Meta-heuristické algoritmy pro výběr příznaků v klasifikaci srdečních onemocnění
Švestková, Tereza ; Odstrčilík, Jan (oponent) ; Mézl, Martin (vedoucí práce)
Tato práce je věnována postupům při výběru relevantních příznaků pro klasifikační úlohy týkající se srdečních onemocnění. Optimální výběr příznaků je klíčovým faktorem pro správnou funkčnost klasifikačních modelů a v případě medicíny pro zlepšení diagnostiky. Teoretická část pojednává o obecné klasifikační úloze ve strojovém učení. Dále jsou podrobněji popsány některé klasické postupy i novější meta-heuristické algoritmy pro efektivní selekci příznaků. Praktická část se věnuje aplikaci některých popsaných algoritmů na datové soubory související se srdečním onemocněním. Na základě ověření validity výsledku klasifikačního modelu podle vybraných příznaků běžnými postupy i evolučními algoritmy jsou diskutovány výhody a přínosy upřednostnění meta-heuristických algoritmů.

Národní úložiště šedé literatury : Nalezeno 900 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.