Národní úložiště šedé literatury Nalezeno 3 záznamů.  Hledání trvalo 0.02 vteřin. 
Forenzní metoda rozpoznávání originality uměleckých děl s pomocí multispektrální analýzy
Lánský, David ; Mezina, Anzhelika (oponent) ; Burget, Radim (vedoucí práce)
Odhalování falzifikátů je zásadní pro ochranu trhu s uměním a zachování autentičnosti uměleckých děl. Tato práce se věnuje detekci falzifikátů, a to s využitím konvolučních neuronových sítí (CNN). Hlavním cílem bylo vyvinout pokročilé metody, které jsou schopné identifikovat anomálie v malbách za účelem potvrzení pravosti či prokázání falzifikátu. V rámci tohoto výzkumu byly aplikovány architektury U-net a techniky binární sémantické segmentace, které výrazně zpřesňují relevanci detekovaných oblastí. Hlavním přínosem práce je 112 modelů čtyř různých architektur U-net a U-net++, které metodou binární sémantické segmentace efektivně zdůrazňují anomálie. Modely byly natrénovány na souboru obrazů s jejich synteticky vytvořenými rentgenovými snímky a uměle generovanými anomáliemi. Modely jsou tímto způsobem schopné detekovat olovnaté skvrny, hřebíky, vrstvy skrytých maleb, defekty, zatímco zároveň dokáží ignorovat nevýznamné prvky, jako jsou rámy obrazů a přeexponované rentgenové snímky. Testování modelů probíhalo ve dvou fázích. V první fázi byly hodnoceny pomocí metriky IoU na množině 400 synteticky generovaných dat, kde v nejlepších případech dosahovaly až 83,5 % IoU. V druhé fázi byly hodnoceny subjektivním způsobem na obrazech se skutečnými rentgeny a přirozenými anomáliemi. Tento přístup kombinuje tradiční rentgenové techniky s moderním počítačovým viděním, čímž odhaluje odchylky, které by mohly být přehlédnuty při standardní vizuální inspekci. Tímto přínosným spojením technologií práce otevírá nové možnosti pro ochranu uměleckých sbírek a poskytuje solidní základ pro další výzkum v oblasti detekce falzifikátů uměleckých děl pomocí umělé inteligence.
Deep-learning methods for tumor cell segmentation
Špaček, Michal ; Kolář, Radim (oponent) ; Gumulec, Jaromír (vedoucí práce)
Automatic segmentation of images, especially microscopic images of cells, opens up new opportunities in cancer research or other practical applications. Recent advances in deep learning have enabled efficient cell segmentation, but automatic segmentation of subcellular regions is still challenging. This work describes the implementation of the U-net neural network for segmentation of cells and subcellular regions without labeling in the pictures of adhering prostate cancer cells, specifically PC-3 and 22Rv1. Using the best-performing approach of all tested, it was possible to distinguish between objects and background with average Jaccard coefficients of 0.71, 0.64 and 0.46 for whole cells, nuclei and nucleoli. Another point was the separation of individual objects, i. e. cells, in the image using the Watershed method. The separation of individual cells resulted in SEG value of 0.41 and AP metric of 0.44.
Deep-learning methods for tumor cell segmentation
Špaček, Michal ; Kolář, Radim (oponent) ; Gumulec, Jaromír (vedoucí práce)
Automatic segmentation of images, especially microscopic images of cells, opens up new opportunities in cancer research or other practical applications. Recent advances in deep learning have enabled efficient cell segmentation, but automatic segmentation of subcellular regions is still challenging. This work describes the implementation of the U-net neural network for segmentation of cells and subcellular regions without labeling in the pictures of adhering prostate cancer cells, specifically PC-3 and 22Rv1. Using the best-performing approach of all tested, it was possible to distinguish between objects and background with average Jaccard coefficients of 0.71, 0.64 and 0.46 for whole cells, nuclei and nucleoli. Another point was the separation of individual objects, i. e. cells, in the image using the Watershed method. The separation of individual cells resulted in SEG value of 0.41 and AP metric of 0.44.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.