Národní úložiště šedé literatury Nalezeno 30 záznamů.  předchozí11 - 20další  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Ztrátová komprese video signálů – kvantování
Balada, Radek ; Kratochvíl, Tomáš (oponent) ; Frýza, Tomáš (vedoucí práce)
Tématem mé bakalářské práce je ztrátová komprese videosignálů. Protože sekvence videosignálů často vyžadují velké množství paměti pro jejich uchovávání a zabírají velkou šířku pásma při jejich přenosu, je nutné videosignály komprimovat. Některé standardy pro kompresi videosignálů používají dvourozměrnou diskrétní kosinovou transformaci. Mým úkolem je rozšířit tuto transformaci o další rozměr (čas) a otestovat použití trojrozměrné diskrétní kosinové transformace. Zaměřuji se hlavně na porovnávání obrazové kvality v závislosti na velikosti ztrátové komprese. Tato práce také popisuje metody kvantování koeficientů vzniklých trojrozměrnou diskrétní kosinovou transformací.
Implementace JPEG 2000
Zlatohlávek, Adam ; Klíma, Ondřej (oponent) ; Bařina, David (vedoucí práce)
Tato práce se zaobírá novodobým kompresním řetězcem JPEG 2000. První část je rozborem technik používaných v základní části standardu a jejich možností v kompresním formátu. Druhá část se věnuje implementaci kompresního řetězce z pohledu předzpracování, až k přivedení výstupu do vlastního formátu. Závěrem práce je provedeno srovnání s aktuálními implementacemi z paměťového a výkonnostního hlediska.
Komprese signálů EKG nasnímaných pomocí mobilního zařízení
Had, Filip ; Vítek, Martin (oponent) ; Němcová, Andrea (vedoucí práce)
Komprese signálů je nezbytnou součástí pro snímání EKG, z důvodu poměrně velkého objemu dat, která je nutno především bezdrátově posílat na analýzu. Právě kvůli bezdrátovému odesílání je nutné objem dat co nejvíce minimalizovat. K minimalizaci objemu slouží bezeztrátové nebo ztrátové kompresní algoritmy. Tato práce popisuje algoritmus SPIHT a nově vytvořenou experimentální metodu, založenou na kompresi pomocí PNG, a jejich testování. V této diplomové práci je také uvedena banka signálů EKG s paralelně snímanými daty z akcelerometru. V poslední části práce je rozebrána a realizována úprava algoritmu SPIHT, využívající data akcelerometru.
Analýza nastavení formátu JPEG 2000
Mitaš, Matěj ; Klíma, Ondřej (oponent) ; Bařina, David (vedoucí práce)
Tato práce se zabývá analýzou nastavení formátu JPEG 2000. Cílem je vyšetřit vhodné hodnoty nastavení pro různorodá obrazová data vzhledem ke kompresnímu výkonu, časové a paměťové náročnosti za užití knihoven Kakadu a OpenJPEG. Za tímto účelem byl navržen a implementován testovací nástroj v jazyce Python. Výsledky této práce umožňují používat formát JPEG 2000 efektivněji a s hlubším pochopením jednotlivých nastavení.
Efektivní nástroj pro kompresi obrazu v jazyce Java
Průša, Zdeněk ; Rajmic, Pavel (oponent) ; Malý, Jan (vedoucí práce)
Tato diplomová práce se zabývá problematikou ztrátové komprese digitálních obrazových dat. Ztrátová komprese obecně zavádí určité zkreslení do výsledné reprezentace obrazu. Toto zkreslení by mělo být nerušivé nebo v lepším případě nepozorovatelné. K analýze obrazových dat se používá proces transformace a k vybrání relevantních údajů proces kódování. Hodnocení kvality rekonstruovaného obrazu může být podle prostředků prováděno objektivně nebo subjektivně. V této práci je představen a realizován kodér obrazu založený na dvojrozměrné vlnkové transformaci a SPIHT algoritmu kódování koeficientů. Bylo použito akcelerovaných postupů výpočtu vlnkové transformace pomocí lifting schématu. Kodér efektivně pracuje s barevnou informací obrazů pomocí modifikace původního SPIHT algoritmu. K vlastní realizaci byl použit programovací jazyk JAVA. Návrh byl proveden podle zásad objektového programování a je proto snadno modifikovatelný. Na demonstrovaných příkladech je možno sledovat účinnost a charakteristický způsob zkreslení navrženého kodéru při vysokých kompresních poměrech.
Analýza kvality obrazu užitím Fourierovy transformace
Tkadlecová, Markéta ; Druckmüller, Miloslav (oponent) ; Hoderová, Jana (vedoucí práce)
Tato práce se zabývá dvourozměrnou Fourierovou transformací a její aplikací při určování kvality obrazu. Je zde uveden algoritmus založený na amplitudových spektrech, který je následně testován na několika sadách snímků. Jsou rozebrány možnosti využití algoritmu v praxi i jeho nedostatky. Pro pochopení základů, na kterých algoritmus stojí, je vyložen potřebný matematický aparát. Důraz je kladen na vysvětlení vlastností amplitudových spekter. Dále se práce věnuje digitálnímu obrazu a jeho charakteristikám, které ovlivňují jeho kvalitu. Pro otestování a seřazení snímků podle kvality byl sestaven demonstrační program.
Compression and Quality Assessment of ECG Signals
Němcová, Andrea ; Tkacz,, Professor Ewaryst (oponent) ; Kudrna,, Petr (oponent) ; Vítek, Martin (vedoucí práce)
Lossy compression of ECG signals is useful and still challenging and developing area. In recent years, new and new compression algorithms are developed. Unfortunately, there is a lack of standards for compression quality assessment. Thus, there are plenty of methods, performance of which cannot be objectively compared at all or can be compared only in a rough guess. Moreover, it is not much known, whether and how the pathologies in ECG signals influence the compression algorithms performance. In this thesis, a review of all found methods for the assessment of ECG signal quality after compression and reconstruction is presented. 10 new methods were created. The known and the new methods were analysed and based on the results, 12 of them were recommended for further use. New Single-Cycle Fractal-Based (SCyF) compression algorithm is introduced. SCyF algorithm was inspired by fractal-based method and uses one cycle of ECG signal as a domain. It was tested on four different databases using 12 recommended quality metrics and compared with known and popular method based on wavelet transform and Set Partitioning in Hierarchical Trees (SPIHT). The testing process serves as an example how the standardization of ECG signal compression assessment should look like. Further, it was statistically proven that the difference between compression of physiological and pathological signals exists. Pathological signals were compressed with lower efficiency and quality than physiological signals.
Ztrátová komprese plenoptických fotografií
Dlabaja, Drahomír ; Milet, Tomáš (oponent) ; Bařina, David (vedoucí práce)
Cílem této práce je návrh, implementace a vyhodnocení ztrátové kompresní metody pro plenoptické fotografie. Navržená metoda zrcadlí metodu JPEG do čtyř rozměrů a přináší nové myšlenky, které vedou k lepšímu kompresnímu výkonu. Korelace mezi pohledy plenoptické fotografie je v obou směrech využita provedením čtyřrozměrné diskrétní kosinovy transformace. Ztráty jsou na obrázek aplikovány kvantizací, podobně jako v metodě JPEG. Navržená metoda je implementována jako programová knihovna v jazyce C++. V této práci je provedeno srovnání navržené metody s videometodou HEVC a s metodami pro kompresi obrazu JPEG, JPEG 2000 a HEVC intra. Navržená kompresní metoda dosahuje lepšího kompresního výkonu v porovnání s ostatními testovanými metodami pro obrázky s větším počtem pohledů. Pro obrázky s menším počtem pohledů a pro velmi nízké datové toky dosahuje lepších výsledků videometoda HEVC.
Analýza zabezpečení formátu JPEG 2000 proti chybám
Kovalčík, Marek ; Klíma, Ondřej (oponent) ; Bařina, David (vedoucí práce)
Tato práce se zaobírá novodobým kompresním formátem JPEG 2000. Je zde analyzován vliv použití zabezpečovacích mechanismů při kompresi obrazu s různými nastaveními. Je zde zkoumáno, jaký vliv má použití vkládání značek pomáhajících při rekonstrukci poškozeného obrazu nebo použití kompresních módů zlepšujících odolnost proti chybám. Kvalita obrazů je vyhodnocována metrikou PSNR, která zjišťuje podobnost komprimovaného a referenčního souboru. Přidání určitých značek do datového toku nebo použití určitých kompresních módů by mělo pomoci se zabezpečním JPEG 2000 souboru proti poškození při rekonstrukci obrazu. Pro testování této hypotézy byl vytvořen model, který náhodně poškozoval komprimovaný soubor a hodnotil dekomprimované obrazy. Pro práci byla využívána knihovna Kakadu, která poskytuje efektivní práci s formátem JPEG 2000. Součástí práce je datová sada, na které probíhaly experimenty, a která se skládá z různorodých fotografií v nekomprimovaném formátu PPM v menších, ale také vyšších rozlišeních. Výsledem této práce je zjištění, jaké nastavení komprese použít pro jakou skupinu obrazů, aby byla komprese efektivní a odolnost proti chybám co nejlepší. Závěr práce je věnován srovnání odolnosti proti poškození formátu JPEG 2000 a CCSDS 122.0.
Analýza nastavení formátu JPEG 2000
Mitaš, Matěj ; Klíma, Ondřej (oponent) ; Bařina, David (vedoucí práce)
Tato práce se zabývá analýzou nastavení formátu JPEG 2000. Cílem je vyšetřit vhodné hodnoty nastavení pro různorodá obrazová data vzhledem ke kompresnímu výkonu, časové a paměťové náročnosti za užití knihoven Kakadu a OpenJPEG. Za tímto účelem byl navržen a implementován testovací nástroj v jazyce Python. Výsledky této práce umožňují používat formát JPEG 2000 efektivněji a s hlubším pochopením jednotlivých nastavení.

Národní úložiště šedé literatury : Nalezeno 30 záznamů.   předchozí11 - 20další  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.