Národní úložiště šedé literatury Nalezeno 73 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.00 vteřin. 
Lingvistická komprese textu
Kazík, Ondřej ; Lánský, Jan (vedoucí práce) ; Dědek, Jan (oponent)
Při kompresi textu můžeme s úspěchem využít znalosti o přirozeném jazyce. V předkládané práci poukazujeme na možnost kódovat samostatně posloupnost slovních druhů nacházejících se ve větě(větný typ) a text samotný. Za tímto účelem je navrhnuta metoda značkování založená na neuronových sítích (NNTagger). Dále se práce soustřeďuje na specifi kaci takového modelu komprese českých textů. Navrhujeme zde metody vytvoření jejich inicializačních slovníků a testujeme vliv na výslednou kompresi.
Komprese slovníku
Kuřík, Stanislav ; Lánský, Jan (vedoucí práce) ; Žemlička, Michal (oponent)
Tématem této práce je vylepšení existující metody TD3 pro kompresi slovníku. Metoda TD3 je postavena na kódování datové struktury trie, což je pre fixový strom sloužící k uložení asociativního pole, v němž jsou klíčem řetězce. TD3 kóduje každý jednotlivý uzel trie za pomoci Eliasových Gamma a Delta kódů. Prvním z vylepšení je nahrazení Eliasových kódů statickým, resp. adaptivním Hu manovým kódováním. Další rozšíření upravují způsob kódování jednotlivých informací, které je nutné pro uzly uchovávat. Nová metoda TD4 byla otestována na rozsáhlém korpusu a součástí práce je i zhodnocení naměřených výsledků.
Genetické algoritmy: charakteristické slabiky jazyka
Kuthan, Tomáš ; Lánský, Jan (vedoucí práce) ; Skopal, Tomáš (oponent)
Slabiková komprese je nový přístup ke kompresi textů po symbolech. Důležitým aspektem tohoto přístupu jsou slovníky častých slabik. Tyto slovníky slouží k počáteční inicializaci kompresních algoritmů a mají velký vliv na kompresní poměr. Doposud byly získávány přímočaře na základě četností výskytů slabik v korpusech. Věříme, že za pomoci genetického algoritmu bychom mohli dokázat přesněji určit množinu slabik, které jsou pro daný jazyk charakteristické, a tím dosáhnout lepších výsledků při samotné kompresi. V této práci se pokusíme takovýto algoritmus navrhnout a otestujeme jej na textech v anglickém a českém jazyce.
Komprese zvuku
Dupej, Ján ; Lánský, Jan (vedoucí práce) ; Obdržálek, Jan (oponent)
V posledních dvou desetiletích se multimédia staly součástí života každého z nás. Často ale musíme čelit dvěma sporným požadavkům - omezené kapacitě fyzického úložiště nebo kapacitě připojení k síti a požadavku na rozumnou kvalitu našich médií. Komprese zvyšuje kompatibilitu těchto dvou požadavků tím, že zmenšuje objem dat, který je potřebný na reprezentaci originálu. Tato práce se zaměřuje na kompresi zvuku, specificky na ztrátovou kompresi. Na rozdíl od bezztrátových kompresních algoritmů, ztrátové zavádějí do originálu šum. Výhodou bývá vysoký kompresní poměr, který mnohé tyto kodéry poskytují. Součástí navrhování ztrátového kodeku je snaha učinit ztráty vzniklé při kompresi méně slyšitelnými. Toho se dosahuje pomocí psychoakustiky (využívaní nedostatků lidského sluchu), konkrétně prostřednictvím maskování, vněmové entropie, prahů slyšitelnosti a mnoha dalších jevů. Tato práce vysvětluje některé z těchto jevů a popisuje jejich praktickou implementaci v moderních ztrátových kodérech. Na konec se práce zabývá porovnáním některých zvukových kodeků, jejich principů a schopností.
Dmoz.org Search Engine
Koprivňanský, Andrej ; Galamboš, Leo (vedoucí práce) ; Lánský, Jan (oponent)
dmoz.org je v súasnosti najvätší otvorený katalóg internetových stránok spravovaný dobrovolnými editormi. Dáta obsiahnuté v tomto katalógu sú volne k dispozícii verejnosti na jeho internetových stránkach. Cielom mojej práce je navrhnút a implementovat fulltextový vyhladávací stroj pre katalógovú databázu dmoz.org. V práci riešim problematiku spracovania súborov s dátami z tohoto katalógu do formy portálu prezeratelného internetovým prehliadačom s možnosťou vyhladávania v kategóriach. Pretože sa jedná o rýchle meniacu sa databázu, treba tiež vyriešit jej efektívnu aktualizáciu.
Entropické kodéry
Uzel, Petr ; Lánský, Jan (vedoucí práce) ; Majerech, Vladan (oponent)
Cílem této diplomové práce je implementace různých metod entropického kódování a měření jejich kompresního poměru a rychlosti v kontextu programu XBW [Lan07]. Tyto metody zahrnují aritmetické kódování (s použitím Moatovy [Mof99] a Fenwickovy [Fen96] datové struktury pro aktualizaci kumulovaných četností), Humanovo kódování [Huf52] a metodu Multistream Compression [KLUZ08]. Důraz je kladen na použití metod nad velkou abecedou. Pro metodu MSC je dále cílem návrh a experimentální ověření metod pro kódování posloupností čítačů.
Semi-adaptivní PPM komprese
Kumičák, Pavol ; Lánský, Jan (vedoucí práce) ; Dvořák, Tomáš (oponent)
V tejto práci skúmame možosti úpravy adaptívneho PPM algoritmu do semiadaptívnej verzie a overujeme vhodnosť tejto úpravy pre účely kompresie. V adaptívnom PPM algoritme sa zo vstupného textu na základe jeho zakomprimovanej časti tvorí strom obmedzenej dlžky, pomocou ktorého sa predikuje pravdepodobnosť výskytu nasledujúceho symbolu, ktorý je s využitím tejto pravdepodobnosti zakódovaný na výstup. V semiadaptívnej verzii algoritmu tvoríme strom neobmedzenej dlžky. Z tohto stromu je pôvodný reťazec možné jednoznane dekódovať, výstupom algoritmu je teda samotný strom. Tento strom je možné úsporne uložiť do súboru a tento zakomprimovať použitím niektorého vhodného kompresného algoritmu. Táto práca si dáva za ciel vytvoriť algoritmus tvorby stromu pre semiadaptívny PPM algoritmus a jeho implementovaním overiť praktickú využitelnosť tohto algoritmu pre komprimáciu dát.
Compression program
Mikuš, Tomáš ; Patočka, Mikuláš (vedoucí práce) ; Lánský, Jan (oponent)
V predloženej práci študujeme možnosti kompresie dát. Pokúsime sa popísať a neskôr implementovať kompresný algoritmus porovnateľnej rýchlosti a efektivity ako algoritmus, ktorý je využívaný programom bzip2. Tento algoritmus bude základom programu bežiaceho pod konzolou operačného systému Linux, ktorý bude spĺňať nasledujúce vlastnosti: Bude poskytovať primerané grafické užívateľské prostredie na pohodlnú a jednoduchú prácu s archívom. Bude implementovať funkcie, medzi ktoré bude patriť vytvorenie archívu zo zadaných súborov a adresárov, pridanie ďalších súborov alebo ich odoberanie z archívu a samozrejme spätné obnovenie súborov a adresárov. Ďalšou funkciou bude možnosť prechádzania adresárového stromu obsiahnutého v archíve.
Algoritmy konstrukce sufixového pole
Žoha, Pavel ; Dvořák, Tomáš (vedoucí práce) ; Lánský, Jan (oponent)
Su fixové pole je datová struktura, která se používá při operacích s řetězci jako je vyhledávání vzorků. Má uplatnění také v některých algoritmech na bezztrátovou kompresi dat. V této práci uvádím srovnání různých postupů při konstrukci su fixového pole (algoritmy Manbera a Myerse, Kírkkáinena a Sanderse, Sewarda, Manziniho a Ferraginy a Ukkonenův algoritmus na konstrukci sufi xového stromu). Tyto metody jsem implementoval a spolu s běžnými třídícími algoritmy (mergesort, quicksort, heapsort a shellsort) testoval jednak na souborech běžně používaných formátů a jednak na náhodně generovaných datech nad různě velkými abecedami. Dále jsem se zabýval možností použití algoritmů pro vstupy nad abecedami většími než 256 znaků.
Bezztrátová komprese JPEG grafiky
Ondruš, Jan ; Lánský, Jan (vedoucí práce) ; Žemlička, Michal (oponent)
JPEG je široce rozšířená metoda komprese grafiky určená především pro ukládání fotografií. Skládá se ze ztrátové a bezztrátové části. Poslední fází je statické Huffmanovo kódování, které lze nahradit pokročilejšími adaptivními technikami ve spojení s aritmetickým kódováním. V této práci je představena metoda použitá pro kompresi souborů JPEG (soubory formátu JFIF) uložených v sekvenčním (baseline) režimu. Obecným postupem je v tomto případě částečná dekomprese, při které invertujeme pouze poslední bezztrátové fáze kompresního algoritmu. Tím převedeme komprimovaný soubor dat na pole kvantovaných DCT koeficientů. Zde je navržen algoritmus pro predikci těchto DCT koeficientů. Ten funguje tak, že vrací jako výsledek pro každý z 64 koeficientů vhodnou lineární kombinaci už zakódovaných koeficientů z aktuálního bloku a okolních bloků. Také se seznámíme s tím, jak je možné využít této predikce k vylepšení výkonu komprese JPEG souboru pomocí Context Mixing algoritmu v programu PAQ8 od Matta Mahoneyho. Dále je uvedena konkrétní implementace a otestován její výkon ve srovnání s existujícími metodami nebo algoritmy na kompresi JPEG grafiky.

Národní úložiště šedé literatury : Nalezeno 73 záznamů.   1 - 10dalšíkonec  přejít na záznam:
Viz též: podobná jména autorů
1 Lanský, Jaroslav
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.