National Repository of Grey Literature 12 records found  1 - 10next  jump to record: Search took 0.01 seconds. 
Applicability of Deepfakes in the Field of Cyber Security
Firc, Anton ; Homoliak, Ivan (referee) ; Malinka, Kamil (advisor)
Deepfake technológia je v poslednej dobe na vzostupe. Vzniká mnoho techník a nástrojov pre tvorbu deepfake médií a začínajú sa používať ako pre nezákonné tak aj pre prospešné činnosti. Nezákonné použitie vedie k výskumu techník pre detekciu deepfake médií a ich neustálemu zlepšovaniu, takisto ako k potrebe vzdelávať širokú verejnosť o nástrahách, ktoré táto technológia prináša. Jedna z málo preskúmaných oblastí škodlivého použitia je používanie deepfake pre oklamanie systémov hlasovej autentifikácie. Názory spoločnosti na vykonateľnosť takýchto útokov sa líšia, no existuje len málo vedeckých dôkazov. Cieľom tejto práce je preskúmať aktuálnu pripravenosť systémov hlasovej biometrie čeliť deepfake nahrávkam. Vykonané experimenty ukazujú, že systémy hlasovej biometrie sú zraniteľné pomocou deepfake nahrávok. Napriek tomu, že skoro všetky verejne dostupné nástroje a modely sú určené pre syntézu anglického jazyka, v tejto práci ukazujem, že syntéza hlasu v akomkoľvek jazyku nie je veľmi náročná. Nakoniec navrhujem riešenie pre zníženie rizika ktoré deepfake nahrávky predstavujú pre systémy hlasovej biometrie, a to používať overenie hlasu závislé na texte, nakoľko som ukázal, že je odolnejšie proti deepfake nahrávkam.
??Implementácia aplikácie pre porovnanie Deepfake modelov vytvorenych v DeepFaceLab
Vaščák, Vladimír
This bachelor's thesis deals with the implementation of an application for comparing deepfake models created in the DeepFaceLab program. The main goal of this work is to design and implement an application that allows users to easily compare different versions of deepfake models or deepfake videos and thus evaluate the success of their creating. And then use the given application in DeepFaceLab. At the same time, it aims to present and familiarize the users with the issue of deepfake and the technology of deepfake. The result of this work is the functional application that allows users to compare the results of different models for a simple evaluation of success. The application was implemented in the Python programming language with the help of the Django framework and it utilizes libraries for working with images. The resulting application provides a quality tool for comparison, and its use makes sense in other areas as well.
Deepfake Detection Framework
Bernard, Jan ; Perešíni, Martin (referee) ; Malinka, Kamil (advisor)
Tvorba deepfake se za poslední dobu velmi zlepšila a tudíž je obávanou hroznou pro společnost. Detekční metody odhalující deepfake také reagovali rozvojem, ale stále není široké veřejnosti dostupné dostatečné množství kvalitních nástrojů. Tato práce se zaměřuje na vytvoření frameworku na detekci deepfake, který bude jednoduše rozšiřitlený dalšími detekčními metodami v budounu a přitom jednoduchý a dostupný široké veřejnosti.
Fake Face Detection in the Digital Images
Lapšanský, Tomáš ; Goldmann, Tomáš (referee) ; Orság, Filip (advisor)
V posledných rokoch môžeme pozorovať nárast a rýchly rozvoj neurónových sietí a umelej inteligencie v informačných technológiách, medzi ktoré patria aj deepfake fotografie a videá. Generatívne adverzné neurónové siete (GAN) sú toho jasným príkladom. V súčasnosti dokážu dosiahnuť výsledky, ktoré bežný človek nedokáže rozoznať od reality. Keďže tieto siete sa preto dajú zneužiť na rôzne účely, je potrebné vedieť rozlíšiť, čo je vygenerované a čo je skutočné. Táto práca skúma súčasné najmodernejšie riešenia neurónových sietí, ktoré môžu slúžiť ako vhodné modely na detekciu deepfake. Skúmame jednotlivé architektúry, ktoré sú vhodné ako základný model na detekciu, zaoberáme sa možnými vylepšeniami tohto modelu a vyvíjame niekoľko nových architektúr. Tie potom skúmame a vyhodnocujeme ich výsledky. V závere uvádzame diskusiu o výsledkoch a otvárame ďalšie otázky týkajúce sa tejto zložitej problematiky.
Testing the Robustness of a Voice Biometrics System against Deepfakes
Reš, Jakub ; Firc, Anton (referee) ; Malinka, Kamil (advisor)
Tématem této práce je vytvoření metodologie testování odolnosti hlasového biometrického systému vůči deepfakům. Hlavní problém v současné době leží v nedostatečném pokrytí testování proti prezentačním útokům užitím deepfaků ve standardech ISO/IEC. Cílem práce je vyplnění této mezery, vzniklé příchodem technologie deepfaků, navržením metodologie, založené na současných postupech, která se soustředí na pokrytí této problematiky. Řešení navrženého problému začíná studií nejnovějšího stavu oblasti deepfaků a standardních postupů pro testování biometrických systémů. Druhým krokem je navržení a zdokumentování metody testování hlasového biometrického systému. Test byl navržen jako scénář, ve kterém je hlasový biometrický systém Phonexia použit jako nástroj pro vzdálenou verifikaci použitý pro hlas-jako-heslo. Pro účely demonstrace byl použit veřejně online dostupná datová sada. Mimo samotný návrh testu jsem také zavedl nestandardní metriku vyhodnocení pro ukázku možností zaměření na různé typy deepfaků. Po provedení a vyhodnocení testů jsem zformuloval postup do obecné opakovatelné metodologie, obsahující praktiky a doporučení. Přínos této práce leží v zapracování deepfaků do existujících standardních metodologií testování biometrických systémů a tak formování a demonstrování opakovatelné metodologie.
Resilience of Biometric Authentication of Voice Assistants against Deepfakes
Šandor, Oskar ; Firc, Anton (referee) ; Malinka, Kamil (advisor)
S rozvojom technológie deepfake sa napodobňovanie hlasu cudzích ľudí stalo oveľa jednoduchším. Na napodobnenie hlasu osoby a prípadné oklamanie človeka alebo stroja už nie je potrebné mať profesionálneho imitátora. Útočníkom stačí niekoľko nahrávok hlasu osoby bez ohľadu na obsah, aby vytvorili klon hlasu za pomoci online nástrojov. V takom prípade dokáže útočník vytvoriť syntetické nahrávky s obsahom, ktorý daná osoba možno nikdy nepovedala. Tieto nahrávky sa dajú zneužiť napríklad na neoprávnené používanie hlasových asistentov. Cieľom tejto práce je zistiť, či hlasoví asistenti dokážu rozpoznať tieto nahrávky. Vykonané experimenty ukazujú, že deepfakes vytvorené v priebehu niekoľkých minút dokážu obísť schopnosť hlasových asistentov rozpoznať hovoriaceho a môžu byť použité na uskutočnenie viacerých útokov.
Deepfake Dataset for Evaluation of Human Capability on Deepfake Recognition
Radačovská, Karolína ; Malinka, Kamil (referee) ; Firc, Anton (advisor)
Umelá inteligencia je na ceste stať sa jednou z najpoužívanejších technológií vo svete. Mnohí z nás ju bez zaváhania využívajú každý deň. Zvykli sme si na ňu a začali sme jej dôverovať. Avšak, tiež je veľmi jednoduché jej padnúť za obeť. Táto práca reaguje na hrozby a riziká súvisiace s hlasovými deepfake technológiami, oblasťou umelej inteligencie. Primárnym cieľom tohto projektu je vykonať experiment s deepfake nahrávkami ohodnotenými navrhnutým systémom kvality. Našou motiváciou je neustále rastúci počet obetí podvodov hlasových deepfakes, nezodpovedané otázky v oblasti synteticým médií, a vykonané experimenty, ktoré dosiahli zaujímavé závery. Naše výsledky priniesli cenné informácie v oblasti ľudskej schopnosti rozpoznávať hlasové deepfakes na rôznych úrovniach kvality. Tiež sme zodpovedali otázky týkajúce sa ľudskej schopnosti rozpoznávať hlasové deepfakes v ich rodnom jazyku, alebo či dokážu častejšie rozpoznať hlasové deepfakes, keď použijú pre ich počúvanie slúchadlá miesto reproduktorov.
Assessing the Human Ability to Recognize Synthetic Speech
Prudký, Daniel ; Malinka, Kamil (referee) ; Firc, Anton (advisor)
Tato práce reaguje na vývoj umělé inteligence a jejího potencionálního zneužití v oblasti kybernetické bezpečnosti. Jejím cílem je otestovat a ohodnotit lidskou schopnost rozpoznávat podmnožinu syntetické řeči, zvanou hlasový deepfake. Práce popisuje experiment, ve kterém jsme s respondenty komunikovali pomocí hlasových zpráv. Respondentům jsme odprezentovali krycí příběh o tom, že testujeme uživatelskou přívětivost hlasových zpráv a přitom jim tajně během konverzace poslali předpřipravenou deepfake nahrávku a sledovali například jejich reakce, znalosti o deepfakes nebo kolik z respondentů správně určí, která zpráva byla upravená. Výsledky práce ukázali, že žádný z respondentů nezareagoval na podvodnou deepfake zprávu a pouze jeden zpětně přiznal, že si všiml něčeho konkrétního. Na druhou stranu, hlasovou zprávu, která obsahovala deepfake, po experimentu správně označilo 96,8% respondentů. Z výsledků tedy vyplývá, že ačkoli byla deepfake nahrávka snadno identifikovatelná mezi ostatními, nikdo na ni nezareagoval. Práce ukazuje, že lidská schopnost rozpoznávat hlasové deepfakes není na takové úrovni, abychom jí mohli důvěřovat. Pro lidi je velmi obtížné rozlišit mezi skutečnými a falešnými nahrávkami, zvláště pokud je nečekají.
Religious education in the digital age
POUROVÁ, Lucie
The thesis addresses the the complexity of orientation in the global information space. It draws attention to the problem of credibility of sources on the Internet. Catechesis for children and adults is closely linked to pedagogy. The rapid development of ICT leads to the need for lifelong learning and the acquisition of digital competences for teachers and students. The Internet offers materials for school religious education. The research part of this thesis deals with the practical application of these materials through ICT. The religion teachers are digitally competent. Religion teachers use digital technology as an occasional enrichment to their lessons and to enhance the understanding of the topics covered.
Reinventing the blurry oval: Practitioner perceptions of deepfakes as a tool for anonymisation in documentary film and video journalism
Weatherald, Nathalie Alice ; Lábová, Sandra (advisor) ; Silverio, Robert (referee)
In 2020, the documentary film Welcome to Chechnya disguised the sources it portrayed using deepfake-like 'digital masks', to wide acclaim: many described the use of the technology in this way to be game-changing for the industry. This qualitative study examines documentary filmmakers' and video journalists' (practitioners') perceptions of the benefits and limitations of the use of deepfakes, or AI-assisted synthetic media, to anonymise sources in their work, in the context of theoretical understandings of photographic realism and applied journalistic ethics. Through one unstructured interview with the film's visual effects supervisor, Ryan Laney, and eight semi-structured interviews with practitioners who have previously visually disguised sources, the study identifies four key themes of practitioners' views about the use of deepfakes as a tool to anonymise: the impacts on practitioner-source relations, practical considerations, aesthetic impacts of synthetic media and broader industry implications. Overall, practitioners emphasised the limitations of the potential use of deepfakes in this context, much more than the benefits.

National Repository of Grey Literature : 12 records found   1 - 10next  jump to record:
Interested in being notified about new results for this query?
Subscribe to the RSS feed.