Národní úložiště šedé literatury Nalezeno 5 záznamů.  Hledání trvalo 0.00 vteřin. 
Improving Robustness of Neural Networks against Adversarial Examples
Gaňo, Martin ; Matyáš, Jiří (oponent) ; Češka, Milan (vedoucí práce)
This work discusses adversarial attacks to image classifier neural network models. Our goal is to summarize and demonstrate adversarial methods to show that they pose a serious issue in machine learning. The important contribution of this work is the implementation of a tool for training a robust model against adversarial examples. Our approach is to minimize maximization the loss function of the target model. Related work and our own experiments leads us to use Projected gradient descent as a target attack, therefore, we train against data generated by Projected gradient descent. As a result using the framework, we can achieve accuracy more than 90% against sophisticated adversarial attacks.
Improving Robustness of Neural Networks against Adversarial Examples
Gaňo, Martin ; Matyáš, Jiří (oponent) ; Češka, Milan (vedoucí práce)
This work discusses adversarial attacks to image classifier neural network models. Our goal is to summarize and demonstrate adversarial methods to show that they pose a serious issue in machine learning. The important contribution of this work is the implementation of a tool for training a robust model against adversarial examples. Our approach is to minimize maximization the loss function of the target model. Related work and our own experiments leads us to use Projected gradient descent as a target attack, therefore, we train against data generated by Projected gradient descent. As a result using the framework, we can achieve accuracy more than 90% against sophisticated adversarial attacks.
Adversarial examples generation for deep neural networks
Procházka, Štěpán ; Neruda, Roman (vedoucí práce) ; Kratochvíl, Miroslav (oponent)
Modely strojového učení vykazují náchylnost k útokům za použití adversariálních vzorů, tedy uměle připravených vstupů s cílem zmást model. Předpokládaná práce si dává za cíl prozkoumat metody generování těchto vzorů v případě black-box útoku vedeného proti hlubokým neuronovým sítím určených pro klasifikaci obrazových dat. Posoudili jsme úspěšnost metod používajících zástupné (surrogate) modely a navrhli jsme vlastní řešení pro účely adversariálního útoku, založené na genetických algoritmech. Úspěšnost zkoumaných metod jsme ověřili provedením několika experimentů na datasetu Fashion MNIST. Empiricky bylo ověřeno, že námi navrhované řešení vykazuje skvělé výsledky, zejména v případě necíleného útoku na residuální konvoluční sítě.
Adversarial Examples in Machine Learning
Kocián, Matěj ; Pilát, Martin (vedoucí práce) ; Neruda, Roman (oponent)
Hluboké neuronové sítě v poslední době dosahují vysoké úspěšnosti na mnoha úlohách, zejména klasifikaci obrázků. Tyto modely jsou ovšem snadno ovlivni- telné lehce pozměněnými vstupy zvanými matoucí vzory. Matoucí vzory mohou značně snižovat úspěšnost a tak ohrozit systémy, které modely strojového učení využívají. V této práci přinášíme rešerši literatury o matoucích vzorech. Dále navrhujeme nové obrany proti matoucím vzorům: síť kombinující RBF jednotky s konvolucí, kterou testujeme na datové sadě MNIST a která má lepší úspěšnost než CNN trénovaná pomocí matoucích vzorů, a diskretizaci vstupního prostoru, kterou testujeme na datových sadách MNIST a ImageNet a dosahujeme slibných výsledků. Na závěr zkoumáme možnost generování matoucích vzorů bez přístupu ke vstupu, který má být pozměněn. 1
Using Adversarial Examples in Natural Language Processing
Bělohlávek, Petr ; Žabokrtský, Zdeněk (vedoucí práce) ; Libovický, Jindřich (oponent)
Strojové učení patří v posledních letech k hojně studovaným oborům. Jednou ze zkoumaných oblastí je využívání adverzálních příkladů, což jsou uměle vytvořené příklady, které mají dva charakteristické rysy. Jsou velmi podobné skutečným trénovacím příkladům a předem natrénované modely na nich dosahují podstatně horších výsledků. Adverzální příklady již byly studovány v kontextu hlubokých konvolučních neuronových sítí, které zpra- covávají obrázky, ale jejich vlastnosti byly jen zřídka zkoumány v souvis- losti s rekurentními sítěmi zpracovávajícími přirozený jazyk. Tato práce an- alyzuje dopady využívání adverzálních příkladů na trénování rekurentních neuronových sítí. Konkrétně se práce soustředí na rekurentní sítě, které mají na vstupu posloupnost slov nebo znaků v jejich vektorových reprezentacích. Tyto reprezentace nebyly předem natrénovány. Za účelem vyhodnocení vlivu adverzálního tréninku jsou studovány různé datové sady z oblasti zpracování přirozeného jazyka.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.