Národní úložiště šedé literatury Nalezeno 74 záznamů.  předchozí11 - 20dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Ethical Hacking and Cyber Security in Nigeria Telecommunication Industry: Issues and Solution
Akinyemi, Adetunji Akinfemiwa ; Střítecký, Vít (vedoucí práce) ; Špelda, Petr (oponent)
Ethical hacking and cyber security are crucial topics in today's increasingly digital world. The Nigerian telecommunication industry is no exception and must take measures to secure its information systems. This study examined the issues and solutions related to ethical hacking and cyber security in the Nigerian telecommunication industry. A descriptive and inferential study design was adopted in this study. Data was collected from a primary source using a self- administered questionnaire. The study involved 62 participants from the Nigerian telecommunication industry. The study's findings revealed that the Nigerian telecommunication industry faces various issues related to ethical hacking and cyber security, such as lack of technical expertise, insufficient budget allocation, and inadequate cyber security policies. However, the industry addresses these issues by investing in employee cyber security training and certification, increasing budget allocation, and implementing strict cyber security policies and guidelines. In conclusion, the Nigerian telecommunication industry recognizes the importance of ethical hacking and cyber security and is addressing its challenges. The study highlights the need for the industry to continue investing in cybersecurity measures and to stay updated with the latest...
How GPT-3 Can Augment Disinformation Campaigns
Saffel, William ; Střítecký, Vít (vedoucí práce) ; Špelda, Petr (oponent)
Tato disertační práce se snaží prozkoumat, jak lze umělou inteligenci, a zejména procesor přirozeného jazyka GPT-3, využít k rozšíření dezinformačních kampaní. Vzhledem k tomu, že dezinformační kampaně rostou na složitosti a jsou pravidelně používány v moderních konfliktech, a jak roste schopnost a dostupnost umělé inteligence, stává se věrohodnějším způsobem, jak tyto kampaně rozšířit. V této průzkumné případové studii prozkoumám dva případy dezinformačních kampaní v ukrajinské válce - dezinformační kampaň kolem nacismu na Ukrajině a masakr v Bucha. Každý případ je analyzován optikou úkolů, které může GPT-3 provádět. Tato disertační práce zjišťuje, že tato umělá inteligence má skutečně vysoký potenciál pro rozšiřování dezinformačních kampaní různými způsoby. Zjišťuje, že narativy lze destilovat do "narativních odrážek", které mohou být užitečným a účinným nástrojem pro školení GPT-3, aby byly efektivnější při vytváření dezinformací.
Failure Modes of Large Language Models
Milová, Soňa ; Špelda, Petr (vedoucí práce) ; Střítecký, Vít (oponent)
Failure Modes of Large Language Models Soňa Milová Abstract Diploma thesis "The failure modes of Large Language Models" focuses on addressing failure modes of Large Language Models (LLMs) from the ethical, moral and security point of view. The method of the empirical analysis is document analysis that defines the existing study, and the process by which failure modes are selected from it and analysed further. It looks closely at OpenAI's Generative Pre-trained Transformer 3 (GPT-3) and its improved successor Instruct Generative Pre-trained Transformer (IGPT). The thesis initially investigates model bias, privacy violations and fake news as the main failure modes of GPT-3. Consequently, it utilizes the concept of technological determinism as an ideology to evaluate whether IGPT has been effectively designed to address all the aforementioned concerns. The core argument of the thesis is that the utopic and dystopic view of technological determinism need to be combined with the additional aspect of human control. LLMs are in need of human involvement to help machines better understand context, mitigate failure modes, and of course, to ground them in reality. Therefore, contextualist view is portrayed as the most accurate lens through which to look at LLMs as it argues they depend on the responsibilities,...
Treating social media platforms as public utility: the case of the DSA package
Rybnikár, Jakub ; Špelda, Petr (vedoucí práce) ; Střítecký, Vít (oponent)
Platformy sociálnych médií sa stali neoddeliteľnou súčasťou sociálnej reality. Odpoveďou na tento trend sa stal neustále zvyšujúci sa počet vedeckých prác, ktoré skúmajú riziká týchto platforiem a ich dopad na spoločnosť. Prihliadnuc na neustále sa zhoršujúcu situáciu predložila Európska Únia súbor opatrení a legislatívnych návrhov, ktoré by mali poskytnúť komplexnú odpoveď na celý set bezpečnostných rizík spojených s platformami sociálnych médií. Aj napriek snahám o riešenie tejto vznikajúcej bezpečnostnej hrozby existuje len veľmi málo teoretických a empirických štúdií týkajúcich sa prieniku medzi bezpečnosťou, technológiami a právom. Jednou z najzaujímavejších, avšak málo preskúmaných oblastí tohto prieniku je koncepčné chápanie platforiem sociálnych médií. Na základe najnovších poznatkov z bezpečnostných, mediálnych a právnych odborov sa táto práca snaží predstaviť novú agendu do bezpečnostných štúdií a tým prispieť k vytvoreniu koncepčného rámca potrebného pre ďalšie skúmanie týchto nových techno-vedeckých artefaktov. Predmetná diplomová práca aplikuje concept verejných služieb na platformy sociálnych médií, a tak prináša dôležité empirické dôkazy o relevantnosti skúmanej problematiky. Práca využíva inovatívny teoretický rámec, tzv. multiple streams framework, a na jeho základe vykonáva...
Safe and Secure High-Risk AI: Evaluation of Robustness
Binterová, Eliška ; Špelda, Petr (vedoucí práce) ; Střítecký, Vít (oponent)
Cílem této magisterské diplomové práce je zkoumat metodu IRM, která se používá pro zajištění robustnosti v modelech strojového učení, a zhodnotit, zda tato metoda může případně sloužit pro účely nově se vyvíjející evropské legislativy upravující využití umělé inteligence. Výzkum ukazuje, že mnoho případů pochybení autonomních systémů má na svědomí nedostatečná robustnost těchto systémů vůči změnám ve zpracovávaných datech. Z tohoto důvodu nejsou tyto systémy pak schopné správně zobecňovat v nových prostředích. Aby byly modely schopny dosáhnout uspokojivých výsledků, musí dosahovat určité úrovně robustnosti. Metoda IRM vznikla relativně nedávno pro účely zajištění robustnosti a tedy i spolehlivosti AI systémů. Stejný cíl si klade i nově vznikající evropská legislativa, která usiluje o spolehlivé AI. Diplomová práce zkoumá kompatibilitu požadavků AI Aktu a IRM metody a klade si otázku, zda je možné metodu IRM univerzálně využívat pro zajištění bezpečného AI skrze analýzu existujících empirických i teoretických poznatků.
The End of Pluralism in Hungary: Hungarian Propaganda in Action
Nagy, Kitti ; Střítecký, Vít (vedoucí práce) ; Špelda, Petr (oponent)
Tato práce se věnuje šíření propagandy v Maďarsku v průběhu doby 6 let, od roku 2016 do roku 2021. Ke zkoumání propagandy bylo využito neřízeného strojového učení a modelování témat za účelem analýzy 6 let novinových článků v Magyar Nemzet. Analýza odhalila v průběhu let trendová témata a také zajímavé kombinace slov v článcích. V průběhu prvních 3 let byly noviny nezávislé, což se změnilo v roce 2018 se změnou vlastníka, a noviny se staly otevřeně provládními a zahájily šíření propagandy. Práce ukazuje aktuální stav maďarských médií, kde většina novinářských agentur byla získána vládou. Analýza titulu Magyar Nemzet odhaluje, že je propaganda využívána jako nástroj k posílení pozice Viktora Orbána a k odůvodnění vládního jednání.
Beyond the algorithms: Evaluating the risks of deploying machine learning in domestic counterterrorism: A comparison between predictive policing and counterterrorism activities
Bicknese, Emma Lisa ; Špelda, Petr (vedoucí práce) ; Kaczmarski, Marcin (oponent)
Over the last decades, Machine Learning (ML) has been implemented in nearly every part of our daily lives. Whereas this development was heavily discussed in the area of predictive policing (PP), there was little public debate when it comes to ML's implementation in domestic counterterrorism (CT). This is due to the fact that the counterterrorism domain is a very non- transparent field. Classified information forms an obstacle to proper scholarly analysis. The thesis aims to contribute to the public debate on the implementation of ML in CT by asking the following research question: examining critiques provided by scholars on predictive policing, what are the risks of deploying machine learning tools in domestic counterterrorism? A comparative case study method supplemented by scenario-building allows for an analysis of the risks of ML/CT. More specifically, by using PP arguments as a proxy for CT, arguments can be made to show that the technical and socio-technical risks, in most cases, also hold for counterterrorism tools. The analysis highlights those risks by exploring PP arguments for three CT instruments: individual risk assessments, biometric tools (most notably facial recognition technology), and general models that predict details of future terrorist attacks. It was found that only the last...
Security as Simulacra: Surveilling gendered bodies and constructing security out of computation
Shlifer, Hallie Quinn ; Kaczmarski, Marcin (vedoucí práce) ; Špelda, Petr (oponent)
Student #: 60106041 Abstract Artificial Intelligence has become ubiquitous across the field of security and defence, especially in applications alongside surveillance. In this Dissertation I interrogate the question of how, through application and out of discourse AI impacts the securitization of Muslim women's veiling practices within the EU. I argue that the discourse constructed around the use of AI, through official documents written and commissioned by the various EU bodies, forms a cohesive body. Using discourse analysis, I trace the patterns throughout the documents and connect them to manifestations in rhetoric on the wearing of veils in public at the EU institutional level. Through this method, I conclude that the discourses of AI surveillance manifest in the way laws are applied to women who wear Islamic veils, and their identification as a security threat to Europe as a both a political and conceptual unit. Furthermore, finding that the discourses of security and science intermingle to form a rigid notion of risk which further corners women who are already marginalized by European security frameworks.
Framing artificial intelligence: The interplay between AI policies and security in the European Union
Leuca, Stefania Bianca ; Peacock, Timothy (vedoucí práce) ; Špelda, Petr (oponent)
Artificial Intelligence (AI) is increasingly more embedded into our lives. Hence, the literature that explores the new technology is vast. However, there is a lack of resources that address how the technology is framed at the level of the European Union (EU). Specifically, few studies assess whether there are differences between the institutions' framing of AI policies. Scholars also overlook the potential implications of AI for the security of the Union. The present study seeks to fill in these gaps by examining how the European Commission (EC) and the European Parliament (EP) frame AI security policies. The dissertation also investigates whether there are differences between the institutions in how AI security policies. To do this, the research is split into two main sections. The first section explores how the two institutions frame AI security using a combination of the Policy Framing approach and qualitative content analysis. The unique research design was used on 10 official documents released by the EC and EP between 2017 and 2021. On the one hand, the outcome indicates that the EC frames AI policies through the perspective of three security areas, namely economic, social, and political. On the other hand, the EP's framing of AI policies considers the same areas of security while also adding...
Total ban or responsible use? A policy survey to better regulate the use of AI-powered video surveillance in law enforcement in the European Union
Rolland, Apolline Mireille Karin ; Špelda, Petr (vedoucí práce) ; Glouftsios, Georgios (oponent)
AI-powered video surveillance is a heated issue in the European Union which has given rise to a very polarised debate. On the one hand, proponents advocate for its ability to make cities safer and better protect people. On the other hand, opponents are concerned about the technology's threat to fundamental rights and individual freedoms, such as the right to privacy or fear of the risk of discrimination. European institutions have started attempts at regulating the technology but have so far been struggling with the development of a broad regulation that accounts for the diversity of applications found in AI-powered video surveillance, protects citizens, and encourages innovation at the same time. This dissertation therefore investigates how to implement responsible use of AI-powered video surveillance for predictive policing purposes. To do so, the analysis is divided into two parts which correspond to the two main branches of application of AI-powered video surveillance: object-centred and person-centred AI-powered video surveillance. It first uses securitisation theory to situate the debate. Next, it uses Document Analysis and coding to analyse the qualitative data. The qualitative data encompasses policy and technical documents to allow for a nuanced approach to the issue that accounts for the...

Národní úložiště šedé literatury : Nalezeno 74 záznamů.   předchozí11 - 20dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.