Detailansicht

Subverting network intrusion detection
crafting adversarial examples accounting for Domain-Specific Constraints
Martin Teuffenbach
Art der Arbeit
Masterarbeit
Universität
Universität Wien
Fakultät
Fakultät für Physik
Studiumsbezeichnung bzw. Universitätlehrgang (ULG)
Masterstudium Computational Science
Betreuer*in
Claudia Plant
Volltext herunterladen
Volltext in Browser öffnen
Alle Rechte vorbehalten / All rights reserved
DOI
10.25365/thesis.63965
URN
urn:nbn:at:at-ubw:1-14824.09242.997060-5
Link zu u:search
(Print-Exemplar eventuell in Bibliothek verfügbar)

Abstracts

Abstract
(Deutsch)
Durch die stetig wachsenden Datenmengen die heutzutage im Internet verschicket werden ist der Bedarf an schnellen und zuverlässigen Network-based Intrusion Detection System (NIDS) gestiegen. Um dem nachzukommen sind Deep Learning (DL) Algorithmen in den Fokus der Wissenschaft gekommen, da diese akkurater und effzienter sind als andere Detektions-Techniken. Jedoch zeigten aktuelle Publikationen, dass vor allem Deep Neural Network (DNN) basierte Algorithmen, anfällig gegen sogenannte Adversarial Examples sind. Bei Adversarial Examples handelt es sich um Daten, welche manipuliert wurden um einen klassiffzierungs Algorithmus zu täuschen. Dieses Phänomen wurde erstmal im Bereich Computer-Vision untersucht. Forscher haben es geschafft, ein Bild eines Stoppschilds so zu verändern, dass das in einem Auto implementierte DNN es fälschlicherweise als Geschwindigkeitsbegrenzung 45mph Schild erkannt hat. In diesem Bereich spielt die Ununterscheidbarkeit für einen menschlichen Beobachter eine wichtige Rolle, das Ziel ist Daten nur minimal zu verändern, sodass kein visueller Unterschied zu echten Daten besteht, der Algorithmus jedoch nicht korrekt klassiffziert. Mit dem steigenden Interesse von DL Algorithmen im NIDS Bereich müssen Adversarial Examples als reale Bedrohung untersucht werden. Diese Masterarbeit wird zeigen, wie sich dieses Phänomen gegen Algorithmen zur Detektion von Angreifern verwendet werden können. Im Zuge dessen werden für den Internet Verkehr typische Beschränkungen formuliert und eine Metrik zur Evaluierung des Risikos eines Adversarial Example Angriffs entwickelt. Ein in der Forschung etablierten Algorithmus, der Carlini und Wagner Algorithmus, wird erweitert um Validitäts Beschränkungen zu berücksichtigen. Die Möglichkeit eines Angriffs auf ein Black-Box NIDS wird durch Anwendung des Transferabiltiy Theorems untersucht.
Abstract
(Englisch)
With the growing amount of data in today's internet traffc, the demand for faster and more robust NIDS is increasing. Therefore, application of Deep Learning (DL) algorithms to intrusion detection is gaining more interest. Deep learning algorithms outperform other detection algorithms when it comes to computational effciency and accuracy. However, machine learning based detectors and in particular deep learning approaches have recently been found vulnerable to so called adversarial examples, inputs crafted with the intent of causing classiffcation algorithms to misclassify with high confidence. Adversarial examples were discovered in the field of image recognition, where the concept of 'imperceptibility' for a human observer is vital. Researchers managed to fool an classiffer into labelling a STOP-sign as a 'Speed Limit 45' sign with a confidence over 90% by adding a Sticker. With the growing interest in DL applied in NIDS adversarial examples must be considered as a potential threat. This thesis will showcase how adversarial example attacks might be used to evade network intrusion detection systems. To transfer the idea from computer vision to the network security domain restrictions on the features were formulated and a metric for evaluating the risk was developed. An extended version of the Carlini and Wagner Attack algorithm alongside with feature-restrictions for adversarial examples for network-flow datasets to ensure validity constraints is proposed. To highlight the threat the possibility of a black-box attack utilizing the phenomenon of transferability is elaborated.

Schlagwörter

Schlagwörter
(Englisch)
Network Intrusion Detection Deep Neural Networks Adversarial Examples Machine Learning
Schlagwörter
(Deutsch)
Network Intrusion Detecion Neurale Netzwerke Künstliche Intelligenz Machine Learning Computer Science
Autor*innen
Martin Teuffenbach
Haupttitel (Englisch)
Subverting network intrusion detection
Hauptuntertitel (Englisch)
crafting adversarial examples accounting for Domain-Specific Constraints
Paralleltitel (Deutsch)
Umgehen von Network Intrusion Systemen mithilfe Domain spezifischer Adversarial Examples
Publikationsjahr
2020
Umfangsangabe
3, 56 Seiten : Illustrationen
Sprache
Englisch
Beurteiler*in
Claudia Plant
Klassifikationen
54 Informatik > 54.38 Computersicherheit ,
54 Informatik > 54.72 Künstliche Intelligenz
AC Nummer
AC16175720
Utheses ID
56746
Studienkennzahl
UA | 066 | 910 | |
Universität Wien, Universitätsbibliothek, 1010 Wien, Universitätsring 1