Game Over Eva(sion):Sicheres Deep Learning mit Spieltheorie
Game Over Eva(sion): Securing Deep Learning with Game Theory
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Deep Learning,
Security,
Game Theory,
Evasion Attacks
Das Projekt Game Over Eva(sion):Sicheres Deep Learning mit Spieltheorie zielt darauf ab, Klassifizierer die auf sogenanntem Deep Learning basieren gegen gezielte Angriffe zu schützen. Diese Klassifizierer sind sowohl in der wissenschaftlichen Forschung als auch im praktischen Einsatz sehr weit verbreitet. Unter anderem nutzen selbstfahrende Autos, Smartphones und digitale persönliche Assistenten diese Art von Algorithmen. Leider hat die Forschung in letzter Zeit gezeigt, dass Deep Learning- Klassifizierer sehr anfällig für strategische Angriffe sind. Vor allem die sogenannten Evasion-Angriffe, bei denen ein Angreifer es schaffen kann, durch sehr kleine Änderungen ein Objekt völlig falsch klassifizieren zu lassen, stellen ein ungelöstes Problem für fast alle Deep Learning- Klassifizierer dar. Wir modellieren den Wettbewerb zwischen einem Angreifer welcher Evasion-Angriffe durchführt und einem Verteidiger, der einen robusten Deep Learning-Klassifizierer trainieren möchte mithilfe der Spieltheorie. Dazu werden wir in einem ersten Schritt erörtern welche Konzepte aus verwandten Disziplinen wie der Angreifer- antizipierenden Klassifikation auf den Bereich des Deep Learning angewandt werden können. Desweiteren werden wir ein spieltheoretisches Model entwickeln um die Abhängigkeiten von Angriffstaktik und Verteidigungstaktik erfassen zu können. Im Laufe des Projekts versprechen wir uns die ersten theoretisch fundierten Ergebnisse zur allgemein erreichbaren Sicherheit solcher Klassifizierer überhaupt. Zudem können wir bisherige, größtenteils heuristisch hergeleitete Verteidigungsmaßnahmen auf ihre Optimalität überprüfen. Letztendlich wollen wir die wesentlichen Eigenschaften unserer theoretischen Analysen in einer praktischen Implementierung eines solchen Klassifizierers umsetzen und diesen Klassifizierer mit anderen Klassifizierern auf dem neusten Stand der Technik vergleichen. Somit können wir validieren, inwieweit es unser Ansatz ermöglicht, Deep Learning-Klassifizierer vor gezielten Angriffen zu schützen. Die erwarteten Ergebnisse dieses Projekts werden erstmals Aussagen darüber zulassen, inwieweit Deep Learning-Klassifizierer dafür geeignet sind, großflächig auch in sicherheitskritischen Bereichen eingesetzt zu werden.
Im Forschungsprojekt "Game Over Eva(sion): Securing Deep Learning with Game Theory" widmeten wir uns der Thematik des maschinellen Lernens unter Berücksichtigung von Angreifer*innen (Adversarial Machine Learning) und seiner Bedeutung für die Sicherheit von Deep Learning-Systemen. Der Fokus lag auf der Entwicklung von Strategien und Methoden zur Verbesserung der Robustheit dieser Systeme gegen gezielte Angriffe. Das behandelte Forschungsfeld besteht seit dem Jahr 2004, angestoßen durch die Entdeckung, dass selbst komplexe Spamfilter durch minimale Änderungen an E-Mails getäuscht werden können. Diese Erkenntnis führte zu einer intensiven Beschäftigung mit der Sicherheit von Machine Learning-Modellen, insbesondere im Hinblick auf Deep Neural Networks (DNNs), die seit 2013 verstärkt in den Fokus gerückt sind. Im Zuge des Projekts widmeten wir uns zwei verschiedenen Arten von Angriffsbeispielen: Sensitivitätsbasierten und Invarianzbasierten Angriffsbeispielen. Sensitivitätsbasierte Beispiele beleuchten, wie geringfügige Modifikationen in den Eingabedaten die Vorhersagen eines Modells beeinflussen und gezielt täuschen können. Im Gegensatz dazu konzentrieren sich Invarianzbasierte Beispiele darauf, wie Änderungen in den Daten die Wahrnehmungen von Mensch und Maschine unterschiedlich beeinflussen. Zusammengefasst unterscheiden sich bei beiden Arten von Angriffsbeispielen die Entscheidung von Menschen und den Algorithmen des maschinellen Lernens. Ein zentrales Ergebnis des Projekts ist die Entwicklung des "Advanced Adversarial Classification Game", einem spieltheoretischen Modell, das die Wechselwirkungen zwischen Angreifer*innen (die sensitivitätsbasierte Angriffsbeispiele erstellen) und Verteidiger*innen (die versuchen, ihre Modelle gegen solche Angriffe zu schützen) darstellt. Dieser Ansatz ermöglicht es, die ökonomischen und strategischen Aspekte im Adversarial Machine Learning zu untersuchen und zu verstehen. Zudem wurden im Rahmen des Projekts experimentelle Untersuchungen durchgeführt, um die Auswirkungen von Invarianzbasierten Angriffsbeispielen auf die menschliche Wahrnehmung zu erforschen. Diese Forschung führte zur Entwicklung von Algorithmen zur Erzeugung solcher Beispiele, was wiederum tiefe Einblicke in die Unterschiede zwischen menschlicher und maschineller Wahrnehmung ermöglichte. Die Ergebnisse des Projekts "Game Over Eva(sion)" zeigt die Wichtigkeit der stetigen Weiterentwicklung und Anpassung von Sicherheitsstrategien im Bereich des Deep Learning auf. Vor allem, da Algorithmen des maschinellen Lernens mehr und mehr Bereiche des täglichen Lebens beeinflussen, wird die Sicherheit dieser Algorithmen zusehends wichtiger, sowohl für die akademische Welt, als auch für die praktische Anwendung in der Industrie.
- MC Innsbruck - 100%
- Thomas Pevny, Czech Technical University in Prague - Tschechien
Research Output
- 76 Zitationen
- 11 Publikationen
- 2 Weitere Förderungen
-
2023
Titel On the Effect of Adversarial Training Against Invariance-based Adversarial Examples DOI 10.1145/3589883.3589891 Typ Conference Proceeding Abstract Autor Nocker M Seiten 54-60 -
2023
Titel On the Effect of Adversarial Training Against Invariance-based Adversarial Examples DOI 10.48550/arxiv.2302.08257 Typ Other Autor Nocker M Link Publikation -
2024
Titel On the Economics of Adversarial Machine Learning DOI 10.1109/tifs.2024.3379829 Typ Journal Article Autor Merkle F Journal IEEE Transactions on Information Forensics and Security -
2023
Titel Pruning forPower: Optimizing Energy Efficiency inIoT withNeural Network Pruning; In: Engineering Applications of Neural Networks - 24th International Conference, EAAAI/EANN 2023, Len, Spain, June 14-17, 2023, Proceedings DOI 10.1007/978-3-031-34204-2_22 Typ Book Chapter Verlag Springer Nature Switzerland -
2020
Titel Machine Unlearning: Linear Filtration for Logit-based Classifiers DOI 10.48550/arxiv.2002.02730 Typ Preprint Autor Baumhauer T -
2021
Titel When Should You Defend Your Classifier? DOI 10.1007/978-3-030-90370-1_9 Typ Book Chapter Autor Samsinger M Verlag Springer Nature Seiten 158-177 -
2021
Titel Adversarial Examples Against a BERT ABSA Model – Fooling Bert With L33T, Misspellign, and Punctuation, DOI 10.1145/3465481.3465770 Typ Conference Proceeding Abstract Autor Hofer N Seiten 1-6 -
2022
Titel Machine unlearning: linear filtration for logit-based classifiers DOI 10.1007/s10994-022-06178-9 Typ Journal Article Autor Baumhauer T Journal Machine Learning Seiten 3203-3226 Link Publikation -
2022
Titel Pruning in the Face of Adversaries DOI 10.1007/978-3-031-06427-2_55 Typ Book Chapter Autor Merkle F Verlag Springer Nature Seiten 658-669 -
2022
Titel U Can’t (re)Touch This – A Deep Learning Approach for Detecting Image Retouching DOI 10.1007/978-3-031-06430-2_11 Typ Book Chapter Autor Aumayr D Verlag Springer Nature Seiten 127-138 -
0
DOI 10.1145/3589883 Typ Other
-
2021
Titel Secure Machine Learning Applications with Homomorphically Encrypted Data (ICT of the Future) Typ Research grant (including intramural programme) Förderbeginn 2021 Geldgeber Austrian Research Promotion Agency -
2023
Titel Josef Ressel Centre for Security Analysis of IoT Devices Typ Research grant (including intramural programme) Förderbeginn 2023 Geldgeber Christian Doppler Research Association