Lade Inhalt...

Adversariale Robustheit Neuronaler Netze

Verteidigungen gegen Vermeidungsangriffe zur Testzeit

©2019 Projektarbeit 120 Seiten

Zusammenfassung

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.

Details

Seiten
120
Erscheinungsform
Originalausgabe
Jahr
2019
ISBN (PDF)
9783961163960
ISBN (Paperback)
9783961168965
Sprache
Deutsch
Institution / Hochschule
Fachhochschule Dortmund – Informatik
Erscheinungsdatum
2020 (Dezember)
Note
1,0
Schlagworte
Neuronale Netze Maschinelles Lernen ZOO JSMA Spamfilter
Zurück

Titel: Adversariale Robustheit Neuronaler Netze
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
book preview page numper 22
book preview page numper 23
book preview page numper 24
book preview page numper 25
120 Seiten
Cookie-Einstellungen