Bijan Kianoush Riesenberg - Adversariale Robustheit Neuronaler Netze

Bijan Kianoush Riesenberg - Adversariale Robustheit Neuronaler Netze

48,99 €

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird...

Direkt bei Thalia AT bestellen

Produktbeschreibung

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Marke Diplom.de
EAN 9783961168965
ISBN 978-3-96116-896-5

...

9,20 €

Samuel Hahnemann - Organon der Heilkunst
...

36,00 €

Michael Zeuske - Von Bolívar zu...
...

29,00 €

Walter Dietrich - Die dunklen Seiten...
...

13,00 €

Walther Hinz - Neue Erkenntnisse über...
...

12,90 €

Wolfgang Neuss - Neuss' Zeitalter

Beratungskontakt

contact-lady

Vereinbaren Sie ein kostenloses Erstgespräch. Wir beraten Sie gerne!



Kategorien