Voici le dépôt github de notre projet de MLA. Nous avons étudié l'article "Explaining and Harnessing Adversarial Examples" qui traite des fameuses adversarial attacks. Cet article propose une approche afin d'expliquer l'origine de l'effet de ces attaques et tente par la suite de prouver diverses thèses par un ensemble d'expériences mettant en lumière l'application d'attaques adversarial sur différents types de modèles de clasiffication d'image en se basant sur le dataset MNIST.
- 1 - Fast gradient sign method : Tout le groupe
- 2 - Modèle de régression logistique appliqué sur des exemples modifiés par adversalrial attaques : Loris
- 3 - Adversarial training = exemple contre classifieur et régularisation : Florent
- 4 - RBF network vs adversarial : Quentin
- 5 - Expliquer comment l'attaque adversarial se généralise à plusieurs modèles : AL