Qu'est-ce qu'une attaque d'IA accusatoire ?

Qu'est-ce qu'une attaque d'IA accusatoire ?

Deep learning technologies like Artificial Intelligence (AI) and machine learning (ML) present a range of business benefits to enterprises. At the same time, an adversarial AI attack is a growing security challenge for modern systems.
What is an Adversarial AI attack? A form of cyberattack that “fools” AI models with deceptive data. Also known as Adversarial ML, this form of attack has largely been reported in image classification and spam detection.
Next, let’s discuss the various risks posed by an Adversarial AI attack.

Risques posés par une attaque de l'IA adverse

Selon le Alexey Rubtsov de l'Institut mondial du risque, "l'apprentissage automatique antagoniste exploite les vulnérabilités et les spécificités des modèles d'apprentissage automatique". Par exemple, l'apprentissage automatique antagoniste peut amener un algorithme de négociation basé sur l'apprentissage automatique à prendre des décisions erronées en matière de négociation.

En quoi une attaque d'IA adversariale représente-t-elle un risque pour les systèmes d'IA et de ML ? Voici quelques constatations courantes :
Ingénierie des médias sociaux : Dans ce cas, l'attaque d'IA "scrape" les profils d'utilisateurs sur les plateformes de médias sociaux en utilisant l'automatisation. Elle génère ensuite automatiquement du contenu pour "appâter" le profil visé.

Les Deepfakes : Typically used in banking frauds, deepfakes are online threat actors that can achieve a range of nefarious objectives including:
Blackmail and extortion
Damaging an individual’s credibility and image
Document fraud
Social media for individual or group harassment

Dissimulation de logiciels malveillants : Dans ce cas, les acteurs de la menace s'appuient sur la ML pour dissimuler les logiciels malveillants dans un trafic "malveillant" qui semble normal aux yeux des utilisateurs normaux.

Mots de passe : Les attaques d'IA adverses peuvent même analyser un grand nombre de mots de passe et générer des variations. En d'autres termes, ces attaques rendent le processus de craquage des mots de passe plus "scientifique". Outre les mots de passe, l'intelligence artificielle permet également aux acteurs de la menace de résoudre les CAPTCHA.

Exemples d'attaques d'IA adverses

En utilisant des exemples d'IA adverses, les pirates peuvent simplement concevoir une attaque pour amener le modèle d'IA à commettre une erreur. Par exemple, une version corrompue d'une entrée valide du modèle.

Voici quelques exemples de méthodes utilisées dans les attaques d'IA adverses :
Méthode du signe de gradient rapide (FastGradient Sign method - FGSM) : Il s'agit d'une méthode basée sur le gradient qui permet de générer des exemples d'IA adversaires afin de provoquer une mauvaise classification des images. Pour ce faire, elle ajoute une quantité minimale de perturbations au pixel de l'image.

Broyden-Fletcher-Goldfarb-Shanno (L-BFGS) à mémoire limitée : Cette méthode est un autre algorithme d'optimisation numérique non linéaire basé sur le gradient qui peut minimiser le nombre de perturbations de l'image. Cette méthode est extrêmement efficace pour générer des exemples d'intelligence artificielle adverses.

Attaque de Deepfool : Il s'agit d'une autre méthode très efficace pour produire des attaques IA adverses avec un taux élevé de mauvaises classifications et moins de perturbations. Cette forme d'attaque utilise une technique de génération d'échantillons adverses non ciblés pour réduire la distance euclidienne entre les échantillons originaux et les échantillons perturbés.

Attaque par carte de saillance basée sur le jacobien (JSMA) : Dans cette forme d'attaque de l'intelligence artificielle, les pirates utilisent la sélection des caractéristiques pour minimiser le nombre de caractéristiques modifiées, ce qui entraîne une classification erronée. Des perturbations plates sont ajoutées itérativement aux caractéristiques en fonction de la valeur de saillance, par ordre décroissant.

Il ne s'agit là que de quelques exemples d'IA adverses. Voyons maintenant comment se défendre contre les attaques de l'IA adverse.

Comment se défendre contre les attaques de l'intelligence artificielle

221122 skim ai infographic 2 png 01

221122 skim ai infographic 2 png 01


Pour se défendre contre les attaques d'IA adverses, les organisations doivent adopter une approche globale de la gestion de l'intelligence artificielle. Il s'agit notamment de renforcer toutes les opérations liées à l'intelligence artificielle et de surveiller en permanence toute faille dans la défense contre l'intelligence artificielle.

Here’s what a typical defense strategy against Adversarial AI attacks must comprise of:
Creating an existing risk assessment for every ML implementation.
Assigning proper ownership of all ML-related content and operational governance.
Creating new security policies for defending against Adversarial AI attacks.

Parmi les approches de défense efficaces, MLOps est utilisé pour concevoir, développer et exploiter des modèles de ML, ainsi que pour tester et valider les modèles. MLOps est un ensemble de bonnes pratiques qui intègre le meilleur de l'apprentissage automatique, du DevOps et de l'ingénierie des données. Il met en œuvre un processus itératif et incrémental comprenant les éléments suivants :
Conception :
Requirements engineering
Prioritization of ML use cases
Checking the data availability
Développement de modèles :
Data Engineering
ML model engineering
Model testing and validating
Opérations :
ML model deployment
CI/CD pipeline development
Operational monitoring and triggering

Conclusion

Selon la Commission nationale de sécurité des États-Unis rapport Dans le domaine de l'intelligence artificielle, un faible pourcentage des fonds consacrés à la recherche sur l'intelligence artificielle est investi dans la défense des systèmes d'intelligence artificielle contre les attaques adverses. L'adoption croissante de l'IA et des technologies d'apprentissage automatique est en corrélation avec l'augmentation des attaques adverses par l'IA. En effet, les systèmes d'IA et d'apprentissage automatique constituent une nouvelle surface d'attaque, ce qui accroît les risques liés à la sécurité.

Let’s Discuss Your Idea

    Related Posts

    Ready To Supercharge Your Business

    LET’S
    TALK
    fr_FRFrançais