Was ist ein feindlicher KI-Angriff?

Was ist ein feindlicher KI-Angriff?

Deep learning technologies like Artificial Intelligence (AI) and machine learning (ML) present a range of business benefits to enterprises. At the same time, an adversarial AI attack is a growing security challenge for modern systems.
What is an Adversarial AI attack? A form of cyberattack that “fools” AI models with deceptive data. Also known as Adversarial ML, this form of attack has largely been reported in image classification and spam detection.
Next, let’s discuss the various risks posed by an Adversarial AI attack.

Risiken, die ein KI-Angriff birgt

Nach Angaben von Alexey Rubtsov des Global Risk Institute, "nutzt gegnerisches maschinelles Lernen Schwachstellen und Besonderheiten von ML-Modellen aus". So kann beispielsweise ein ML-basierter Handelsalgorithmus durch negatives ML dazu gebracht werden, falsche Handelsentscheidungen zu treffen.

Inwiefern stellt ein KI-Angriff ein Risiko für KI- und ML-Systeme dar? Hier sind einige allgemeine Erkenntnisse:
Social Media Engineering: In diesem Fall "kratzt" die KI-Attacke mithilfe von Automatisierung an Nutzerprofilen auf Social-Media-Plattformen. Anschließend generiert er automatisch Inhalte, um das gewünschte Profil zu "locken".

Deepfakes: Typically used in banking frauds, deepfakes are online threat actors that can achieve a range of nefarious objectives including:
Blackmail and extortion
Damaging an individual’s credibility and image
Document fraud
Social media for individual or group harassment

Versteckte Malware: Hier nutzen Bedrohungsakteure ML, um die Malware in "bösartigem" Datenverkehr zu verstecken, der für normale Benutzer normal aussieht.

Passwörter: KI-Angriffe können sogar einen großen Satz von Kennwörtern analysieren und Variationen erzeugen. Mit anderen Worten: Diese Angriffe machen das Knacken von Passwörtern "wissenschaftlicher". Abgesehen von Passwörtern können Bedrohungsakteure mit ML auch CAPTCHAs lösen.

Beispiele für feindliche KI-Angriffe

Durch die Verwendung von KI-Beispielen können Hacker einfach einen Angriff entwerfen, um das KI-Modell zu einem Fehler zu veranlassen. Zum Beispiel durch eine verfälschte Version einer gültigen Modelleingabe.

Hier sind einige bekannte Beispiele für Methoden, die bei KI-Angriffen eingesetzt werden:
FastGradient Sign-Methode (FGSM): Dabei handelt es sich um eine gradientenbasierte Methode, mit der Adversarial AI-Beispiele erzeugt werden können, um eine Fehlklassifizierung von Bildern zu bewirken. Dies geschieht durch Hinzufügen einer minimalen Störung zu den Bildpixeln.

Broyden-Fletcher-Goldfarb-Shanno (L-BFGS) mit begrenztem Gedächtnis: Bei dieser Methode handelt es sich um einen weiteren nichtlinearen gradientenbasierten numerischen Optimierungsalgorithmus, der die Anzahl der Bildstörungen minimieren kann. Diese Methode ist äußerst effektiv bei der Erstellung von Adversarial-KI-Beispielen.

Deepfool-Angriff: Dies ist eine weitere sehr wirksame Methode zur Erzeugung von KI-Angriffen mit einer hohen Fehlklassifizierungsrate und weniger Störungen. Bei dieser Form des Angriffs wird eine ungezielte Technik zur Generierung negativer Proben verwendet, um den euklidischen Abstand zwischen den ursprünglichen und den gestörten Proben zu verringern.

Jacobian-basierter Salienzkarten-Angriff (JSMA): Bei dieser Form des feindlichen KI-Angriffs verwenden Hacker die Merkmalsauswahl, um die Anzahl der geänderten Merkmale zu minimieren, was zu einer Fehlklassifizierung führt. Flache Störungen werden iterativ zu den Merkmalen hinzugefügt, basierend auf dem Auffälligkeitswert in abnehmender Reihenfolge.

Dies sind nur einige Beispiele für KI-Angriffe. Als Nächstes wollen wir erörtern, wie man sich gegen KI-Angriffe verteidigen kann.

Wie man sich gegen KI-Angriffe verteidigt

221122 ai-Infografik überfliegen 2 png 01

221122 ai-Infografik überfliegen 2 png 01


Um sich gegen KI-Angriffe zu schützen, benötigen Unternehmen einen umfassenden Ansatz für das ML-Management. Dazu gehören die Härtung aller ML-bezogenen Operationen und die ständige Überwachung auf Lücken in der ML-Abwehr.

Here’s what a typical defense strategy against Adversarial AI attacks must comprise of:
Creating an existing risk assessment for every ML implementation.
Assigning proper ownership of all ML-related content and operational governance.
Creating new security policies for defending against Adversarial AI attacks.

Zu den effektiven Verteidigungsansätzen gehört MLOps, das für den Entwurf, die Entwicklung und den Betrieb von ML-Modellen sowie die Modellprüfung und -validierung eingesetzt wird. MLOps ist eine Reihe von Best Practices, die das Beste aus maschinellem Lernen, DevOps und Data Engineering vereinen. Es implementiert einen iterativen und inkrementellen Prozess, der die folgenden Elemente umfasst:
Entwurf:
Requirements engineering
Prioritization of ML use cases
Checking the data availability
Entwicklung von Modellen:
Data Engineering
ML model engineering
Model testing and validating
Operationen:
ML model deployment
CI/CD pipeline development
Operational monitoring and triggering

Schlussfolgerung

Nach Angaben der Nationalen Sicherheitskommission der Vereinigten Staaten Bericht Auf dem Gebiet der künstlichen Intelligenz wird nur ein geringer Prozentsatz der KI-Forschungsgelder in die Verteidigung von KI-Systemen gegen gegnerische Angriffe investiert. Die zunehmende Verbreitung von KI- und maschinellen Lerntechnologien korreliert mit der Zunahme von KI-Angriffen durch Angreifer. Tatsächlich stellen KI- und ML-Systeme eine neue Angriffsfläche dar und erhöhen damit die sicherheitsrelevanten Risiken.

Let’s Discuss Your Idea

    Related Posts

    Ready To Supercharge Your Business

    LET’S
    TALK
    de_DEDeutsch