Що таке ворожа атака штучного інтелекту?

Що таке ворожа атака штучного інтелекту?

Deep learning technologies like Artificial Intelligence (AI) and machine learning (ML) present a range of business benefits to enterprises. At the same time, an adversarial AI attack is a growing security challenge for modern systems.
What is an Adversarial AI attack? A form of cyberattack that “fools” AI models with deceptive data. Also known as Adversarial ML, this form of attack has largely been reported in image classification and spam detection.
Next, let’s discuss the various risks posed by an Adversarial AI attack.

Ризики, пов'язані з атакою ворожого ШІ

За даними Олексій Рубцов Глобального інституту ризиків, "змагальне машинне навчання використовує вразливості та особливості моделей машинного навчання". Наприклад, змагальний ML може призвести до того, що торговий алгоритм, заснований на ML, прийматиме неправильні рішення про торгівлю.

Як ворожа атака ШІ створює ризик для систем ШІ та ML? Ось деякі загальні висновки:
Інженерія соціальних мереж: У цьому випадку ШІ-атака "прочісує" профілі користувачів у соціальних мережах за допомогою автоматизації. Потім вона автоматично генерує контент, щоб "заманити" потрібний профіль.

Підробка: Typically used in banking frauds, deepfakes are online threat actors that can achieve a range of nefarious objectives including:
Blackmail and extortion
Damaging an individual’s credibility and image
Document fraud
Social media for individual or group harassment

Приховування шкідливого програмного забезпечення: Тут зловмисники використовують ML, щоб приховати шкідливе програмне забезпечення у "шкідливому" трафіку, який виглядає нормальним для звичайних користувачів.

Паролі: Атаки зі застосуванням штучного інтелекту можуть навіть аналізувати великий набір паролів і генерувати їхні варіації. Іншими словами, ці атаки роблять процес зламу паролів більш "науковим". Окрім паролів, ШІ дозволяє зловмисникам також розгадувати CAPTCHA.

Приклади ворожих атак ШІ

Використовуючи приклади змагального ШІ, хакери можуть просто розробити атаку, яка змусить модель ШІ зробити помилку. Наприклад, пошкоджену версію правильних вхідних даних моделі.

Ось кілька популярних прикладів методів, які використовуються в атаках з використанням ШІ:
Метод FastGradient Sign (FGSM): Це метод на основі градієнта, який може генерувати приклади змагального ШІ, що спричиняють неправильну класифікацію зображень. Він робить це, додаючи мінімальну кількість збурень до пікселя зображення.

Обмежена пам'ять Бройдена-Флетчера-Гольдфарба-Шанно (L-BFGS): Цей метод є ще одним нелінійним алгоритмом чисельної оптимізації на основі градієнта, який може мінімізувати кількість збурень зображення. Цей метод надзвичайно ефективний при створенні прикладів Adversarial AI.

Атака дурня: Це ще один метод, дуже ефективний для створення атак ШІ з високим рівнем помилкової класифікації та меншою кількістю збурень. Ця форма атаки використовує нецільову техніку генерації зразків, щоб зменшити евклідову відстань між вихідним і спотвореним зразками.

Атака на основі якобіанських карт привабливості (JSMA): У цій формі атаки на ШІ хакери використовують вибір ознак для мінімізації кількості модифікованих ознак, що призводить до помилкової класифікації. Плоскі збурення ітеративно додаються до ознак на основі значення корисності в порядку зменшення.

Це лише деякі приклади використання ШІ. Далі ми поговоримо про те, як захиститися від атак ШІ.

Як захиститися від атак супротивника зі штучним інтелектом

221122 skim ai інфографіка 2 png 01

221122 skim ai інфографіка 2 png 01


Щоб захиститися від атак ворожого ШІ, організаціям потрібен комплексний підхід до управління ризиками відмивання грошей. Це передбачає посилення всіх операцій, пов'язаних з ВК, та постійний моніторинг будь-яких прогалин у захисті від ВК.

Here’s what a typical defense strategy against Adversarial AI attacks must comprise of:
Creating an existing risk assessment for every ML implementation.
Assigning proper ownership of all ML-related content and operational governance.
Creating new security policies for defending against Adversarial AI attacks.

Серед ефективних підходів до захисту, MLOps використовується для проектування, розробки та експлуатації моделей ML, а також для тестування та валідації моделей. MLOps - це набір найкращих практик, що поєднує в собі найкраще з машинного навчання, DevOps та інженерії даних. Він реалізує ітеративний та інкрементальний процес, що складається з наступних елементів:
Дизайн:
Requirements engineering
Prioritization of ML use cases
Checking the data availability
Розробка моделей:
Data Engineering
ML model engineering
Model testing and validating
Операції:
ML model deployment
CI/CD pipeline development
Operational monitoring and triggering

Висновок

За даними Комісії національної безпеки США доповідь у сфері штучного інтелекту, невеликий відсоток коштів на дослідження штучного інтелекту інвестується в захист систем штучного інтелекту від ворожих атак. Дедалі ширше впровадження технологій штучного інтелекту та машинного навчання корелює зі збільшенням кількості ворожих атак на системи штучного інтелекту. По суті, системи ШІ та машинного навчання створюють нову поверхню для атак, що збільшує ризики, пов'язані з безпекою.

Let’s Discuss Your Idea

    Related Posts

    Ready To Supercharge Your Business

    LET’S
    TALK
    ukУкраїнська