Що таке ворожа атака штучного інтелекту?

Технології глибокого навчання, такі як штучний інтелект (ШІ) і машинне навчання (МН), надають підприємствам низку бізнес-переваг. У той же час, ворожі ШІ-атаки є зростаючою проблемою безпеки для сучасних систем. Що таке ворожа атака ШІ? Форма кібератаки, яка "обманює" ШІ-моделі за допомогою неправдивих даних. Ця форма атаки, також відома як Adversarial ML, здебільшого використовується для класифікації зображень і виявлення спаму. Далі ми обговоримо різні ризики, пов'язані з ворожими атаками на ШІ.

Ризики, пов'язані з атакою ворожого ШІ

За даними Олексій Рубцов Глобального інституту ризиків, "змагальне машинне навчання використовує вразливості та особливості моделей машинного навчання". Наприклад, змагальний ML може призвести до того, що торговий алгоритм, заснований на ML, прийматиме неправильні рішення про торгівлю.

Як ворожа атака ШІ створює ризик для систем ШІ та ML? Ось деякі загальні висновки: Інженерія соціальних мереж: У цьому випадку ШІ-атака "прочісує" профілі користувачів у соціальних мережах за допомогою автоматизації. Потім вона автоматично генерує контент, щоб "заманити" потрібний профіль.

Підробка: Зазвичай використовувані в банківському шахрайстві, "глибокі фейки" є суб'єктами онлайн-загроз, які можуть досягати цілого ряду негідних цілей, в тому числі Шантаж і вимагання Підрив довіри до особи та її іміджу шахрайство з документами Соціальні мережі для індивідуального або групового переслідування

Приховування шкідливого програмного забезпечення: Тут зловмисники використовують ML, щоб приховати шкідливе програмне забезпечення у "шкідливому" трафіку, який виглядає нормальним для звичайних користувачів.

Паролі: Атаки зі застосуванням штучного інтелекту можуть навіть аналізувати великий набір паролів і генерувати їхні варіації. Іншими словами, ці атаки роблять процес зламу паролів більш "науковим". Окрім паролів, ШІ дозволяє зловмисникам також розгадувати CAPTCHA.

Приклади ворожих атак ШІ

Використовуючи приклади змагального ШІ, хакери можуть просто розробити атаку, яка змусить модель ШІ зробити помилку. Наприклад, пошкоджену версію правильних вхідних даних моделі.

Ось кілька популярних прикладів методів, які використовуються в атаках з використанням ШІ: Метод FastGradient Sign (FGSM): Це метод на основі градієнта, який може генерувати приклади змагального ШІ, що спричиняють неправильну класифікацію зображень. Він робить це, додаючи мінімальну кількість збурень до пікселя зображення.

Обмежена пам'ять Бройдена-Флетчера-Гольдфарба-Шанно (L-BFGS): Цей метод є ще одним нелінійним алгоритмом чисельної оптимізації на основі градієнта, який може мінімізувати кількість збурень зображення. Цей метод надзвичайно ефективний при створенні прикладів Adversarial AI.

Атака дурня: Це ще один метод, дуже ефективний для створення атак ШІ з високим рівнем помилкової класифікації та меншою кількістю збурень. Ця форма атаки використовує нецільову техніку генерації зразків, щоб зменшити евклідову відстань між вихідним і спотвореним зразками.

Атака на основі якобіанських карт привабливості (JSMA): У цій формі атаки на ШІ хакери використовують вибір ознак для мінімізації кількості модифікованих ознак, що призводить до помилкової класифікації. Плоскі збурення ітеративно додаються до ознак на основі значення корисності в порядку зменшення.

Це лише деякі приклади використання ШІ. Далі ми поговоримо про те, як захиститися від атак ШІ.

Як захиститися від атак супротивника зі штучним інтелектом

221122 skim ai інфографіка 2 png 01
221122 skim ai інфографіка 2 png 01

Щоб захиститися від атак ворожого ШІ, організаціям потрібен комплексний підхід до управління ризиками відмивання грошей. Це передбачає посилення всіх операцій, пов'язаних з ВК, та постійний моніторинг будь-яких прогалин у захисті від ВК.

Ось з чого має складатися типова стратегія захисту від атак ворожого ШІ: Проведення оцінки існуючих ризиків для кожної реалізації ВК. Розподіл належної відповідальності за весь контент, пов'язаний з ВК, та оперативне управління ним. Створення нових політик безпеки для захисту від атак з використанням ШІ.

Серед ефективних підходів до захисту, MLOps використовується для проектування, розробки та експлуатації моделей ML, а також для тестування та валідації моделей. MLOps - це набір найкращих практик, що поєднує в собі найкраще з машинного навчання, DevOps та інженерії даних. Він реалізує ітеративний та інкрементальний процес, що складається з наступних елементів: Дизайн: Інженерія вимог Визначення пріоритетів використання кейсів ВК Перевірка наявності даних Розробка моделей: Інженерія даних Інженерія ML-моделей Тестування та валідація моделей Операції: Розгортання моделі ML Розвиток конвеєра CI/CD Оперативний моніторинг та запуск

Висновок

За даними Комісії національної безпеки США доповідь у сфері штучного інтелекту, невеликий відсоток коштів на дослідження штучного інтелекту інвестується в захист систем штучного інтелекту від ворожих атак. Дедалі ширше впровадження технологій штучного інтелекту та машинного навчання корелює зі збільшенням кількості ворожих атак на системи штучного інтелекту. По суті, системи ШІ та машинного навчання створюють нову поверхню для атак, що збільшує ризики, пов'язані з безпекою.

ukУкраїнська