적대적 AI 공격이란 무엇인가요?

적대적 AI 공격이란 무엇인가요?

Deep learning technologies like Artificial Intelligence (AI) and machine learning (ML) present a range of business benefits to enterprises. At the same time, an adversarial AI attack is a growing security challenge for modern systems.
What is an Adversarial AI attack? A form of cyberattack that “fools” AI models with deceptive data. Also known as Adversarial ML, this form of attack has largely been reported in image classification and spam detection.
Next, let’s discuss the various risks posed by an Adversarial AI attack.

적대적 AI 공격으로 인한 리스크

에 따르면 알렉세이 루브소프 는 "적대적 머신러닝은 ML 모델의 취약점과 특수성을 악용한다"고 설명합니다. 예를 들어, 적대적 ML은 ML 기반 트레이딩 알고리즘이 트레이딩에 대해 잘못된 결정을 내리도록 만들 수 있습니다.

적대적 AI 공격은 AI와 ML 시스템에 어떻게 위험을 초래할까요? 다음은 몇 가지 일반적인 결과입니다:
소셜 미디어 엔지니어링: 이 경우 AI 공격은 자동화를 통해 소셜 미디어 플랫폼의 사용자 프로필을 '스크랩'합니다. 그런 다음 의도한 프로필을 '유인'하기 위해 자동으로 콘텐츠를 생성합니다.

딥페이크: Typically used in banking frauds, deepfakes are online threat actors that can achieve a range of nefarious objectives including:
Blackmail and extortion
Damaging an individual’s credibility and image
Document fraud
Social media for individual or group harassment

멀웨어 숨기기: 여기서 위협 행위자는 ML을 활용하여 일반 사용자에게는 정상적으로 보이는 '악성' 트래픽 내에 멀웨어를 숨깁니다.

비밀번호: 적대적인 AI 공격은 대량의 비밀번호를 분석하고 변형을 생성할 수도 있습니다. 즉, 이러한 공격은 비밀번호를 해독하는 과정을 더욱 '과학적'으로 만듭니다. 비밀번호 외에도 위협 행위자는 머신러닝을 통해 보안 문자를 해결할 수 있습니다.

적대적 AI 공격의 예시

해커는 적대적 AI 예제를 사용하여 AI 모델이 실수를 하도록 공격을 설계할 수 있습니다. 예를 들어, 유효한 모델 입력의 손상된 버전이 있습니다.

다음은 적대적 AI 공격에 사용되는 몇 가지 인기 있는 방법의 예시입니다:
고속 그라디언트 기호 방법(FGSM): 이는 이미지의 오 분류를 유발하는 적대적 AI 예제를 생성할 수 있는 그라데이션 기반 방식입니다. 이미지 픽셀에 최소한의 섭동을 추가하여 이를 수행합니다.

제한 메모리 브로이든-플레처-골드파브-샤노(L-BFGS): 이 방법은 이미지 섭동의 수를 최소화할 수 있는 또 다른 비선형 그라데이션 기반 수치 최적화 알고리즘입니다. 이 방법은 적대적 AI 예제를 생성하는 데 매우 효과적입니다.

딥풀 공격: 이 방법은 오분류율이 높고 교란이 적은 적대적 AI 공격을 생성하는 데 매우 효과적인 또 다른 방법입니다. 이 형태의 공격은 표적이 없는 적대적 샘플 생성 기법을 사용하여 원본 샘플과 교란된 샘플 사이의 유클리드 거리를 줄입니다.

자코비안 기반 살리언스 맵 공격(JSMA): 이러한 형태의 적대적 AI 공격에서 해커는 특징 선택을 사용하여 수정된 특징의 수를 최소화함으로써 잘못된 분류를 유발합니다. 평평한 섭동은 중요도 값에 따라 특징에 반복적으로 추가되어 감소하는 순서에 따라 특징에 추가됩니다.

이는 적대적 AI의 몇 가지 예시일 뿐입니다. 다음으로 적대적 AI 공격을 방어하는 방법에 대해 알아보겠습니다.

적대적 AI 공격을 방어하는 방법

221122 SKIM AI 인포그래픽 2 PNG 01

221122 SKIM AI 인포그래픽 2 PNG 01


적대적 AI 공격을 방어하려면 조직은 ML 관리에 대한 포괄적인 접근 방식이 필요합니다. 여기에는 모든 ML 관련 운영을 강화하고 ML 방어의 모든 위반 사항을 지속적으로 모니터링하는 것이 포함됩니다.

Here’s what a typical defense strategy against Adversarial AI attacks must comprise of:
Creating an existing risk assessment for every ML implementation.
Assigning proper ownership of all ML-related content and operational governance.
Creating new security policies for defending against Adversarial AI attacks.

효과적인 방어 접근 방식 중 MLOps는 모델 테스트 및 검증과 함께 ML 모델을 설계, 개발 및 운영하는 데 사용되고 있습니다. MLOps는 머신 러닝, DevOps, 데이터 엔지니어링의 장점을 통합한 모범 사례 집합입니다. 다음 요소로 구성된 반복적이고 점진적인 프로세스를 구현합니다:
디자인:
Requirements engineering
Prioritization of ML use cases
Checking the data availability
모델 개발:
Data Engineering
ML model engineering
Model testing and validating
운영:
ML model deployment
CI/CD pipeline development
Operational monitoring and triggering

결론

미국 국가안보위원회에 따르면 보고 인공지능에 대한 연구 자금 중 적대적 공격으로부터 인공지능 시스템을 방어하는 데 투자되는 비율은 낮습니다. AI 및 머신러닝 기술의 채택이 증가함에 따라 적대적 AI 공격도 증가하고 있습니다. 사실상 AI와 머신러닝 시스템은 새로운 공격 표면을 제시하여 보안 관련 위험을 증가시키고 있습니다.

Let’s Discuss Your Idea

    Related Posts

    Ready To Supercharge Your Business

    LET’S
    TALK
    ko_KR한국어