적대적 AI 공격이란 무엇인가요?

적대적 AI 공격이란 무엇인가요?

인공지능(AI) 및 머신러닝(ML)과 같은 딥러닝 기술은 기업에게 다양한 비즈니스 이점을 제공합니다. 동시에 적대적인 AI 공격은 최신 시스템에서 점점 더 큰 보안 과제가 되고 있습니다.
적대적 AI 공격이란 무엇인가요? 기만적인 데이터로 AI 모델을 '속이는' 사이버 공격의 한 형태입니다. 적대적 ML이라고도 하는 이러한 형태의 공격은 주로 이미지 분류 및 스팸 탐지 분야에서 보고되고 있습니다.
다음으로, 적대적 AI 공격으로 인한 다양한 위험에 대해 논의해 보겠습니다.

적대적 AI 공격으로 인한 리스크

에 따르면 알렉세이 루브소프 는 "적대적 머신러닝은 ML 모델의 취약점과 특수성을 악용한다"고 설명합니다. 예를 들어, 적대적 ML은 ML 기반 트레이딩 알고리즘이 트레이딩에 대해 잘못된 결정을 내리도록 만들 수 있습니다.

적대적 AI 공격은 AI와 ML 시스템에 어떻게 위험을 초래할까요? 다음은 몇 가지 일반적인 결과입니다:
소셜 미디어 엔지니어링: 이 경우 AI 공격은 자동화를 통해 소셜 미디어 플랫폼의 사용자 프로필을 '스크랩'합니다. 그런 다음 의도한 프로필을 '유인'하기 위해 자동으로 콘텐츠를 생성합니다.

딥페이크: 일반적으로 은행 사기에 사용되는 딥페이크는 다음과 같은 다양한 악의적인 목적을 달성할 수 있는 온라인 위협 행위자입니다:
협박 및 갈취
개인의 신뢰도 및 이미지 손상
문서 사기
개인 또는 집단 괴롭힘을 위한 소셜 미디어

멀웨어 숨기기: 여기서 위협 행위자는 ML을 활용하여 일반 사용자에게는 정상적으로 보이는 '악성' 트래픽 내에 멀웨어를 숨깁니다.

비밀번호: 적대적인 AI 공격은 대량의 비밀번호를 분석하고 변형을 생성할 수도 있습니다. 즉, 이러한 공격은 비밀번호를 해독하는 과정을 더욱 '과학적'으로 만듭니다. 비밀번호 외에도 위협 행위자는 머신러닝을 통해 보안 문자를 해결할 수 있습니다.

적대적 AI 공격의 예시

해커는 적대적 AI 예제를 사용하여 AI 모델이 실수를 하도록 공격을 설계할 수 있습니다. 예를 들어, 유효한 모델 입력의 손상된 버전이 있습니다.

다음은 적대적 AI 공격에 사용되는 몇 가지 인기 있는 방법의 예시입니다:
고속 그라디언트 기호 방법(FGSM): 이는 이미지의 오 분류를 유발하는 적대적 AI 예제를 생성할 수 있는 그라데이션 기반 방식입니다. 이미지 픽셀에 최소한의 섭동을 추가하여 이를 수행합니다.

제한 메모리 브로이든-플레처-골드파브-샤노(L-BFGS): 이 방법은 이미지 섭동의 수를 최소화할 수 있는 또 다른 비선형 그라데이션 기반 수치 최적화 알고리즘입니다. 이 방법은 적대적 AI 예제를 생성하는 데 매우 효과적입니다.

딥풀 공격: 이 방법은 오분류율이 높고 교란이 적은 적대적 AI 공격을 생성하는 데 매우 효과적인 또 다른 방법입니다. 이 형태의 공격은 표적이 없는 적대적 샘플 생성 기법을 사용하여 원본 샘플과 교란된 샘플 사이의 유클리드 거리를 줄입니다.

자코비안 기반 살리언스 맵 공격(JSMA): 이러한 형태의 적대적 AI 공격에서 해커는 특징 선택을 사용하여 수정된 특징의 수를 최소화함으로써 잘못된 분류를 유발합니다. 평평한 섭동은 중요도 값에 따라 특징에 반복적으로 추가되어 감소하는 순서에 따라 특징에 추가됩니다.

이는 적대적 AI의 몇 가지 예시일 뿐입니다. 다음으로 적대적 AI 공격을 방어하는 방법에 대해 알아보겠습니다.

적대적 AI 공격을 방어하는 방법

221122 SKIM AI 인포그래픽 2 PNG 01

221122 SKIM AI 인포그래픽 2 PNG 01


적대적 AI 공격을 방어하려면 조직은 ML 관리에 대한 포괄적인 접근 방식이 필요합니다. 여기에는 모든 ML 관련 운영을 강화하고 ML 방어의 모든 위반 사항을 지속적으로 모니터링하는 것이 포함됩니다.

적대적 AI 공격에 대한 일반적인 방어 전략은 다음과 같이 구성되어야 합니다:
모든 ML 구현에 대해 기존 위험 평가를 생성합니다.
모든 ML 관련 콘텐츠 및 운영 거버넌스에 대한 적절한 소유권을 할당합니다.
적대적 AI 공격을 방어하기 위한 새로운 보안 정책 만들기.

효과적인 방어 접근 방식 중 MLOps는 모델 테스트 및 검증과 함께 ML 모델을 설계, 개발 및 운영하는 데 사용되고 있습니다. MLOps는 머신 러닝, DevOps, 데이터 엔지니어링의 장점을 통합한 모범 사례 집합입니다. 다음 요소로 구성된 반복적이고 점진적인 프로세스를 구현합니다:
디자인:
요구 사항 엔지니어링
ML 사용 사례의 우선순위 지정
데이터 가용성 확인
모델 개발:
데이터 엔지니어링
ML 모델 엔지니어링
모델 테스트 및 유효성 검사
운영:
ML 모델 배포
CI/CD 파이프라인 개발
운영 모니터링 및 트리거링

결론

미국 국가안보위원회에 따르면 보고 인공지능에 대한 연구 자금 중 적대적 공격으로부터 인공지능 시스템을 방어하는 데 투자되는 비율은 낮습니다. AI 및 머신러닝 기술의 채택이 증가함에 따라 적대적 AI 공격도 증가하고 있습니다. 사실상 AI와 머신러닝 시스템은 새로운 공격 표면을 제시하여 보안 관련 위험을 증가시키고 있습니다.

아이디어를 논의해 보세요

    관련 게시물

    비즈니스를 강화할 준비 완료

    LET'S
    TALK
    ko_KR한국어