설명 가능한 AI란 무엇인가요?

설명 가능한 AI란 무엇인가요?

인공지능(AI) 및 머신러닝(ML)과 같은 딥러닝 기술이 발전함에 따라 컴퓨터 알고리즘이 생성하는 결과물을 이해해야 하는 과제를 안고 있습니다. 예를 들어, ML 알고리즘은 어떻게 특정 결과를 산출했을까요?
설명 가능한 AI(또는 XAI)는 인간 사용자가 ML 알고리즘으로 생성된 결과물을 이해할 수 있도록 하는 프로세스와 도구를 다룹니다. 조직은 AI 모델을 프로덕션에 도입할 때 AI 모델에 대한 신뢰를 구축해야 합니다.
전체 XAI 프로세스는 생성된 데이터에서 직접 생성되는 "블랙박스" 모델이라고도 합니다. 다음으로 설명 가능한 AI의 몇 가지 사용 사례를 살펴보겠습니다.

설명 가능한 AI의 사용 사례

설명 가능한 AI의 실제 사용 사례는 다음과 같습니다:

자연어 텍스트의 경우:
텍스트용 XAI는 텍스트 관련 작업을 위한 블랙박스 모델을 개발하는 데 중점을 둡니다. 예를 들어 법률 문서의 텍스트 요약이 여기에 해당합니다. 이 사용 사례에서 사용자는 다음 고려 사항을 기반으로 텍스트용 XAI를 탐색하고 이해할 수 있습니다:
고려 중인 텍스트 중심 작업 유형
작업에 사용되는 설명 기법
특정 XAI 기술의 대상 사용자
마찬가지로, XAI 기반 딥러닝 모델은 리뷰와 성적표 형태의 텍스트 데이터를 분류할 수 있습니다. 설명 가능한 AI를 사용하면 텍스트에 포함된 특정 키워드와 문구를 기반으로 모델이 예측하는 이유를 확인할 수 있습니다.

텍스트용 XAI를 사용하여 딥러닝 모델을 훈련시켜 소스 텍스트를 기반으로 기사 요약을 생성할 수도 있습니다. 예를 들어, 소스 텍스트에서 선택한 토큰에 대한 관심도 점수 분포를 얻을 수 있습니다. 관심도 점수가 0~1 사이인 단어는 소스 텍스트에서 강조 표시되어 최종 사용자에게 표시됩니다. 관심도 점수가 높을수록 텍스트가 더 진하게 강조 표시되며, 이는 기사 요약에서 해당 단어의 중요도가 높다는 것을 의미합니다.

시각적 이미지의 경우:
설명 가능한 AI는 고해상도 시각 이미지를 기반으로 의사 결정을 자동화하는 데도 사용됩니다. 고해상도 이미지의 예로는 위성 이미지와 의료 데이터가 있습니다. 대량의 위성 데이터 외에도 캡처된 데이터는 고해상도이며 여러 스펙트럼 대역을 포함합니다. 예를 들어 가시광선 및 적외선이 이에 해당합니다. XAI로 학습된 모델을 배포하여 고해상도 이미지를 더 작은 패치로 '분할'할 수 있습니다.

의료 이미지 영역에서는 엑스레이를 통해 흉부 폐렴을 감지하는 데 XAI 모델이 사용됩니다. 마찬가지로 이미지 인식은 시각 이미지 영역에서 설명 가능한 AI의 또 다른 사용 사례입니다. 시각적 AI를 사용하면 캡처한 이미지에 포함된 이미지나 물체를 인식하도록 맞춤형 AI 모델을 학습시킬 수 있습니다.

통계의 경우:
XAI 모델과 알고리즘은 정확도나 해석의 정도에 따라 효과적입니다. 선형 회귀, 의사 결정 트리, K-최근접 이웃과 같은 통계적 관계 모델은 해석하기 쉽지만 정확도는 떨어집니다. 신경망 모델이 해석 가능하고 정확하려면 AI 모델에 고품질 데이터를 공급해야 합니다.

XAI는 데이터 과학 분야에서 엄청난 잠재력을 가지고 있습니다. 예를 들어, 설명 가능한 AI는 다음과 같은 통계 생산 시스템에서 사용됩니다. 유럽 중앙 은행 (ECB). 사용자 중심의 요구사항을 '일반적인' 사용자 역할에 연결함으로써 XAI는 각 사용자의 요구사항을 해결하는 데 사용되는 방법과 기술을 개괄적으로 설명할 수 있습니다.

다음으로 설명 가능한 AI에 사용되는 일반적인 도구와 프레임워크에 대해 알아보겠습니다.

설명 가능한 AI - 도구 및 프레임워크

최근 AI 연구자들은 설명 가능한 AI를 촉진하기 위한 다양한 도구와 프레임워크를 개발해 왔습니다. 인기 있는 몇 가지를 소개합니다:

What-If: TensorFlow 팀에서 개발한 What-If는 시각적 대화형 도구로, TensorFlow AI 모델의 결과를 이해하는 데 사용됩니다. 이 도구를 사용하면 배포된 AI 모델의 성능과 함께 데이터 세트를 쉽게 시각화할 수 있습니다.

LIME: 로컬 해석 가능한 모델 불가지론적 설명의 줄임말인 LIME 도구는 워싱턴 대학교 연구팀에서 개발했습니다. LIME은 알고리즘 내에서 '무슨 일이 일어나고 있는지'에 대한 가시성을 높여줍니다. 또한, LIME은 모든 모델의 예측을 설명할 수 있는 확장 가능한 모듈식 방법을 제공합니다.

AIX360: IBM에서 개발한 AI Explainability 360(또는 AIX 360)은 데이터 세트와 머신 러닝 모델을 설명하고 해석하는 데 사용되는 오픈 소스 라이브러리입니다. Python 패키지로 출시된 AIX360에는 메트릭과 함께 다양한 설명을 다루는 완전한 알고리즘 세트가 포함되어 있습니다.

SHAP: 샤플리 부가 설명의 줄임말인 SHAP은 모든 머신러닝 모델의 결과를 설명하기 위한 게임 기반 이론적 접근 방식입니다. SHAP은 게임 이론의 샤플리 값을 사용하여 최적의 신용 할당을 로컬 설명과 연결할 수 있습니다. SHAP은 PyPI 또는 Conda Forge를 사용하여 쉽게 설치할 수 있습니다.

결론

조직은 AI 모니터링을 통해 AI 기반 의사 결정 프로세스를 완벽하게 이해해야 합니다. 설명 가능한 AI를 통해 조직은 배포된 ML 알고리즘과 심층 신경망을 쉽게 설명할 수 있습니다. 이는 AI 및 ML 기술의 생산적인 사용과 함께 비즈니스 신뢰를 구축하는 데 효과적으로 도움이 됩니다.

Let’s Discuss Your Idea

    Related Posts

    Ready To Supercharge Your Business

    LET’S
    TALK
    ko_KR한국어