Що таке пояснювальний ШІ?

З розвитком технологій глибокого навчання, таких як штучний інтелект (ШІ) та машинне навчання (МН), перед нами постає завдання зрозуміти результати, отримані за допомогою комп'ютерних алгоритмів. Наприклад, як алгоритми ML отримали той чи інший результат?
Зрозумілий ШІ (або XAI) охоплює процеси та інструменти, які дають змогу користувачам-людям розуміти результати, отримані за допомогою алгоритмів машинного навчання. Організації повинні довіряти моделям ШІ, перш ніж впроваджувати їх у виробництво.
Весь процес XAI також називають моделлю "чорного ящика", яка створюється безпосередньо на основі згенерованих даних. Далі ми розглянемо деякі випадки використання Explainable AI.

Приклади використання зрозумілого ШІ

Ось деякі з реальних прикладів використання Explainable AI:

Для тексту природною мовою:
XAI for Text фокусується на розробці моделей чорних скриньок для завдань, пов'язаних з текстом. Наприклад, узагальнення тексту юридичних документів. У цьому випадку користувачі можуть вивчити і зрозуміти XAI for Text на основі наступних міркувань:
Тип текстової задачі, що розглядається
Методи пояснення, що використовуються для виконання завдання
Цільові користувачі для конкретного методу XAI
Аналогічно, модель глибокого навчання на основі XAI може класифікувати текстові дані у вигляді рецензій і стенограм. Використовуючи пояснювальний ШІ, ви можете визначити, чому модель робить прогноз на основі конкретних ключових слів і фраз, включених у текст.

Ви також можете використовувати XAI for Text для навчання моделі глибокого навчання для створення резюме статті на основі вихідного тексту. Наприклад, ви можете отримати розподіл балів уваги за вибраними лексемами у вихідному тексті. Слова (з оцінкою уваги від 0 до 1) виділяються у вихідному тексті і відображаються кінцевим користувачам. Чим вищий показник уваги, тим темнішим кольором підсвічується текст - і тим більшу важливість має це слово в резюме статті.

Для візуальних образів:
Пояснювальний ШІ також використовується для автоматизації прийняття рішень на основі візуальних зображень високої роздільної здатності. Деякі приклади зображень високої роздільної здатності включають супутникові знімки та медичні дані. Крім великого обсягу супутникових даних, отримані дані мають високу роздільну здатність і містять кілька спектральних діапазонів. Наприклад, видиме та інфрачервоне світло. Ви можете застосувати моделі, навчені XAI, щоб "розбити" зображення з високою роздільною здатністю на менші фрагменти.

У сфері медичних зображень моделі XAI використовуються для виявлення пневмонії грудної клітки за допомогою рентгенівських знімків. Аналогічно, розпізнавання зображень - це ще один випадок використання Explainable AI в області візуальних зображень. Використовуючи Visual AI, ви можете навчити власні моделі ШІ розпізнавати зображення або об'єкти (що містяться на захоплених зображеннях).

Для статистики:
Моделі та алгоритми XAI ефективні залежно від ступеня їхньої точності або інтерпретації. Статистичні моделі взаємозв'язку, такі як лінійна регресія, дерева рішень і K-найближчих сусідів, легко інтерпретувати, але вони менш точні. Для того, щоб моделі нейронних мереж можна було інтерпретувати і вони були точними, в модель ШІ необхідно подавати високоякісні дані.

XAI має величезний потенціал у сфері науки про дані. Наприклад, Explainable AI використовується в статистичних системах виробництва Європейський центральний банк (ЄЦБ). Пов'язуючи орієнтовані на користувача побажання з "типовими" ролями користувачів, XAI може окреслити методи і прийоми, що використовуються для задоволення потреб кожного користувача.

Далі ми обговоримо загальні інструменти та фреймворки, що використовуються в Explainable AI.

Пояснювальний ШІ - інструменти та фреймворки

Останнім часом дослідники ШІ працюють над різними інструментами та фреймворками для просування Explainable AI. Пропонуємо вам ознайомитися з деякими з них:

Що-якщо: Розроблений командою TensorFlow, What-If - це візуально інтерактивний інструмент, який використовується для розуміння результатів роботи ШІ-моделей TensorFlow. За допомогою цього інструменту ви можете легко візуалізувати набори даних разом з продуктивністю розгорнутої ШІ-моделі.

ЛАЙМ: Інструмент LIME, скорочено від Local Interpretable Model-agnostic Explanation, був розроблений дослідницькою групою Вашингтонського університету. LIME забезпечує кращу видимість того, "що відбувається" в алгоритмі. Крім того, LIME пропонує модульний і розширюваний спосіб пояснення прогнозів будь-якої моделі.

AIX360: Розроблена IBM, AI Explainability 360 (або AIX 360) - це бібліотека з відкритим вихідним кодом, яка використовується для пояснення та інтерпретації наборів даних і моделей машинного навчання. Випущена як пакет Python, AIX360 включає повний набір алгоритмів, які охоплюють різні пояснення разом з метриками.

ШАП: Скорочено від Shapley Additive Explanations, SHAP - це теоретичний підхід на основі ігор для пояснення результатів роботи будь-якої моделі машинного навчання. Використовуючи значення Шейплі з теорії ігор, SHAP може пов'язати оптимальний розподіл кредитів з локальними поясненнями. SHAP легко встановити за допомогою PyPI або Conda Forge.

Висновок

Організації повинні мати повне розуміння процесів прийняття рішень за допомогою штучного інтелекту завдяки моніторингу ШІ. Зрозумілий ШІ дає змогу організаціям легко пояснювати свої розгорнуті алгоритми ML і глибокі нейронні мережі. Це допомагає побудувати довіру в бізнесі, а також продуктивно використовувати технології ШІ та ML.

ukУкраїнська