¿Qué es la IA explicable?

A medida que avanzan las tecnologías de aprendizaje profundo, como la Inteligencia Artificial (IA) y el Aprendizaje Automático (AM), nos enfrentamos al reto de comprender los resultados producidos por los algoritmos informáticos. Por ejemplo, ¿cómo han producido los algoritmos de ML un resultado concreto?
La IA explicable (o XAI) abarca los procesos y herramientas que permiten a los usuarios humanos comprender los resultados generados por los algoritmos de ML. Las organizaciones deben confiar en los modelos de IA cuando los ponen en producción.
El proceso completo de XAI también se conoce como un modelo de "caja negra" que se crea directamente a partir de los datos generados. A continuación, veamos algunos de los casos de uso de la IA explicable.

Casos prácticos de IA explicable

Estos son algunos de los casos reales de uso de la IA explicable:

Para texto en lenguaje natural:
XAI for Text se centra en el desarrollo de modelos de caja negra para tareas relacionadas con el texto. Por ejemplo, el resumen textual de documentos jurídicos. En este caso de uso, los usuarios pueden explorar y comprender XAI for Text basándose en las siguientes consideraciones:
Tipo de tarea centrada en el texto
Explicación de las técnicas utilizadas para la tarea
Los usuarios destinatarios de la técnica XAI concreta
Del mismo modo, un modelo de aprendizaje profundo basado en XAI puede clasificar datos textuales en forma de reseñas y transcripciones. Mediante el uso de IA explicable, puede determinar por qué el modelo predice basándose en las palabras clave y frases específicas incluidas en el texto.

También puede utilizar XAI for Text para entrenar un modelo de aprendizaje profundo que genere un resumen del artículo a partir del texto original. Por ejemplo, puede obtener una distribución de puntuaciones de atención sobre tokens seleccionados en el texto fuente. Las palabras (con una puntuación de atención entre 0-1) se resaltan en el texto fuente y se muestran a los usuarios finales. Cuanto mayor sea la puntuación de atención, más oscuro será el resaltado del texto y mayor será la importancia de la palabra en el resumen del artículo.

Para imágenes visuales:
La IA explicable también se utiliza para automatizar la toma de decisiones basadas en imágenes visuales de alta resolución. Algunos ejemplos de imágenes de alta resolución son las imágenes de satélite y los datos médicos. Además del gran volumen de datos de satélite, los datos capturados son de alta resolución y contienen múltiples bandas espectrales. Por ejemplo, luz visible e infrarroja. Puede utilizar modelos entrenados por XAI para "dividir" imágenes de alta resolución en fragmentos más pequeños.

En el ámbito de las imágenes médicas, los modelos XAI se utilizan para detectar neumonías torácicas a través de radiografías. Del mismo modo, el reconocimiento de imágenes es otro caso de uso de la IA explicable en el ámbito de las imágenes visuales. Mediante la IA visual, se pueden entrenar modelos de IA personalizados para reconocer imágenes u objetos (contenidos en imágenes capturadas).

Para estadísticas:
Los modelos y algoritmos de XAI son eficaces en función de su grado de precisión o interpretación. Los modelos de relación estadística como la regresión lineal, los árboles de decisión y los vecindarios más cercanos a K son fáciles de interpretar pero menos precisos. Para que los modelos de redes neuronales sean interpretables y precisos, el modelo de IA debe alimentarse con datos de alta calidad.

La XAI tiene un enorme potencial en el ámbito de la ciencia de datos. Por ejemplo, la IA explicable se utiliza en los sistemas de producción estadística de la Banco Central Europeo (ECB). Al vincular los desiderata centrados en el usuario con los roles de usuario "típicos", la XAI puede esbozar métodos y técnicas utilizados para atender las necesidades de cada usuario.

A continuación, vamos a hablar de las herramientas y los marcos más utilizados en la IA explicable.

IA explicable - Herramientas y marcos

En los últimos tiempos, los investigadores de IA han trabajado en múltiples herramientas y marcos para promover la IA explicable. He aquí algunas de las más populares:

Y si..: Desarrollada por el equipo de TensorFlow, What-If es una herramienta visual interactiva utilizada para comprender el resultado de los modelos de IA de TensorFlow. Con esta herramienta, puedes visualizar fácilmente conjuntos de datos junto con el rendimiento del modelo de IA desplegado.

CAL: Abreviatura de Local Interpretable Model-agnostic Explanation, la herramienta LIME ha sido desarrollada por un equipo de investigación de la Universidad de Washington. LIME proporciona una mejor visibilidad de "lo que ocurre" dentro del algoritmo. Además, LIME ofrece una forma modular y extensible de explicar las predicciones de cualquier modelo.

AIX360: Desarrollada por IBM, AI Explainability 360 (o AIX 360) es una biblioteca de código abierto utilizada para explicar e interpretar conjuntos de datos y modelos de aprendizaje automático. Publicada como paquete de Python, AIX360 incluye un conjunto completo de algoritmos que abarcan diferentes explicaciones junto con métricas.

FORMA: Abreviatura de Shapley Additive Explanations (explicaciones aditivas de Shapley), SHAP es un enfoque teórico basado en juegos para explicar el resultado de cualquier modelo de aprendizaje automático. Utilizando los valores de Shapley de la teoría de juegos, SHAP puede conectar asignaciones de crédito óptimas con explicaciones locales. SHAP es fácil de instalar usando PyPI o Conda Forge.

Conclusión

Las organizaciones deben tener una comprensión completa de sus procesos de toma de decisiones impulsados por la IA a través de la supervisión de la IA. Explainable AI permite a las organizaciones explicar fácilmente sus algoritmos de ML y redes neuronales profundas desplegados. Efectivamente, ayuda a crear confianza empresarial junto con el uso productivo de las tecnologías de IA y ML.

es_ESEspañol