Qu'est-ce que l'IA explicable ?
Qu'est-ce que l'IA explicable ?
À mesure que les technologies d'apprentissage profond (deep learning) telles que l'intelligence artificielle (IA) et l'apprentissage machine (ML) progressent, nous sommes mis au défi de comprendre les résultats produits par les algorithmes informatiques. Par exemple, comment les algorithmes d'apprentissage automatique ont-ils produit un résultat particulier ?
L'IA explicable (ou XAI) couvre les processus et les outils qui permettent aux utilisateurs humains de comprendre les résultats générés par les algorithmes de ML. Les organisations doivent renforcer leur confiance dans les modèles d'IA avant de les mettre en production.
L'ensemble du processus XAI est également appelé modèle "boîte noire", créé directement à partir des données générées. Examinons maintenant certains cas d'utilisation de l'IA explicable.
Cas d'utilisation de l'IA explicable
Voici quelques-uns des cas d'utilisation de l'IA explicable dans la vie réelle :
Pour les textes en langage naturel :
XAI for Text se concentre sur le développement de modèles de boîte noire pour les tâches liées au texte. Par exemple, le résumé de documents juridiques. Dans ce cas d'utilisation, les utilisateurs peuvent explorer et comprendre XAI for Text sur la base des considérations suivantes :
Type de tâche axée sur le texte à l'étude
Explication des techniques utilisées pour la tâche
Les utilisateurs cibles de la technique XAI en question
De même, un modèle d'apprentissage profond basé sur l'IA X peut classer des données textuelles sous la forme d'avis et de transcriptions. En utilisant l'IA explicable, vous pouvez déterminer pourquoi le modèle prédit en fonction des mots-clés et des phrases spécifiques inclus dans le texte.
Vous pouvez également utiliser XAI for Text pour entraîner un modèle d'apprentissage profond afin de générer un résumé d'article basé sur le texte source. Par exemple, vous pouvez obtenir une distribution des scores d'attention sur des tokens sélectionnés dans le texte source. Les mots (dont le score d'attention est compris entre 0 et 1) sont mis en évidence dans le texte source et affichés aux utilisateurs finaux. Plus le score d'attention est élevé, plus le surlignage du texte est foncé - et plus le mot est important dans le résumé de l'article.
Pour les images visuelles :
L'IA explicable est également utilisée pour automatiser la prise de décision sur la base d'images visuelles à haute résolution. Les images satellites et les données médicales sont des exemples d'images à haute résolution. Outre le volume important de données satellitaires, les données capturées sont à haute résolution et contiennent plusieurs bandes spectrales. Par exemple, la lumière visible et infrarouge. Vous pouvez déployer des modèles entraînés par XAI pour "découper" des images haute résolution en plus petites parties.
Dans le domaine des images médicales, les modèles d'IAO sont utilisés pour détecter la pneumonie thoracique à l'aide de radiographies. De même, la reconnaissance d'images est un autre cas d'utilisation de l'IA explicable dans le domaine des images visuelles. Grâce à l'IA visuelle, vous pouvez former des modèles d'IA personnalisés pour reconnaître des images ou des objets (contenus dans des images capturées).
Pour les statistiques :
Les modèles et algorithmes XAI sont efficaces en fonction de leur degré de précision ou d'interprétation. Les modèles de relations statistiques tels que la régression linéaire, les arbres de décision et les K-voisins les plus proches sont faciles à interpréter mais moins précis. Pour que les modèles de réseaux neuronaux soient interprétables et précis, le modèle d'IA doit être alimenté par des données de haute qualité.
L'IA X a un potentiel énorme dans le domaine de la science des données. Par exemple, l'IA explicable est utilisée dans les systèmes de production statistique de la Commission européenne. Banque centrale européenne (ECB). En reliant les desiderata centrés sur l'utilisateur aux rôles "typiques" de l'utilisateur, la XAI peut décrire les méthodes et les techniques utilisées pour répondre aux besoins de chaque utilisateur.
Ensuite, discutons des outils et des cadres communs utilisés dans l'IA explicable.
IA explicable - Outils et cadres
Ces derniers temps, les chercheurs en IA ont travaillé sur de nombreux outils et cadres pour promouvoir l'IA explicable. Voici un aperçu de quelques-uns des plus populaires :
Et si : Développé par l'équipe TensorFlow, What-If est un outil visuellement interactif utilisé pour comprendre la sortie des modèles d'IA TensorFlow. Grâce à cet outil, vous pouvez facilement visualiser des ensembles de données ainsi que les performances du modèle d'IA déployé.
LIME : Abréviation de Local Interpretable Model-agnostic Explanation, l'outil LIME a été mis au point par une équipe de chercheurs de l'université de Washington. LIME offre une meilleure visibilité de "ce qui se passe" dans l'algorithme. En outre, LIME offre un moyen modulaire et extensible d'expliquer les prédictions de n'importe quel modèle.
AIX360 : Développée par IBM, AI Explainability 360 (ou AIX 360) est une bibliothèque open-source utilisée pour expliquer et interpréter des ensembles de données et des modèles d'apprentissage automatique. Publiée sous la forme d'un paquetage Python, AIX360 comprend un ensemble complet d'algorithmes qui couvrent différentes explications ainsi que des métriques.
SHAP : Abréviation de Shapley Additive Explanations (explications additives de Shapley), SHAP est une approche théorique basée sur les jeux qui permet d'expliquer les résultats de n'importe quel modèle d'apprentissage automatique. En utilisant les valeurs de Shapley de la théorie des jeux, SHAP peut relier les allocations de crédit optimales à des explications locales. SHAP est facile à installer en utilisant PyPI ou Conda Forge.
Conclusion
Les organisations doivent avoir une compréhension complète de leurs processus décisionnels alimentés par l'IA grâce à la surveillance de l'IA. L'IA explicable permet aux organisations d'expliquer facilement les algorithmes de ML et les réseaux neuronaux profonds qu'elles ont déployés. Elle contribue efficacement à renforcer la confiance des entreprises tout en favorisant l'utilisation productive des technologies d'IA et de ML.