O que é a IA explicável?

Com o avanço das tecnologias de aprendizagem profunda, como a Inteligência Artificial (IA) e a Aprendizagem Automática (AM), estamos a ser desafiados a compreender os resultados produzidos pelos algoritmos informáticos. Por exemplo, como é que os algoritmos de aprendizagem automática produziram um determinado resultado?
A IA explicável (ou XAI) abrange os processos e as ferramentas que permitem aos utilizadores humanos compreender os resultados gerados pelos algoritmos de ML. As organizações têm de criar confiança nos modelos de IA quando os colocam em produção.
Todo o processo XAI é também referido como um modelo de "caixa negra" que é criado diretamente a partir dos dados gerados. De seguida, vamos analisar alguns dos casos de utilização da IA explicável.

Casos de utilização de IA explicável

Eis alguns dos casos de utilização real da IA explicável:

Para texto em linguagem natural:
A XAI para Texto centra-se no desenvolvimento de modelos de caixa negra para tarefas relacionadas com texto. Por exemplo, a sumarização de texto de documentos jurídicos. Neste caso de utilização, os utilizadores podem explorar e compreender o XAI for Text com base nas seguintes considerações:
Tipo de tarefa centrada no texto que está a ser considerada
Técnicas de explicação utilizadas para a tarefa
Os utilizadores-alvo da técnica XAI específica
Do mesmo modo, um modelo de aprendizagem profunda baseado em XAI pode classificar dados textuais sob a forma de críticas e transcrições. Utilizando IA explicável, pode determinar por que razão o modelo faz previsões com base nas palavras-chave e frases específicas incluídas no texto.

Também pode utilizar o XAI para Texto para treinar um modelo de aprendizagem profunda para gerar um resumo do artigo com base no texto de origem. Por exemplo, pode obter uma distribuição de pontuações de atenção em tokens seleccionados no texto de origem. As palavras (com uma pontuação de atenção entre 0-1) são destacadas no texto de origem e apresentadas aos utilizadores finais. Quanto mais elevada for a pontuação de atenção, mais escuro será o destaque do texto - e maior será a importância da palavra no resumo do artigo.

Para imagens visuais:
A IA explicável é também utilizada para automatizar a tomada de decisões com base em imagens visuais de alta resolução. Alguns exemplos de imagens de alta resolução incluem imagens de satélite e dados médicos. Para além do elevado volume de dados de satélite, os dados captados são de alta resolução e contêm várias bandas espectrais. Por exemplo, luz visível e infravermelha. É possível implementar modelos treinados pela XAI para "dividir" imagens de alta resolução em fragmentos mais pequenos.

No domínio das imagens médicas, os modelos XAI são utilizados para detetar pneumonia torácica através de radiografias. Do mesmo modo, o reconhecimento de imagens é outro caso de utilização da IA explicável no domínio das imagens visuais. Utilizando a IA visual, é possível treinar modelos de IA personalizados para reconhecer imagens ou objectos (contidos em imagens capturadas).

Para estatísticas:
Os modelos e algoritmos da XAI são eficazes com base no seu grau de exatidão ou interpretação. Os modelos de relações estatísticas, como a regressão linear, as árvores de decisão e a vizinhança mais próxima (K-nearest neighborhoods) são fáceis de interpretar, mas menos exactos. Para que os modelos de redes neuronais sejam interpretáveis e exactos, devem ser introduzidos dados de elevada qualidade no modelo de IA.

A XAI tem um enorme potencial no domínio da ciência dos dados. Por exemplo, a IA explicável é utilizada nos sistemas de produção estatística da Banco Central Europeu (BCE). Ao associar os desideratos centrados no utilizador às funções "típicas" do utilizador, a XAI pode delinear métodos e técnicas utilizados para responder às necessidades de cada utilizador.

De seguida, vamos discutir as ferramentas e estruturas comuns utilizadas na IA explicável.

IA explicável - Ferramentas e quadros

Nos últimos tempos, os investigadores de IA têm trabalhado em várias ferramentas e estruturas para promover a IA explicável. Eis algumas das mais populares:

E se: Desenvolvido pela equipa do TensorFlow, o What-If é uma ferramenta visualmente interactiva utilizada para compreender o resultado dos modelos de IA do TensorFlow. Com esta ferramenta, pode visualizar facilmente conjuntos de dados juntamente com o desempenho do modelo de IA implementado.

LIME: Abreviatura de Local Interpretable Model-agnostic Explanation, a ferramenta LIME foi desenvolvida por uma equipa de investigação da Universidade de Washington. A LIME proporciona uma melhor visibilidade sobre "o que está a acontecer" no algoritmo. Além disso, a LIME oferece uma forma modular e extensível de explicar as previsões de qualquer modelo.

AIX360: Desenvolvida pela IBM, a AI Explainability 360 (ou AIX 360) é uma biblioteca de código aberto utilizada para explicar e interpretar conjuntos de dados e modelos de aprendizagem automática. Lançado como um pacote Python, o AIX360 inclui um conjunto completo de algoritmos que cobrem diferentes explicações juntamente com métricas.

SHAP: Abreviatura de Shapley Additive Explanations, SHAP é uma abordagem teórica baseada em jogos para explicar o resultado de qualquer modelo de aprendizagem automática. Ao usar os valores de Shapley da teoria dos jogos, o SHAP pode conectar alocações de crédito ideais com explicações locais. O SHAP é fácil de instalar usando PyPI ou Conda Forge.

Conclusão

As organizações têm de ter uma compreensão completa dos seus processos de tomada de decisão baseados em IA através da monitorização da IA. A IA explicável permite que as organizações expliquem facilmente os seus algoritmos de ML e redes neurais profundas implementados. Efetivamente, ajuda a criar confiança nos negócios, juntamente com o uso produtivo de tecnologias de IA e ML.

pt_PTPortuguês