Como é que os cuidados de saúde podem utilizar a IA explicável?
Como é que os cuidados de saúde podem utilizar a IA explicável?
Os cuidados de saúde, as finanças, os seguros e a indústria transformadora são apenas alguns dos sectores em que a inteligência artificial (IA) tem um grande impacto. Estão a ser desenvolvidos modelos de IA mais complexos para satisfazer os requisitos de casos de utilização específicos. No entanto, as previsões destes modelos de IA parecem ser resultados de uma "caixa negra", sem qualquer justificação ou explicação do motivo pelo qual foram efectuadas. A necessidade de investigadores, organizações e reguladores compreenderem como os modelos de IA estão a dar sugestões, previsões, etc., deu origem à IA explicável (XAI).
A inteligência artificial explicável (XAI) é um dos ramos mais recentes e de crescimento mais rápido da inteligência artificial. A abordagem XAI tem como objetivo oferecer uma explicação compreensível para o modelo de aprendizagem profunda. Em sectores críticos para a segurança, como os cuidados de saúde ou a segurança, isto é extremamente importante. As abordagens apresentadas na literatura ao longo dos anos afirmam frequentemente que responderão de forma direta à questão de saber como o modelo chegou à sua conclusão.
Compreender quando é que a XAI é necessária para os cuidados de saúde
Os profissionais de saúde utilizam a IA para agilizar e melhorar várias funções, incluindo a gestão de riscos, a tomada de decisões e até o diagnóstico, digitalizando imagens médicas para encontrar anomalias e padrões invisíveis ao olho humano. Embora a IA se tenha tornado uma ferramenta vital para muitos profissionais de saúde, é difícil de compreender, o que frustra os prestadores de serviços, especialmente quando tomam decisões importantes.
Qualquer um dos seguintes cenários requer XAI
- Quando a equidade é uma prioridade máxima e quando os clientes ou utilizadores finais necessitam de informações para fazer uma escolha informada
- Quando um mau julgamento da IA tem efeitos de grande alcance (como uma recomendação para uma cirurgia desnecessária)
- Quando as consequências de um erro são graves, como a classificação incorrecta de tumores malignos, resultam em encargos financeiros excessivos, riscos de saúde acrescidos e traumas pessoais.
- Quando um sistema de IA cria uma nova hipótese que precisa de ser testada por especialistas num determinado domínio.
- Com o objetivo de cumprir os regulamentos, como o Regulamento Geral sobre a Proteção de Dados (RGPD) da UE, que garante o "direito a uma explicação" quando os processos automatizados processam dados do utilizador
De acordo com vários especialistas, a adoção relativamente tardia dos sistemas de IA no sector da saúde deve-se à quase impossibilidade de confirmar de forma independente os resultados dos sistemas de caixa negra.
No entanto, os médicos podem utilizar a XAI para determinar a melhor forma de tratamento para um doente, determinando a razão pela qual este apresenta um risco tão elevado de internamento hospitalar. Como resultado, os médicos podem basear as suas decisões em informações mais fiáveis. Além disso, aumenta a rastreabilidade e a transparência das decisões clínicas. O processo de aprovação de produtos farmacêuticos também pode ser acelerado com a XAI.
Como é que os médicos podem beneficiar da XAI?
Os monitores cardíacos dos relógios de pulso de muitas pessoas podem derreter com a ideia de implementar a IA nos cuidados de saúde, mas pensamos que uma abordagem totalmente explicável e moral será a chupeta. Isso implicará que uma grande quantidade de dados históricos clínicos e dos pacientes possa ser utilizada para ajudar os médicos e outros profissionais de saúde a aprender com a IA, para além de ajudar a IA a informar os planos de cuidados.
Tornará possível um processo eficaz, baseado em dados, que avalia e calibra todo o algoritmo sempre que uma nova opção de tratamento fica disponível e permite programas rastreáveis e individualizados para cada doente. Para melhorar continuamente as suas recomendações aos médicos, combinará dados de milhares de indivíduos com doenças quase comparáveis.
A XAI pode ser utilizada por médicos e profissionais de saúde, uma vez que pode
- Aprender com os dados em vez de dar autoridade ao algoritmo.
- Tratar os pacientes de forma imparcial e ética, utilizando uma vasta quantidade de informações académicas e médicas.
- Crie esse conhecimento com a IA sem sacrificar o toque humano.
- Identificar precocemente os problemas e tomar medidas mais eficazes de intervenção para uma recuperação mais rápida da saúde.
- Melhorar as instalações, os prazos, os orçamentos e os resultados sanitários, mantendo os custos baixos.
Conclusão
Quando se trata de transformação digital sustentável, muitas organizações já tiram partido do crescimento exponencial da tecnologia. Nunca houve melhor altura para os prestadores de cuidados de saúde e as empresas dos sectores das ciências da vida e da biotecnologia fazerem o mesmo, uma vez que todos nós procuramos melhores formas de operar na sequência de uns anos turbulentos.
As soluções para a explicabilidade podem ajudar os profissionais de saúde a manter a sua confiança enquanto exploram a inovação. Além disso, quando os governos impõem regulamentações rigorosas sobre a tecnologia dos cuidados de saúde, a explicabilidade pode ser um primeiro passo crucial para abrir a caixa negra da IA e tornar a tomada de decisões sobre modelos clara para todas as partes interessadas.