Comment le secteur de la santé pourrait-il utiliser l'IA explicable ?
Comment le secteur de la santé pourrait-il utiliser l'IA explicable ?
Les soins de santé, la finance, l'assurance et l'industrie manufacturière ne sont que quelques-uns des secteurs sur lesquels l'intelligence artificielle (IA) a un impact considérable. Des modèles d'IA plus complexes sont développés pour répondre aux exigences de cas d'utilisation particuliers. Cependant, les prédictions de ces modèles d'IA semblent être des résultats "boîte noire", sans aucune justification ou explication de la raison pour laquelle ils ont été faits. La nécessité pour les chercheurs, les organisations et les régulateurs de comprendre comment les modèles d'IA donnent des suggestions, des prévisions, etc. a donné naissance à l'IA explicable (XAI).
L'intelligence artificielle explicable (XAI) est l'une des branches les plus récentes et les plus dynamiques de l'intelligence artificielle. L'approche XAI vise à offrir une explication compréhensible par l'homme pour le modèle d'apprentissage profond. Dans les secteurs où la sécurité est essentielle, comme les soins de santé ou la sécurité, cet aspect est crucial. Les approches proposées dans la littérature au fil des ans prétendent souvent qu'elles répondront directement à la question de savoir comment le modèle est arrivé à sa conclusion.
Comprendre quand l'IAO est nécessaire pour les soins de santé
Les professionnels de la santé utilisent l'IA pour accélérer et améliorer diverses fonctions, notamment la gestion des risques, la prise de décision et même le diagnostic, en scannant des images médicales pour trouver des anomalies et des modèles invisibles à l'œil humain. Bien que l'IA soit devenue un outil essentiel pour de nombreux professionnels de la santé, elle est difficile à comprendre, ce qui est frustrant pour les prestataires, en particulier lorsqu'il s'agit de prendre des décisions importantes.
L'un des scénarios suivants nécessite une XAI
- Lorsque l'équité est une priorité absolue et que les clients ou les utilisateurs finaux ont besoin d'informations pour faire un choix éclairé
- Lorsqu'un mauvais jugement en matière d'IA a des conséquences importantes (par exemple, une recommandation d'intervention chirurgicale inutile)
- Lorsque les conséquences d'une erreur sont graves, comme le classement erroné de tumeurs malignes qui entraîne des frais financiers excessifs, des risques accrus pour la santé et un traumatisme personnel.
- Lorsqu'un système d'IA crée une nouvelle hypothèse qui doit être testée par des spécialistes dans un domaine particulier.
- Dans le but de se conformer aux réglementations, telles que le Règlement général sur la protection des données (RGPD) de l'UE, qui garantit le " droit à une explication " lorsque des processus automatisés traitent les données des utilisateurs.
Selon plusieurs experts, l'adoption relativement tardive des systèmes d'IA dans le secteur des soins de santé est due à la quasi-impossibilité de confirmer de manière indépendante les résultats des systèmes "boîte noire".
Cependant, les cliniciens peuvent utiliser l'IAO pour déterminer le meilleur traitement pour un patient en déterminant pourquoi il présente un risque si élevé d'admission à l'hôpital. Les médecins peuvent ainsi fonder leurs décisions sur des informations plus fiables. En outre, la traçabilité et la transparence des décisions cliniques s'en trouvent améliorées. Le processus d'approbation des produits pharmaceutiques peut également être accéléré grâce à l'IAO.
Comment les médecins peuvent-ils bénéficier de l'IAO ?
Les moniteurs cardiaques des montres-bracelets de nombreuses personnes peuvent fondre à l'idée de mettre en œuvre l'IA dans les soins de santé, mais nous pensons qu'une approche entièrement explicable et morale sera la sucette. Elle impliquera qu'une multitude de données historiques sur les patients et les données cliniques puissent être utilisées pour aider les médecins et les autres professionnels de la santé à apprendre de l'IA, en plus d'aider l'IA à informer les plans de soins.
Il rendra possible un processus efficace, fondé sur les données, qui évalue et calibre l'ensemble de l'algorithme chaque fois qu'une nouvelle option de traitement est disponible et permet de mettre en place des programmes individualisés et traçables pour chaque patient. Pour améliorer en permanence ses recommandations aux médecins, il combinera les données de milliers de personnes atteintes de maladies presque comparables.
Le XAI peut être utilisé par les médecins et les professionnels de la santé, car ils peuvent
- Apprenez à partir des données au lieu de donner l'autorité à l'algorithme.
- Traiter les patients de manière impartiale et éthique en utilisant une grande quantité d'informations académiques et médicales.
- Créez cette connaissance avec l'IA sans sacrifier la touche humaine.
- Identifier les problèmes à un stade précoce et prendre des mesures d'intervention plus efficaces pour accélérer le rétablissement de la santé.
- Améliorer les installations, les délais, les budgets et les résultats en matière de santé tout en maintenant les coûts à un niveau bas.
Conclusion
En matière de transformation numérique durable, de nombreuses organisations tirent déjà parti de la croissance exponentielle de la technologie. Il n'y a jamais eu de meilleur moment pour les prestataires de soins de santé et les entreprises des secteurs des sciences de la vie et de la biotechnologie de faire de même, alors que nous cherchons tous de meilleures façons de fonctionner dans le sillage de quelques années turbulentes.
Les solutions d'explicabilité peuvent aider les professionnels de la santé à garder confiance tout en explorant l'innovation. En outre, lorsque les gouvernements imposent des réglementations rigoureuses sur les technologies de la santé, l'explicabilité peut être une première étape cruciale pour ouvrir la boîte noire de l'IA et rendre le modèle de prise de décision clair pour toutes les parties prenantes.