¿Cómo podría utilizar la sanidad la IA explicable?

La sanidad, las finanzas, los seguros y la fabricación son sólo algunos de los sectores en los que la inteligencia artificial (IA) tiene un gran impacto. Se están desarrollando modelos de IA más complejos para satisfacer los requisitos de casos de uso concretos. Sin embargo, las predicciones de estos modelos de IA parecen ser resultados de "caja negra", que carecen de cualquier justificación o explicación de por qué se hicieron. La necesidad de que investigadores, organizaciones y reguladores comprendan cómo los modelos de IA dan completamente sugerencias, previsiones, etc., dio lugar a la IA explicable (XAI).

La inteligencia artificial explicable (XAI) es una de las ramas más nuevas y de más rápido crecimiento de la inteligencia artificial. El objetivo de la XAI es ofrecer una explicación comprensible para el ser humano del modelo de aprendizaje profundo. En sectores en los que la seguridad es crítica, como la sanidad o la seguridad, esto es extremadamente importante. Los enfoques presentados en la literatura a lo largo de los años afirman con frecuencia que responderán a la pregunta de cómo el modelo llegó a su conclusión directamente.

Comprender cuándo es necesaria la XAI para la atención sanitaria

Los profesionales sanitarios utilizan la IA para agilizar y mejorar diversas funciones, como la gestión de riesgos, la toma de decisiones e incluso el diagnóstico, escaneando imágenes médicas para encontrar anomalías y patrones invisibles para el ojo humano. Aunque la IA se ha convertido en una herramienta vital para muchos profesionales sanitarios, es difícil de entender, lo que frustra a los proveedores, sobre todo a la hora de tomar decisiones importantes.

Cualquiera de los siguientes escenarios requiere XAI

  • Cuando la equidad es una prioridad absoluta y los clientes o usuarios finales necesitan información para elegir con conocimiento de causa.
  • Cuando un mal juicio de AI tiene efectos de amplio alcance (como una recomendación de cirugía innecesaria).
  • Cuando las consecuencias de un error son graves, como la clasificación errónea de tumores malignos, se producen gastos financieros excesivos, mayores riesgos para la salud y traumas personales.
  • Cuando un sistema de IA crea una nueva hipótesis que debe ser probada por especialistas en un campo concreto.
  • Con el objetivo de cumplir la normativa, como el Reglamento General de Protección de Datos (RGPD) de la UE, que garantiza el "derecho a una explicación" cuando los procesos automatizados tratan datos de los usuarios

Según varios expertos, la adopción relativamente tardía de los sistemas de IA en el sector sanitario se debe a la casi imposibilidad de confirmar de forma independiente los resultados de los sistemas de caja negra.

Sin embargo, los médicos pueden utilizar la XAI para determinar el mejor tratamiento para un paciente determinando por qué tiene un riesgo tan alto de ingreso hospitalario. De este modo, los médicos pueden basar sus decisiones en información más fiable. Además, mejora la trazabilidad y transparencia de las decisiones clínicas. El proceso de aprobación de productos farmacéuticos también puede acelerarse con XAI.

¿Cómo pueden beneficiarse los médicos de la XAI?



Los monitores cardíacos de los relojes de pulsera de muchas personas pueden derretirse ante la idea de implantar la IA en la atención sanitaria, pero creemos que un enfoque totalmente explicable y moral será el chupete. Implicará que se pueda utilizar una gran cantidad de datos históricos de pacientes y clínicos para ayudar a los médicos y otros profesionales sanitarios a aprender de la IA, además de ayudar a la IA a informar sobre los planes de atención.

Hará posible un proceso eficaz, basado en datos, que evalúe y calibre todo el algoritmo cada vez que se disponga de una nueva opción de tratamiento y permita trazar programas individualizados para cada paciente. Para mejorar continuamente sus recomendaciones a los médicos, combinará datos de miles de individuos con enfermedades casi comparables.

La XAI puede ser utilizada por médicos y profesionales sanitarios, ya que pueden


  • Aprender de los datos en lugar de dar autoridad al algoritmo.
  • Tratar a los pacientes de forma imparcial y ética utilizando una gran cantidad de información académica y médica.
  • Cree ese conocimiento con IA sin sacrificar el toque humano.
  • Detectar los problemas a tiempo y tomar medidas más eficaces de intervención para una recuperación más rápida de la salud.
  • Mejore las instalaciones, la puntualidad, los presupuestos y los resultados sanitarios manteniendo bajos los costes.

Conclusión

Cuando se trata de transformación digital sostenible, muchas organizaciones ya aprovechan el crecimiento exponencial de la tecnología. Nunca ha habido un mejor momento para que los proveedores sanitarios y las empresas de los sectores de las ciencias de la vida y la biotecnología hagan lo mismo, ya que todos buscamos mejores formas de operar tras unos años turbulentos.

Las soluciones de explicabilidad pueden ayudar a los profesionales sanitarios a mantener su confianza mientras exploran la innovación. Además, cuando los gobiernos impongan normativas rigurosas a la tecnología sanitaria, la explicabilidad puede ser un primer paso crucial para abrir la caja negra de la IA y aclarar a todas las partes interesadas la toma de decisiones sobre modelos.

es_ESEspañol