«Algoritmovigilancia» para supervisar los riesgos de la IA en salud

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

10 OCT 2024

«Algoritmovigilancia» para supervisar los riesgos de la IA en salud

 

A medida que la inteligencia artificial (IA) va echando raíces en múltiples sectores, incluidos aquellos más sensibles como la atención sanitaria, se hace cada vez más necesaria una monitorización estrecha de dicha tecnología para tratar de minimizar riesgos y perjuicios.
Con este punto de partida, un equipo de investigadores franceses aprovecha el término «algoritmovigilancia», acuñado en 2021 por el Dr. estadounidense Peter Embi, para plantear, en un trabajo publicado en npj Digital Medicine, algunas características clave de la farmacovigilancia que podrían resultar de utilidad para supervisar sistemas de IA en sanidad.
Es el caso, por ejemplo, de la evaluación tras la aprobación de un determinado sistema de IA, que podría servir para descubrir puntos ciegos del modelo o sesgos no detectados durante el desarrollo. Para ello, es necesario que dicha evaluación se realice en base a datos recogidos en varias instituciones, en diferentes momentos temporales y en distintos entornos clínicos.
 
 
El trabajo destaca la importancia de notificar eventos adversos asociados a la IA
 
 
Los expertos franceses también destacan la importancia de notificar de forma estandarizada los eventos adversos ocasionados por los sistemas de IA, con datos clave como la información del paciente, la descripción del evento, el entorno de trabajo y la secuencia de sucesos que han conducido al error, entre otros aspectos.
Una vez identificado, es necesario realizar una evaluación de causalidad para comprender el origen del error y tratar de corregirlo. Para ello, se deberían realizar test de reproducibilidad y de estrés para tratar de identificar fallos similares.
El trabajo también resalta la importancia de difundir de forma efectiva los errores identificados para prevenir y mitigar su impacto. Si bien ya existen bases de datos en este sentido, no son específicas de entornos sanitarios, por lo que habría que establecerlas para que tanto profesionales sanitarios como pacientes puedan acceder a información precisa sobre eventos adversos de modelos de IA.
Si bien la «algoritmovigilancia» no está exenta de retos, como hacer frente al rápido desarrollo de nuevos modelos y garantizar en todo momento la privacidad de los datos de los pacientes, los resultados del proceso deberían servir para corregir y actualizar los sistemas de IA de aplicación en salud, si bien dicha aproximación también podría ser útil para otros sectores.
Referencia
Balendran A, Benchoufi M, Evgeniou T, Ravaud P. Algorithmovigilance, lessons from pharmacovigilance. NPJ Digit Med. 2024;7(1):270. Published 2024 Oct 2. doi:10.1038/s41746-024-01237-y
OAD-ES-AMG-0001

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!