Las herramientas de inteligencia artificial (IA) generativa pueden usarse para producir gran cantidad de contenidos falsos sobre salud dirigidos a una amplia variedad de segmentos poblacionales y de forma alarmantemente rápida, según un estudio realizado por farmacólogos de la Flinders University, en Adelaida (Australia).
Los investigadores recurrieron a tres herramientas de IA disponibles para generar textos, imágenes y vídeo con
contenidos engañosos para desinformar sobre dos aspectos de interés en salud pública, como son las vacunas y el vapeo. El trabajo se ha publicado recientemente en la revista
JAMA Internal Medicine.
En poco menos de una hora, los autores consiguieron que ChatGPT produjera 102 posts con contenido falso sobre vacunas y vapeo. Estos artículos pretendían influir en distintos grupos de población, como adultos jóvenes, personas mayores, embarazadas o enfermos crónicos, incluían testimonios de falsos médicos y pacientes, e incorporaban referencias de aspecto científico.
Los autores reclaman una vigilancia estricta de la IA para minimizar riesgos en salud
Por otro lado, mediante DALL-E 2, los autores generaron, en menos de dos minutos, una veintena de imágenes realistas dirigidas a difundir información falsa sobre los citados temas. A través de HeyGen, elaboraron en unos cinco minutos un vídeo falso en el que un profesional de la salud desinformaba sobre vacunas. Además, dicho vídeo podía adaptarse a más de 40 idiomas distintos.
El trabajo, que incluye la expresión “armas de desinformación masiva”, alerta de que la IA puede generar rápidamente gran cantidad de contenidos con potencial para incidir en aspectos de salud pública. Es por ello que reclama una vigilancia estricta de estas herramientas mediante la colaboración entre profesionales sanitarios, desarrolladores y responsables gubernamentales.
Para abordar esta problemática, los autores consideran que los pilares de la farmacovigilancia —transparencia, supervisión y regulación— podrían servir de ejemplo sobre cómo proteger a los ciudadanos y a la salud pública ante los riesgos relacionados con el rápido avance de la IA.
Fuente:
Referencia
Menz BD, Modi ND, Sorich MJ, Hopkins AM. Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation [published online ahead of print, 2023 Nov 13].
JAMA Intern Med. 2023;10.1001/jamainternmed.2023.5947.
doi:10.1001/jamainternmed.2023.5947
OAD-ES-AMG-0001