Un estudio reciente a cargo de especialistas estadounidenses puso a prueba la capacidad de la versión gratuita de
ChatGPT para responder a preguntas sobre medicamentos. Presentado en la
American Society of Health-System Pharmacists Midyear Clinical Meeting , que se celebró del 3 al 7 de diciembre en Anaheim (California), el trabajo pone de relieve que la IA no es de fiar en dicha tarea.
Para realizar el estudio, los investigadores recurrieron a preguntas reales recibidas en el servicio de información sobre fármacos de la Facultad de Farmacia de la Long Island University. Los autores seleccionaron y respondieron a una serie de preguntas, y cada respuesta fue revisada por un especialista independiente.
Solo un 25% de las respuestas ofrecidas por la IA fueron satisfactorias para los expertos
A continuación, plantearon las mismas preguntas a ChatGPT para realizar la comparativa. Los resultados muestran que solo una de cada cuatro cuestiones respondidas por la IA (10/39) fueron consideradas satisfactorias por los expertos. En el resto de casos, o no respondía directamente a la pregunta, u ofrecía respuestas inexactas y/o incompletas.
Además, en cada petición al chatbot de IA, los autores solicitaron referencias para poder verificar las respuestas. Sin embargo, el programa solo facilitó referencias en ocho casos, y en todos ellos incluyó referencias falsas.
Los autores ponen de relieve que, en algunos casos, las inexactitudes de las respuestas proporcionadas por ChatGPT podrían perjudicar a los pacientes, especialmente en relación con los riesgos por interacciones farmacológicas.
Por todo ello, consideran que tanto profesionales de la salud como pacientes deberían usar estas herramientas con cautela a la hora de obtener información sobre medicamentos. Y en caso de recurrir a ellas recomiendan verificar las respuestas en fuentes de información fiables.
Fuente:
OAD-ES-AMG-0001