¿Puede la IA servir para detectar errores en artículos científicos?

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

13 MAR 2025

¿Puede la IA servir para detectar errores en artículos científicos?

 

La respuesta rápida a dicha pregunta es que los modelos de inteligencia artificial (IA) de «razonamiento» podrían realizar comprobaciones más amplias y con un mayor volumen de documentos que las herramientas disponibles actualmente, pero de momento no son del todo fiables y requieren de supervisión humana.
Distintos modelos y herramientas de IA pueden resultar útiles en el proceso investigador, por ejemplo para facilitar búsquedas y referencias o realizar sugerencias para mejorar un manuscrito. Recientemente, la revista Nature ha publicado un reportaje sobre dos proyectos cuyo objetivo es poner a prueba la habilidad de la IA para detectar errores e inconsistencias en artículos científicos.
Se trata, por un lado, de The Black Spatula Project, una herramienta de código abierto que busca errores en artículos y los comunica a los autores responsables. Por otro lado, también se menciona a YesNoError, un proyecto basado en blockchain e IA que en dos meses ha escaneado más de 37.000 artículos en busca de fallos.
 
 
Ambas herramientas están en fases iniciales y tienen una alta tasa de falsos positivos
 
 
Ambos proyectos están en sus fases iniciales y el objetivo es que puedan convertirse en herramientas útiles tanto para investigadores como para editores, facilitando la revisión de los trabajos científicos en busca de inconsistencias antes de que se publiquen.
De hecho, dichos proyectos escanean artículos publicados en repositorios de preprints, cuando los trabajos todavía no han sido sometidos a los controles y revisiones previas a la publicación definitiva en una revista científica.
Según expertos consultados para el reportaje, el principal problema de ambas iniciativas es la tasa de falsos positivos; es decir, la identificación de errores por parte de la IA que en realidad no lo son. Por ello, se insiste en la necesidad de contar con especialistas humanos para verificar los resultados que arrojan los modelos, lo que puede ser un factor limitante.
No obstante, otros expertos consideran que, si bien es necesario afinar estas herramientas para mejorar su efectividad, el objetivo que persiguen es relevante, porque podrían servir para seleccionar artículos que necesitan un análisis más detallado antes de ser publicados.
Referencia
Gibney E. AI tools are spotting errors in research papers: inside a growing movement. Nature. Published online March 7, 2025. doi:10.1038/d41586-025-00648-5
OAD-ES-AMG-0001
 

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!