La respuesta rápida a dicha pregunta es que los
modelos de inteligencia artificial (IA) de «razonamiento» podrían realizar comprobaciones más amplias y con un mayor volumen de documentos que las herramientas disponibles actualmente, pero de momento no son del todo fiables y requieren de supervisión humana.
Se trata, por un lado, de
The Black Spatula Project, una herramienta de código abierto que busca errores en artículos y los comunica a los autores responsables. Por otro lado, también se menciona a
YesNoError, un proyecto basado en
blockchain e IA que en dos meses ha escaneado más de 37.000 artículos en busca de fallos.
Ambas herramientas están en fases iniciales y tienen una alta tasa de falsos positivos
Ambos proyectos están en sus fases iniciales y el objetivo es que puedan convertirse en herramientas útiles tanto para investigadores como para editores, facilitando la revisión de los trabajos científicos en busca de inconsistencias antes de que se publiquen.
De hecho, dichos proyectos escanean artículos publicados en repositorios de preprints, cuando los trabajos todavía no han sido sometidos a los controles y revisiones previas a la publicación definitiva en una revista científica.
Según expertos consultados para el reportaje, el principal problema de ambas iniciativas es la tasa de falsos positivos; es decir, la identificación de errores por parte de la IA que en realidad no lo son. Por ello, se insiste en la necesidad de contar con especialistas humanos para verificar los resultados que arrojan los modelos, lo que puede ser un factor limitante.
No obstante, otros expertos consideran que, si bien es necesario afinar estas herramientas para mejorar su efectividad, el objetivo que persiguen es relevante, porque podrían servir para seleccionar artículos que necesitan un análisis más detallado antes de ser publicados.
Referencia
Gibney E. AI tools are spotting errors in research papers: inside a growing movement.
Nature. Published online March 7, 2025.
doi:10.1038/d41586-025-00648-5
OAD-ES-AMG-0001