El uso creciente de inteligencia artificial en la investigación académica ha comenzado a encender alertas en la comunidad científica internacional, luego de que un análisis periodístico de la revista Nature detectara un aumento significativo de referencias falsas en publicaciones recientes.
De acuerdo con el informe, decenas de miles de artículos científicos publicados en 2025 —incluyendo revistas, libros y actas de congresos— podrían contener citas inexistentes generadas por modelos de lenguaje. El fenómeno, conocido como “alucinación” de la inteligencia artificial, ocurre cuando estas herramientas producen información aparentemente válida, pero sin respaldo real.
Uno de los estudios citados por Nature analizó cerca de 18 mil artículos presentados en congresos de informática y encontró que el 2.6% contenía al menos una referencia potencialmente fraudulenta, un incremento considerable frente al 0.3% registrado en 2024.
Otros análisis refuerzan la preocupación: entre el 2% y el 6% de artículos en distintos congresos incluyeron citas imposibles de verificar o con títulos alterados. Para especialistas, este fenómeno refleja un cambio cualitativo en los errores académicos.
“Antes hablábamos de imprecisiones como errores tipográficos o datos incompletos; ahora estamos frente a referencias completamente inventadas”, explicó Mohammad Hosseini, experto en integridad científica.
El problema se agrava por el uso cada vez más extendido de modelos de lenguaje para realizar revisiones bibliográficas, redactar manuscritos y organizar citas. Aunque estas herramientas agilizan procesos, también pueden generar fuentes inexistentes sin advertencia.
Un experimento con el modelo GPT-4o de OpenAI evidenció la magnitud del desafío: al solicitarle la elaboración de revisiones bibliográficas, casi el 20% de las referencias generadas resultaron ser falsas, mientras que cerca del 45% de las restantes contenían errores.
Para académicos como Alison Johnston, el fenómeno ya tiene consecuencias tangibles en los procesos editoriales. Tan solo en enero, la especialista rechazó el 25% de los artículos revisados debido a problemas con referencias, una situación inédita en su experiencia.
El análisis también destaca la participación de empresas tecnológicas como Grounded AI, que desarrollan herramientas para identificar citas sospechosas, en un intento por contener el problema.
Especialistas coinciden en que, si bien los errores de citación han existido históricamente, la irrupción de la inteligencia artificial ha transformado su naturaleza y escala. “Vamos a ver una avalancha de referencias falsas”, advirtió Johnston, al subrayar la urgencia de establecer controles más estrictos en la publicación científica.
El desafío, concluyen, no solo es técnico, sino ético: garantizar la integridad del conocimiento en una era donde la automatización puede comprometer la veracidad de la ciencia.