Las preocupaciones sobre la "ilusion" creada por la inteligencia artificial (IA) son cada vez mas evidentes en el mundo academico, ya que las citas falsas estan comenzando a aparecer incluso en las conferencias cientificas mas prestigiosas del mundo.
Segun un nuevo informe de la empresa emergente de descubrimiento de IA GPTZero en los Estados Unidos, se descubrio que mas de 51 articulos de investigacion aceptados en la Conferencia del Sistema de Procesamiento de Informacion Neurologica (abreviado como NeurIPS) contenian citas falsas creadas por la IA. En total, se encontraron mas de 100 citas "inexistentes" entre estos articulos.
NeurIPS es una de las conferencias anuales mas grandes e influyentes en el campo de la inteligencia artificial y la robotica (IA/ML).
GPTZero dijo que escaneo 4.841 estudios aceptados en el NeurIPS 2025, celebrado en diciembre pasado en San Diego, California (EE. UU.), para detectar tanto citas falsas como el contenido de la IA generadora.
Aunque la proporcion de 51 en 4.841 articulos no tiene un gran significado estadistico, segun la politica de NeurIPS sobre el uso de modelos lingüisticos grandes (LLM), solo la aparicion de una cita falsa puede convertirse en una base para rechazar o retirar articulos.
Estos articulos han sido aceptados, presentados directamente y publicados oficialmente. En un contexto en el que la tasa de aceptacion de NeurIPS 2025 es solo del 24,52%, cada articulo ha superado a mas de 15.000 otros manuscritos, aunque todavia contiene una o mas alucinaciones erroneas", señalo GPTZero.
Este descubrimiento es particularmente preocupante porque NeurIPS es un lugar donde se reunen los principales expertos mundiales en inteligencia artificial. El hecho de que las obras estrictamente evaluadas sigan siendo citadas falsamente muestra que incluso los investigadores de IA tienen dificultades para controlar la precision de las herramientas que utilizan.
NeurIPS no es un caso aislado. En diciembre del año pasado, GPTZero tambien descubrio mas de 50 citas falsas en estudios que se estaban considerando para la Conferencia ICLR 2026.
Ademas, los archivos de manuscritos en linea como arXiv estan mostrando cada vez mas obras de baja calidad, creadas o fuertemente respaldadas por la IA.
Un analisis citado en The Atlantic (EE. UU.) muestra que los cientificos que utilizan herramientas basadas en modelos lingüisticos grandes publican alrededor del 33% mas articulos que aquellos que no utilizan estas herramientas.
Para detectar citas falsas, GPTZero utiliza su propia herramienta de IA llamada "Hallucination Check", especializada en revisar fuentes de citas que no se pueden encontrar en linea.
Las citas etiquetadas que luego son verificadas manualmente por humanos y llamadas por la empresa "citativas emocionales", son citas que parecen razonables pero que no existen en absoluto.
GPTZero dijo que han proporcionado esta herramienta a autores, editores y presidentes de conferencias para detectar tempranamente errores de citas, ayudando asi a que el proceso de evaluacion academica sea mas rapido y preciso en la era de la IA generadora.