SABERES TRANSDISCIPLINARES E ORGÂNICOS.

quinta-feira, 9 de abril de 2026

Nature mostrou que mais de 110 mil artigos de 2025 podem conter referências fabricadas, não imprecisas, mas simplesmente inexistentes




Um levantamento recente publicado na Nature mostrou que mais de 110 mil artigos de 2025 podem conter referências fabricadas, não imprecisas, mas simplesmente inexistentes. Papers que nunca foram publicados, foram citados como se fossem reais.


À primeira vista, isso parece um problema de tecnologia. Mas não é. LLMs fazem exatamente o que foram projetados para fazer, que é gerar texto plausível. Eles não verificam fatos, não validam fontes, não distinguem verdade de probabilidade. Isso nunca foi promessa. O erro começa quando tratamos plausibilidade como evidência.

Pesquisadores estão usando esses sistemas para buscar literatura, montar bibliografias e estruturar artigos, e, simplesmente, não estão verificando o resultado.

Antes da IA, erros de citação já eram comuns. Mas eram erros. Agora estamos falando de fabricação de erros em escala. Existe uma diferença qualitativa aqui e e ela não veio só da tecnologia, veio do comportamento.

O dado mais revelador não é o volume, é a trajetória. Em algumas conferências de ciência da computação, a incidência de citações potencialmente alucinadas saltou de 0,3% para 2,6% em um ano. Isso não é ruído. É mudança de hábito comportamental.

E o mais preocupante é que essas citações não são absurdas. Elas são convincentes. Misturam nomes reais, títulos plausíveis, periódicos legítimos. Um tipo de “Frankenstein acadêmico” difícil de detectar em uma revisão superficial. Ou seja, o sistema de validação, que sempre dependeu de confiança e amostragem, começa a falhar exatamente onde parecia mais sólido.

As editoras estão reagindo, com ferramentas de detecção, rejeições automáticas e camadas adicionais de controle. Mas isso é atacar o sintoma, não a causa.

Porque o problema real não é a IA gerar referências falsas. É alguém incluí-las em um paper… e submeter assim mesmo.

Isso expõe algo mais estrutural que é uma cultura que, pressionada por volume, velocidade e produtividade, começa a relaxar no ponto mais básico da ciência, a verificação.

Talvez seja aqui que a discussão precise amadurecer. A IA não está “quebrando” a ciência. Ela está tornando visível algo que sempre esteve lá, como dependência de confiança, validação imperfeita e incentivos desalinhados. A diferença é que agora isso escala.

Então a pergunta não é se modelos alucinam. Isso já sabemos. A pergunta é se os cientistas ainda estão conferindo o que publicam? Porque, se a resposta for “nem sempre”, o problema não é tecnológico. É institucional. Aí a preocupação aumenta!

Nenhum comentário:

Postar um comentário