A vaga de lixo de IA está a preocupar a comunidade científica. O termo descreve artigos e revisões gerados por modelos de linguagem com erros e conteúdo inventado. Segundo o Financial Times, várias conferências já impuseram restrições ao uso de LLM na produção científica.
Nos últimos meses, conferências de inteligência artificial receberam grandes volumes de textos gerados por IA. No entanto, muitos desses trabalhos apresentaram baixa qualidade. Além disso, vários incluíam afirmações falsas e referências inexistentes.
Conferências apertam regras contra lixo de IA
Perante o aumento de lixo de IA, a International Conference on Learning Representations actualizou as suas directrizes. Agora, artigos que não divulguem uso extensivo de LLM podem ser rejeitados. Por outro lado, revisores que usem IA para produzir análises fracas também enfrentam penalizações.
De acordo com o FT, algumas sanções incluem a recusa de futuras submissões dos próprios autores. Assim, as conferências procuram proteger a integridade científica.
Veja também: PayPal compra Cymbio para vender produtos via chatbots de IA
Estudos mostram uso elevado de LLM em artigos
Entretanto, estudos recentes mediram o impacto do fenómeno. Um estudo da Universidade de Stanford indicou que até 22% dos artigos de ciência computacional continham uso de LLM. Além disso, a start-up Pangram estimou que 21% das revisões da ICLR 2025 foram totalmente geradas por IA.
No caso dos artigos submetidos, 9% tinham mais de metade do conteúdo criado por IA. Ainda em Novembro, revisores identificaram um paper suspeito de geração automática que ficou no top 17% das avaliações.
Erros e referências inventadas levantam alertas
Segundo investigação da GPTZero, surgiram mais de 100 erros gerados por IA em 50 artigos apresentados na conferência NeurIPS. Esta conferência é vista como a mais prestigiada em investigação de IA. Portanto, o impacto gerou forte preocupação.
Thomas Dietterich, do arXiv, explica que referências “alucinadas” e figuras erradas funcionam como sinais de alerta. Nesses casos, as plataformas suspendem temporariamente os autores.
Crescimento de submissões aumenta pressão
Ao mesmo tempo, o número de submissões disparou. A NeurIPS recebeu 21.575 artigos em 2025. Em 2020, tinha recebido menos de metade. Contudo, especialistas admitem dúvida: o aumento vem dos LLM ou de mais investigadores activos.
Ainda assim, alguns académicos alertam para incentivos comerciais e pressão por volume. Por isso, defendem uso responsável destas ferramentas.
Kevin Weil, da OpenAI, reforçou ao FT que os LLM aceleram pesquisa. No entanto, acrescentou que não substituem rigor científico.

