Alucinações de IAs – Com cerca de 1,8 bilhão de pessoas utilizando sistemas de Inteligência Artificial em 2025, o que equivale a um volume diário entre 550 e 600 milhões de usuários, a onipresença de ferramentas como ChatGPT, Claude e Gemini consolidou um debate urgente: a confiabilidade dos dados fornecidos por essas plataformas. No centro da discussão estão as “alucinações”, fenômeno em que a IA apresenta informações factualmente erradas com um tom de extrema segurança.
Estudos recentes indicam que tais falhas não devem ser encaradas apenas como um “bug” técnico, mas como uma característica inerente à arquitetura dos grandes modelos de linguagem (LLMs).
LEIA: Ataque usa currículo falso para desativar defesa de sistemas de empresas
As alucinações são declarações construídas de forma gramaticalmente correta e convincente, mas que carecem de base factual. Pesquisadores ilustram o problema com exemplos cotidianos: desde a criação de títulos inexistentes para teses acadêmicas até a atribuição de múltiplas datas de nascimento errôneas para uma mesma pessoa. O agravante é a convicção com que o sistema opera, mesmo quando a resposta é uma fabricação completa.
O incentivo ao “palpite”
Por que a IA insiste em responder, mesmo sem saber? A resposta reside, em parte, nos critérios de avaliação desses modelos. Atualmente, o desempenho é medido majoritariamente pela precisão, a taxa de acertos.
Nesse formato, o sistema enfrenta um dilema: admitir desconhecimento ou arriscar um palpite. Como dizer “não sei” é computado como erro, o modelo é treinado estatisticamente para arriscar. Em grandes baterias de testes, a IA que “chuta” tende a obter pontuações superiores àquela que opta pela cautela, consolidando um comportamento de confiança excessiva que mascara a ignorância factual.
A limitação do “prever a próxima palavra”
A raiz técnica do problema está na essência dos LLMs: eles são projetados para prever a próxima palavra em uma sequência, baseando-se em padrões estatísticos extraídos de volumes massivos de documentos.
Nesse treinamento, o modelo não diferencia, nativamente, o que é fato do que é ficção; ele aprende apenas o que parece estatisticamente plausível. Embora esse método seja excelente para estrutura, gramática e ortografia, ele falha ao lidar com dados específicos, como números, datas ou eventos raros, onde o padrão estatístico não é suficiente para garantir a verdade.
Embora o senso comum sugira que aumentar o poder computacional e o volume de dados eliminaria o problema, a realidade é mais complexa. O estudo aponta que, embora modelos maiores reduzam a frequência de equívocos, eles nunca atingirão 100% de precisão. A natureza ambígua da linguagem humana e a necessidade de raciocínio contextual tornam a perfeição inalcançável apenas pelo aumento de escala.
Caminhos para uma IA mais honesta
Para contornar o problema, pesquisadores propõem uma mudança de paradigma: alterar a forma como avaliamos a IA. Em vez de valorizar apenas o acerto, os sistemas de teste deveriam penalizar erros graves e recompensar a capacidade da máquina de reconhecer e declarar sua própria incerteza, em uma lógica similar à aplicada em provas acadêmicas humanas.
O futuro da confiabilidade na IA, portanto, pode não residir em modelos cada vez maiores, mas em sistemas mais “calibrados”. O próximo grande salto tecnológico poderá ser, curiosamente, ensinar à inteligência artificial a habilidade de admitir: “não sei”.
(Com informações de Gizmodo)
(Foto: Reprodução/Freepik/plugstudio666)












