IA inspirada no cérebro humano aprende a ‘pensar duas vezes’ antes de errar

Modelo criado por pesquisadores sul-coreanos usa princípios da neurociência para revisar previsões e aprender de forma mais eficiente

Cérebro humano – Pesquisadores sul-coreanos desenvolveram um modelo de inteligência artificial que imita um princípio fundamental do funcionamento do cérebro humano, permitindo que sistemas revisem suas próprias previsões antes de chegar a uma conclusão.

A inteligência artificial avançou de forma acelerada nas últimas décadas, mas ainda apresenta uma diferença essencial em relação aos humanos quando enfrenta situações inesperadas. Sistemas convencionais analisam grandes volumes de dados e geram respostas com base em padrões previamente aprendidos — porém raramente questionam se sua própria conclusão pode estar errada.

LEIA: Golpe usa falso app do INSS para espionar vítimas e alterar transferências bancárias

Já o cérebro humano atua de outra maneira. Em vez de apenas reagir aos estímulos do ambiente, ele tenta antecipar constantemente o que acontecerá em seguida. Quando a realidade contradiz essa previsão, a mente rapidamente reinterpreta a situação e ajusta sua compreensão.

Agora, pesquisadores conseguiram transportar esse princípio biológico para o campo da inteligência artificial.

O estudo foi liderado por Sang Wan Lee, do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST). A equipe apresentou uma nova arquitetura de IA capaz de revisar suas próprias previsões sempre que identifica sinais de erro. O trabalho foi apresentado na conferência internacional ICLR 2026, um dos principais eventos globais dedicados ao aprendizado profundo.

Lógica da “codificação preditiva”

A base da nova tecnologia está em um conceito da neurociência conhecido como codificação preditiva. Segundo essa teoria, o cérebro não apenas recebe informações sensoriais: ele também formula hipóteses sobre o que espera encontrar.

Um exemplo simples é o de um jogador de xadrez antecipando o movimento do adversário. Caso a jogada ocorra exatamente como previsto, a estratégia segue normalmente. Mas, diante de um movimento inesperado, o jogador precisa recalcular rapidamente sua posição no tabuleiro. O cérebro humano funciona de maneira semelhante.

Os pesquisadores Myoung Hean Ha e Sang Wan Lee aplicaram esse princípio no desenvolvimento de redes neurais artificiais mais capazes de lidar com erros. Em vez de apenas ajustar parâmetros após grandes ciclos de treinamento, o sistema utiliza cada erro como um sinal ativo de aprendizado.

Assim, a máquina não apenas corrige a resposta final — ela também revisa o processo que levou à previsão equivocada.

Aprender com o erro sem perder estabilidade

Um dos desafios centrais do aprendizado profundo atual é a instabilidade dos modelos. À medida que as redes neurais se tornam mais profundas e complexas, seu treinamento tende a ficar mais delicado e suscetível a dados contraditórios.

Para enfrentar esse problema, os cientistas do KAIST criaram um mecanismo chamado “meta-erros de previsão”.

Na prática, trata-se de uma camada adicional de monitoramento que acompanha como o sistema está aprendendo com suas próprias falhas. Esse mecanismo permite avaliar se o processo de aprendizado está melhorando as previsões ou se o modelo está se desviando do caminho correto.

Com esse controle extra, o sistema consegue ajustar sua trajetória antes que os erros se propaguem por toda a rede neural.

Segundo os pesquisadores, isso torna o treinamento mais robusto mesmo em cenários onde os dados são incompletos, inconsistentes ou contêm ruído.

Eficiência inspirada no cérebro

Outro aspecto importante do estudo é a busca por maior eficiência energética. O cérebro humano realiza tarefas extremamente complexas consumindo cerca de 20 watts de energia, aproximadamente o equivalente ao gasto de uma pequena lâmpada LED.

Já sistemas modernos de inteligência artificial frequentemente exigem enormes centros de dados para operar. Grandes modelos de linguagem e sistemas avançados de visão computacional podem demandar quantidades gigantescas de eletricidade.

A nova arquitetura tenta reduzir esse problema ao evitar cálculos desnecessários. Em vez de processar tudo continuamente, o sistema reage apenas quando percebe algo que contradiz suas previsões.

Isso significa que a máquina processa menos informações, consome menos energia e aprende de maneira mais eficiente.

Possível novo caminho para a IA

Para Sang Wan Lee, o estudo pode representar uma mudança importante na forma de desenvolver inteligência artificial. Em vez de focar exclusivamente na criação de modelos cada vez maiores e mais poderosos, a proposta é construir sistemas mais inteligentes na forma como lidam com erros e incertezas.

A habilidade de questionar a própria resposta — algo natural para os humanos — pode ser essencial para tornar a inteligência artificial mais confiável e adaptável.

Além disso, essa abordagem pode ser aplicada em diferentes contextos tecnológicos. Desde sensores inteligentes e robôs autônomos até grandes sistemas de computação em nuvem, diversas aplicações poderiam se beneficiar de algoritmos capazes de aprender de forma mais eficiente.

No fim das contas, a inspiração vem da própria biologia: inteligência não significa nunca cometer erros, mas sim reconhecer rapidamente quando algo deu errado e ajustar o caminho. Ao ensinar máquinas a “pensar duas vezes”, os cientistas podem ter dado um passo importante para aproximar a inteligência artificial do funcionamento da mente humana.

(Com informações de Gizmodo)
(Foto: Reprodução/Freepik/WangXiNa)

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp
Rolar para cima