IA – A ascensão da inteligência artificial (IA) generativa no desenvolvimento de software parecia seguir um roteiro bem definido: sistemas automatizados escreveriam código enquanto humanos ficariam responsáveis pela revisão. Esse modelo, no entanto, acaba de ser colocado em xeque após um novo movimento da Anthropic.
A empresa apresentou uma ferramenta que automatiza justamente essa etapa final do processo, considerada até então uma das principais funções humanas no ciclo de desenvolvimento.
LEIA: Sindplay lança curso de soft skills com base na Terapia Cognitivo-Comportamental
Gargalo na revisão
O avanço da chamada programação intuitiva, em que desenvolvedores utilizam linguagem natural para instruir sistemas de IA a gerar código, impulsionou a produtividade nas empresas. Segundo a Anthropic, a quantidade de código produzida por seus engenheiros cresceu 200% no último ano.
Esse aumento, porém, trouxe um efeito colateral: o volume elevado de código tornou a revisão um gargalo. Muitas solicitações de pull request, que precisam ser avaliadas antes da integração, passaram a ser analisadas de forma superficial ou insuficiente.
Solução da Anthropic
Para enfrentar esse problema, a empresa lançou o Code Review, ferramenta integrada ao Claude Code que utiliza uma equipe de agentes de IA para revisar automaticamente o código assim que uma solicitação de pull request é aberta. O sistema já está disponível em versão prévia para clientes dos planos Team e Enterprise.
Cat Wu, gerente de produto da Anthropic, explicou ao TechCrunch que a principal dúvida dos clientes era recorrente: “Agora que o Claude Code está gerando muitas solicitações de pull request, como posso garantir que elas sejam revisadas de forma eficiente?”
Como funciona
Os agentes de IA operam de forma autônoma e simultânea, analisando o código sob diferentes perspectivas. Um agente final consolida os resultados, elimina duplicidades e prioriza os problemas encontrados com base na gravidade.
O feedback é entregue ao desenvolvedor por meio de comentários destacados e anotações específicas no código. O foco está em erros lógicos, e não em estilo, para reduzir ruído no processo.
Os problemas são classificados por cores: vermelho para falhas críticas, amarelo para questões que exigem atenção e roxo para problemas relacionados a código preexistente.
Impacto nos resultados
Antes da implementação da ferramenta, apenas 16% das solicitações de pull request recebiam feedback relevante. Com o Code Review, esse número subiu para 54%.
Em alterações maiores, com mais de 1.000 linhas de código, 84% apresentaram problemas identificados, com média de 7,5 falhas por revisão. Menos de 1% dos apontamentos foram considerados incorretos pelos engenheiros.
Em um dos casos relatados, uma alteração de uma única linha foi classificada como crítica por potencialmente comprometer a autenticação do sistema. O erro foi corrigido antes da integração, e o próprio engenheiro admitiu que não o teria identificado sozinho.
Novo papel dos desenvolvedores
Nos últimos anos, consolidou-se a ideia de que programadores passariam a atuar como revisores de código gerado por IA. Com a automação dessa etapa, essa função também começa a ser transformada.
A ferramenta da Anthropic não elimina a participação humana, já que não aprova automaticamente as alterações, mas reduz significativamente o papel direto na revisão. O desenvolvedor passa a atuar mais como um árbitro final do processo.
Custo da automação
O uso da ferramenta tem custo baseado no consumo de tokens. A Anthropic estima que cada revisão varia entre US$ 15 e US$ 25 (entre R$ 77 e R$ 129), dependendo da complexidade do código.
A empresa defende que o investimento é justificável, especialmente em grandes empresas de tecnologia, onde falhas não detectadas podem gerar prejuízos significativamente maiores.
(Com informações de Xataka)
(Foto: Reprodução/Freepik/DC Studio)












