Deepfakes – Diante da escalada de fraudes digitais impulsionadas pela inteligência artificial, uma nova estratégia de segurança vem ganhando espaço: combater a tecnologia com ela mesma. Startups como Reality Defender, Pindrop e GetReal passaram a desenvolver seus próprios deepfakes para treinar sistemas capazes de identificar conteúdos manipulados em áudio e vídeo.
A iniciativa busca proteger principalmente grandes corporações, alvo frequente de golpes que utilizam clonagem de voz e imagem para autorizar transações financeiras ilícitas. Segundo o site The Verge, esse tipo de fraude pode resultar em prejuízos superiores a US$ 1 milhão (aproximadamente R$ 5 milhões) em uma única operação.
LEIA: Expansão da IA impulsiona investimentos das big techs em energia nuclear
O avanço desse setor acompanha a popularização de ferramentas de IA generativa, que reduziram drasticamente as barreiras técnicas para a criação de conteúdos falsos. Com isso, o uso de deepfakes, áudios e imagens extremamente realistas criados para imitar pessoas, deixou de ser uma curiosidade tecnológica e passou a representar um risco concreto para empresas.
Para enfrentar o problema, a Reality Defender aposta em um “modelo baseado em inferência”, estruturado sob a lógica de “aluno e professor”. Nesse sistema, a inteligência artificial é treinada com grandes volumes de arquivos reais e manipulados, aprendendo a identificar padrões e inconsistências.
Segundo o CTO da empresa, Alex Lisle, esse método permite que o software reconheça falhas que seriam imperceptíveis ao olho ou ao ouvido humano. Testes práticos mostram que, embora ainda existam limitações, especialmente na tentativa de enganar familiares próximos, a tecnologia já é suficientemente avançada para ludibriar colegas de trabalho e até sistemas bancários.
Em ambiente controlado, experimentos demonstraram que apenas nove segundos de áudio, combinados com dados coletados em redes sociais, são suficientes para criar um agente de IA capaz de manter conversas em tempo real com alto nível de credibilidade.
Apesar dos avanços, há um desafio técnico relevante: equilibrar velocidade e qualidade. Deepfakes de áudio que respondem instantaneamente tendem a apresentar menor nitidez sonora, enquanto versões mais fiéis exigem maior tempo de processamento, o que dificulta seu uso em interações ao vivo.
Enquanto isso, o cenário de crimes cibernéticos evolui rapidamente e já opera em escala industrial. Fraudadores utilizam modelos de linguagem para mapear estruturas organizacionais completas, coletando informações em plataformas como LinkedIn, TikTok e Facebook. A partir desses dados, constroem perfis detalhados de funcionários e realizam ataques coordenados.
A Pindrop também identificou um aumento no uso de “máscaras digitais” em entrevistas de emprego e reuniões virtuais. Nesses casos, golpistas utilizam IA para alterar suas feições em tempo real, assumindo identidades falsas. Técnicas simples de verificação, como pedir movimentos que causem falhas visuais, já não são mais eficazes.
Os sistemas atuais conseguem reproduzir mãos e movimentos complexos sem distorções perceptíveis, tornando a manipulação praticamente invisível.
Para especialistas ouvidos pelo The Verge, a tendência é que ferramentas de detecção se tornem cada vez mais integradas ao cotidiano digital. Assim como os antivírus, essas soluções devem ser incorporadas diretamente a navegadores e provedores de e-mail, permitindo que arquivos e comunicações sejam analisados automaticamente antes de chegarem ao usuário.
A expectativa é que essa camada de proteção funcione como uma barreira nativa contra fraudes e desinformação, em um cenário onde distinguir o real do manipulado se torna um desafio crescente.
(Com informações de Olhar Digital)
(Foto: Reprodução/Freepik/tynza)












