Deepfakes com famosos expõem falhas diante do avanço da IA

Casos recentes envolvendo artistas e atletas mostram como a falta de regras claras sobre inteligência artificial facilita abusos

IA – Uma investigação da Bloomberg revelou que a Meta desenvolveu chatbots capazes de imitar celebridades como Taylor Swift, Scarlett Johansson, Anne Hathaway e Selena Gomez — incluindo a possibilidade de criação de conteúdos de caráter sexual sem autorização.

O caso trouxe novamente à tona a discussão sobre privacidade, exploração digital e os riscos da inteligência artificial (IA) quando utilizada sem consentimento. O tema não é novo. Desde 2017, quando vídeos pornográficos falsos com o rosto de Gal Gadot começaram a circular na internet, a indústria do entretenimento lida com casos de deepfakes envolvendo artistas.

LEIA: Como medir produtividade no home office? Empresas tentam descobrir

Ao longo dos anos, nomes como Scarlett Johansson, Jacob Elordi e Taylor Swift também tiveram imagens usadas de forma indevida em conteúdos explícitos. Uma vez online, porém, rastrear e remover esse material é quase impossível.

Nem apenas atores e cantores são alvo. Em 2024, um vídeo manipulado mostrou Ronaldo Nazário supostamente promovendo um aplicativo de jogos. A publicação, que imitava sua voz e imagem, só foi retirada após apelações — mas já havia alcançado cerca de 600 mil visualizações.

A música também não ficou de fora. Em 2023, a faixa Heart on My Sleeve, feita com vozes clonadas de Drake e The Weeknd, viralizou e forçou gravadoras a agir.

No mesmo período, músicos britânicos lançaram o projeto AISIS, recriando músicas inéditas no estilo do Oasis com voz sintética de Liam Gallagher. Embora o vocalista tenha reagido com ironia, o episódio reforçou o dilema entre criatividade e direitos autorais.

Riscos vão além da fama

O uso indevido de IA não se limita ao entretenimento. Deepfakes pornográficos, golpes com vozes clonadas para enganar fãs e manipulações políticas em períodos eleitorais são alguns dos cenários já registrados. Além de difamação e danos emocionais, há impactos financeiros e sociais, já que artistas e personalidades podem perder contratos e enfrentar batalhas judiciais para reparar prejuízos.

No Brasil, o direito à imagem e à privacidade está previsto na Constituição e no Código Civil, mas a legislação não foi pensada para o contexto digital atual. Processos judiciais podem ser abertos com base em difamação ou violação de imagem, mas a disseminação rápida desses conteúdos dificulta qualquer reparação efetiva.

Especialistas defendem a criação de normas específicas que estabeleçam limites e responsabilidades para o uso de vozes e imagens geradas por IA. Enquanto isso, outros países já avançam.

A União Europeia aprovou o AI Act, que cria regras de transparência e restrições para usos considerados de alto risco. Nos Estados Unidos, embora não exista uma lei federal, estados como Califórnia e Texas aprovaram normas contra deepfakes em contextos eleitorais e sexuais.

O desafio, porém, segue o mesmo em qualquer lugar: como equilibrar inovação e liberdade criativa sem abrir brechas para abusos que atingem não apenas famosos, mas também a sociedade como um todo.

(Com informações de Techtudo)
(Foto: Reprodução/Freepik/Fauzyart)

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp
Rolar para cima