O que é deepfake, que vitimou a atriz Mel Maia com vídeo íntimo
Foram divulgadas imagens manipuladas de uma mulher fazendo sexo com um homem que a legenda afirmava ser do Comando Vermelho
Mel Maia se tornou um dos assuntos mais comentados do X (antigo Twitter) depois que foi divulgado um vídeo íntimo que supostamente seria da atriz praticando sexo oral em um homem, que a legenda afirmava ser William Guedes Sousa, conhecido como Corolla, apontado como um dos principais homens do Comando Vermelho. As imagens, porém, eram falsas.
O vídeo foi publicado por diversos perfis no dia 3 de julho, quando Sousa foi preso. A artista se manifestou no dia seguinte, nos stories de seu Instagram. “Todo mundo insiste em falar que é real, mas todo mundo sabe que é de inteligência artificial. Gente, vocês acham que, em sã consciência, eu deixaria alguém fazer um vídeo meu desse? Só perguntando aqui para vocês.”
+ Morte de Gal Costa: inquérito é concluído sem indiciamento
Ela ainda citou ocasiões em que foi alvo de notícias falsas e imagens adulteradas. “Povo já inventou que eu morri, que eu bati em fotógrafo, que eu cuspi em fã, já inventaram coisas aterrorizantes sobre mim. Já fizeram até montagem minha pelada“, lembrou a atriz de 20 anos, que começou sua vida artística com apenas 5.
Mel foi vítima de deepfake, que é o uso de Inteligência Artificial para adulterar fotografias e vídeos. Dessa forma, por exemplo, é possível trocar o rosto de uma pessoa pelo de outra e mesmo manipular a voz, fingindo que ela disse algo que nunca falou.
Há detalhes no vídeo que são característicos do uso de inteligência artificial e podem ser percebidos ao dar zoom, como o pescoço recortado e colado sobre o colo da mulher. Além disso, a Folha de S. Paulo consultou dois peritos forenses para avaliar as imagens.
O primeiro deles foi Mauricio de Cunto, que observou diferenças na velocidade entre os quadros do vídeo, o que causa um movimento antinatural dos olhos da mulher. Além disso, mal se veem detalhes do rosto que poderiam trazer elementos biométricos claros.
+ De Santa Teresa a jantar no Leblon, os rolés de Antonio Banderas pelo Rio
O pesquisador Mario Gazziro, da Universidade Federal do ABC (UFABC) defende que foram utilizados aplicativos que trocam a face, “os mesmos usados para treinar e encaixar rostos de atrizes de Hollywood em filmes pornográficos de outras mulheres”.
A manipulação de vídeos pornográficos com o rosto de outras pessoas é um uso bastante frequente do deepfake. Em 2020, um relatório da empresa Sensity indicou que nudes falsos de mais de 100 000 mulheres estavam sendo compartilhados na internet.
+ 8 curiosidades sobre a série Pedaço de Mim, com Juliana Paes, na Netflix
Outras famosas brasileiras já foram vítimas desse tipo de manipulação. Em julho de 2022, circularam imagens que seriam de Anitta praticando sexo, mas eram falsas. Em 2023, foram divulgadas fotografias adulteradas da atriz Isis Valverde para parecer que ela estava nua: originalmente, ela estava de biquíni.
Produzir e divulgar montagens e imagens manipuladas de cunho sexual é crime, com multa e pena que varia de seis meses a um ano de prisão. Além disso, apesar de o vídeo em questão ser falso, divulgar imagens íntimas de uma pessoa sem consentimento também é crime.