As técnicas de manipulação de imagem evoluíram com o avanço da inteligência artificial. Foi dessa forma que surgiu o deepfake, uma modalidade de vídeo na qual é possível fazer com que uma pessoa diga literalmente qualquer coisa. Para tanto, é necessário a substituição do rosto de um ator fonte para o ator alvo – no caso, de quem se deseja manipular por meio do vídeo. Tal prática suscita questões éticas e de desinformação, principalmente no campo da política.
A manipulação de vídeo começou a ser aplicada, inicialmente, em filmes pornográficos, com a substituição de um rosto de uma atriz de filmes adultos por uma atriz de hollywood, por exemplo. Em 2018, o Reddit e a plataforma de hospedagem de GIFs Gfycat passaram a remover esses vídeos das referidas plataformas. Quem tomou a mesma atitude foi o site Pornhub. Em comunicado, o site de vídeos adultos disse: “Não toleramos qualquer conteúdo não consensual no site e vamos remover tais conteúdos assim que o identificarmos”.
Além de criar pornografia não consensual, outro uso para o deepfake são os vídeos com falas jamais ditas por políticos e figuras públicas. Foi o caso de Mark Zuckerberg e Barack Obama. Com o avanço da técnica, os vídeos se tornam cada vez mais realistas e difíceis de serem detectados como um conteúdo falso. Com a técnica, é possível produzir uma série de movimentos, incluindo posições completas de cabeça em 3D, rotação da cabeça, contemplação e piscar dos olhos.
No Brasil, o que viralizou no último ano foram paródias de humor feitas por Bruno Sartori com políticos brasileiros. Em uma delas, o Ministro da Justiça, Sérgio Moro, aparece conversando com o humorista Gregório Duvivier. Para se chegar a um resultado crível, o processo pode ser caro e demorado – chegando a um trabalho de 60 dias, em alguns casos. Mas não significa que o assunto deva ser ignorado.
Um usuário treinado pode detectar algumas inconsistências, como rostos embaçados e direção dos olhos. Mas pra um cidadão comum, essas mudanças podem passar despercebidas. Em telas menores, como em celulares e laptops, é ainda mais difícil detectar a fraude. A preocupação dos especialistas e pesquisadores, portanto, é no impacto da utilização desses vídeos em épocas eleitorais. Basta um vídeo falso de um candidato surgir um dia antes da eleição e viralizar para diminuir consideravelmente as chances de se eleger.
“Não há como conter o aperfeiçoamento tecnológico, mas podemos aprimorar o modo como nos relacionamos com a tecnologia. Tem a ver com a leitura crítica de conteúdos midiáticos, mas também com a ética no compartilhamento de informações — não só com os amigos, mas com as plataformas”, diz a jornalista Taís Seibt, em artigo sobre o assunto na plataforma Medium. Ela participou de um evento sobre o impacto das deepfakes no debate público no Brasil.
O encontro em São Paulo reuniu jornalistas, fact-checkers, pesquisadores, profissionais de tecnologia e ativistas de base, já mirando nas eleições de 2020. O evento foi promovido pela Witness, organização internacional que atua com vídeo como evidência na defesa de direitos humanos. De acordo com Taís Seibt, em breve será divulgado um relatório completo sobre as medidas propostas.
Entre as soluções sugeridas pelos participantes para reduzir o alcance e combater os deepfakes estão usar o micro-target que direciona fakes sob medida para cada bolha para distribuir conteúdo de qualidade; direcionar mensagens específicas para públicos específicos, com a linguagem e os influenciadores adequados; ocupar espaços de escuta social para promover o diálogo e facilitar o reconhecimento de informação, opinião e propaganda.