Imagina acordar um dia e descobrir que o seu rosto está circulando em um vídeo totalmente desconhecido na internet? Ou escutar um áudio com a sua própria voz, pedindo informações que você nunca solicitou? Bom, pode parecer um filme de ficção, paródia ou terror, mas a verdade é que isso está bem próximo de nós e é possível graças a uma tecnologia chamada "deepfake".
O deepfake (termo que, em português, poderia ser traduzido como "mentira profunda") é uma técnica que consiste na criação de conteúdos forjados e inverídicos, podendo ser tanto no formato de áudios quanto de vídeos, produzidos a partir do uso da inteligência artificial (IA). Na prática, são mídias artificiais desenvolvidas com base em um grande volume de arquivos reais de um indivíduo, através do uso de algoritmos de aprendizado de máquina (machine learning); com eles, a inteligência artificial funde, combina, substitui ou sobrepõe áudios e imagens para criar conteúdos falsos em que as pessoas podem ser colocadas em qualquer situação, assumindo atitudes jamais tomadas, de uma forma bem convincente.
Em uma era da desinformação —como discuti aqui—, o deepfake é uma ameaça poderosa que pode contribuir para a intensificação da infodemia, uma epidemia de desinformação. Com mentiras e inconsistências se tornando ainda mais aperfeiçoadas, distorcendo a própria essência daquilo que vemos e entendemos por realidade, ficará ainda mais difícil distinguir a verdade da mentira. Outra derivação desses mecanismos de edição é o shallowfake (ou "mentira rasa", em português) que também se refere a um conteúdo manipulado, mas que não utiliza inteligência artificial no processo de criação. Geralmente, o shallowfake consiste numa edição simples, na qual um vídeo ou áudio é tirado de contexto.
Um caso famoso do uso das edições ocorreu durante as eleições dos Estados Unidos em 2020, em que o então presidente Donald Trump compartilhou em suas redes sociais vídeos manipulados em mais de uma ocasião para atacar seu principal adversário, o democrata Joe Biden. De acordo com a Agência Pública, Trump publicou um vídeo do seu opositor democrata, no qual ele aparentava apoiar a sua reeleição. A reportagem cita que, apesar de ser um vídeo editado, não chega a ser uma deepfake por não utilizar inteligência artificial no processo de criação. O material, contudo, foi suficiente para confundir eleitores. Atualmente, o uso da deepfake ainda não está popularizado, mas tem ganhado força, principalmente por causa dos aplicativos que facilitam a criação deste tipo de conteúdo.
Âncoras do Jornal Nacional foram vítimas
Casos no Brasil, inclusive, já foram relatados durante as eleições de 2022. Os dois eventos em questão tiveram como alvo os jornalistas e apresentadores. A primeira deepfake identificada alterou a fala da apresentadora do Jornal Nacional Renata Vasconcellos. O vídeo utiliza, de forma muito convincente, a voz da jornalista para mostrar dados de uma falsa pesquisa de intenção de votos. Em outro episódio, em agosto deste ano, o site de checagens Comprova mostrou ser falso um vídeo publicado no TikTok que se utilizava da técnica. Nele, o âncora do Jornal Nacional, William Bonner, supostamente chama de "bandidos" candidatos à presidência.
Neste caso, foi utilizada uma técnica chamada Text to Speech (TTS), capaz de gerar áudios artificiais a partir de um conteúdo em texto a partir de um banco de dados com dezenas de áudios. As técnicas TTS para criação de áudios, inclusive, já estão disponíveis para o grande público em sites gratuitos na internet. É preciso estar atento a este fenômeno, pois, apesar de ser incipiente, ele pode ser um potencial risco para a comunicação, à medida que esta ferramenta se difunde. E mais: ainda que o alvo principal sejam pessoas públicas, há o potencial risco de qualquer pessoa ser exposta e sofrer consequências da disseminação de notícias falsas em seu próprio nome.
Deepfake é crime?
Apesar de não ainda existir uma regulamentação específica para este tipo de recurso —o que permite que esses programas continuem circulando—, o indivíduo que faz alterações com o objetivo de prejudicar ou difamar alguém está sim cometendo um crime, que pode ser enquadrado como calúnia, difamação e injúria, conforme previsto pelo Código Penal. Também podem ser enquadrados crimes de falsificação de documento particular, falsidade ideológica, invasão de dispositivo informático, entre outros. Outro ponto de atenção em torno do deepfake está relacionado à sua tendência te ter como vítimas, principalmente, as mulheres, envolvendo montagens de cunho sexual.
A atriz Gal Gadot e a cantora Anitta, por exemplo, estão entre as mulheres vítimas desse crime. Infelizmente este se torna mais um artifício que pode assombrar a participação, já tão desafiadora, de mulheres nos espaços de poder e na política. Apesar dos percalços, vemos a justiça avançar na proteção das candidatas e governantes, sendo a eleição de 2022 a primeira a considerar crime a violência política de gênero. De acordo com a Lei 14.192/21, a punição para quem cometer o crime pode ser de até 4 anos de prisão e multa. Se a violência ocorrer pela internet, a pena é mais dura, podendo chegar a 6 anos.
Como saber se houve manipulação?
Há algumas estratégias para avaliar se a mídia é manipulada —como a sincronia da fala com os lábios, a tonalidade da pele destoar e/ou olhar perdido. Mas especialistas apontam que a tarefa está cada vez mais difícil, dado que a tecnologia avança de modo que os detalhes que poderiam denunciar a manipulação dos vídeos estão cada vez mais sutis.
Do lado das empresas, que também têm sido vítimas de cibercrimes por meio de deepfakes, a orientação das autoridades é rebater com a mesma moeda, ou seja, adotando tecnologias para proteção. É o caso de blockchain, que pode ser usada em uma variedade de aplicações, desde aspectos jurídicos até em votações para autenticar identidade, da inteligência artificial ou de autenticação multifator e assinaturas digitais. Contudo, um dos fatores principais para combater ataques de deepfakes continua sendo o treinamento de conscientização sobre segurança cibernética. As organizações precisam treinar os seus funcionários para melhor proteger a si mesmos e a empresa contra os diversos tipos de ataques cibernéticos que estão a nos assolar.
É preciso apostar no papel da educação e o desenvolvimento do senso crítico, seja, desconfiar e checar as mensagens recebidas antes de tomá-las como verdade. Sobretudo, devemos todos e cada um de nós estarmos atentos e em busca pela verdade, por mais difícil que possa ser.
Confira o texto na íntegra no UOL/Tilt.
>> Confira mais textos publicados na coluna semanal de Letícia Piccolotto no UOL/Tilt. <<