O que é deepfake?
Nova modalidade de desinformação, criada por meio de inteligência artificial, deepfake é a junção das palavras deep learning e fake. Em tradução livre do inglês significam, respectivamente, aprendizagem profunda e falso. O termo foi utilizado pela primeira vez por um usuário do Reddit1, que criou um fórum com o mesmo nome na plataforma, em 2 de novembro de 2017.
Na prática, é uma técnica que sintetiza imagens e sons reais para criar, com base em inteligência artificial, especificamente o machine learning - que usa algoritmos para coletar dados e aprender com eles -, vídeos falsos com as personagens reais, mas com falas, gestos e ações que não existiram. Os algoritmos são aplicados para fazer o reconhecimento da imagem que será copiada, levando em consideração a altura dos olhos, posicionamento do nariz e movimento da boca durante a fala, aprendendo a copiar as expressões e características da pessoa que terá sua imagem utilizada no vídeo falso.
Daí o termo deep learning, pois através do uso de redes neurais artificiais, os algoritmos são programados para classificar imagens, reconhecer fala, detectar objetos e descrever conteúdo, com capacidade de continuamente melhorar e se adaptar a mudanças no padrão de informações recebidas, aprendendo o formato de um determinado rosto, como ele se mexe e reage a luz e sombras, criando, assim, uma sequência de imagens que parece real.
Convém pontuar, inicialmente, sobre a possível banalização do termo deepfake, como já se faz com o termo fake news. Se por um lado, apesar do termo fake news ser popularizado e indicar para a população em geral que há algo de errado com determinado conteúdo, sua tradução literal deixa de fora o real significado da desinformação, que é mais amplo que a simples notícia falsa. A desinformação engloba todas as formas de informações falsas, imprecisas, descontextualizadas ou enganosas projetadas, apresentadas e promovidas para causar intencionalmente danos públicos ou para fins lucrativos.
Assim, a atenção que se requer ao termo deepfake é para que não seja banalizado, no sentido de lançar dúvida sobre o conteúdo verdadeiro de vídeos, questionando-os só porque não agrada determinada parcela da sociedade, vulgarmente classificando todo e qualquer vídeo do qual se discorde como deepfake, tal qual se faz ao classificar de fake news o conteúdo ou crítica política que desagrada alguém.
Feita essa observação, destaca-se que originalmente, a técnica foi usada para fazer montagens de vídeo com conteúdos pornográficos, geralmente usando a imagem de atrizes famosas. Atualmente, existem até vídeos com discursos fictícios de políticos influentes.
Como um amador pode criar um deepfake?
Qualquer pessoa com um mínimo de conhecimento de deep learning, um processador gráfico, com alguns dos aplicativos já disponíveis ou com os códigos abertos de aplicativos com a mesma função que foram liberados em algumas plataformas como o Reddit e o TensorFlow - ambos já retiraram os códigos de suas plataformas -, e um vasto acervo de imagens e sons, consegue criar um vídeo falso convincente. E não é difícil, se se pensar em figuras públicas com vários vídeos disponíveis, como celebridades e políticos.
Dentre os aplicativos disponíveis para produção de deepfake, cita-se o Zao e o FakeApp, que produzem vídeos falsos, o Adobe After Effects, que cria movimentos e efeitos visuais e os aplicativos que editam e reproduzem vozes, como o Lyrebird e o Deep Voice, capaz de clonar qualquer voz, o que pode gerar constrangimento para algumas pessoas que podem ter suas vozes clonadas e reproduzidas em falsas mensagens de voz no Whatsapp, por exemplo.
O que é shallowfake?
O termo foi cunhado pelo ativista de direitos humanos Sam Gregory2, gerente de programas da Witness, ONG que auxilia na utilização de vídeos feitos por ativistas e vítimas como ferramenta na defesa dos direitos humanos, para expor abusos, de violações de direitos humanos e de denúncia de regimes autoritários para suprimir dissidências.
Shallowfake, em tradução livre, significa falsidade rasa. No contexto dos vídeos falsos, diz respeito sobre uma falsidade superficial, mais grosseira, que não exige o uso da inteligência artificial para manipular imagem e som de um vídeo, mas que, basicamente, trabalha com a descontextualização do vídeo, o que, na prática, igualmente acarreta em desinformação do cidadão. Dito de outra forma, são vídeos que foram manipulados com ferramentas básicas de edição ou colocados intencionalmente fora de contexto.
Em geral, podem resultar em danos à reputação de uma pessoa-alvo, mesmo que a falsidade seja de baixa qualidade e razoavelmente verificável.
Segundo Gregory, truques simples como etiquetar conteúdo incorretamente para desacreditar ativistas ou espalhar informações falsas que resultam no fomento do discurso de ódio podem ser tão danosos a ponto, inclusive, de resultar na morte de pessoas, como aconteceu em Mianmar. O caso foi marcado por um genocídio da população rohingya, cuja violência extrema foi iniciada pelos militares, em agosto de 2017, com a colaboração de turbas budistas inflamadas por monges xenófobos através do Facebook3. A empresa admitiu em relatório4 que poderia ter agido com mais responsabilidade ao atuar contra o uso da plataforma para o fomento de discursos de ódio contra minorias.
Como o processo democrático pode ser afetado por esses vídeos falsos ou manipulados?
Além do caso concreto acima relatado, que resultou no genocídio da minoria muçulmana em Mianmar que, ao fim ao cabo, foi uma grave violação de direitos humanos, a manipulação da opinião pública pode resultar em um impacto disruptivo na esfera política.
A startup holandesa Deeptrace Labs, criada pelo pesquisador Giorgio Patrini, da Universidade de Amsterdã, que estuda deepfake e oferece serviço de perícia e detecção desses vídeos falsos, lançou um relatório sobre o estado dos deepfake, mapeando-os até setembro deste ano5. A empresa aponta que nossa crença histórica de que vídeo e áudio são registros confiáveis?? da realidade não é mais sustentável.
Apesar de apurar que 96% dos deepfakes são de pornografia não consensual, o levantamento aponta o crescimento do número desses vídeos falsos quase dobrando nos últimos sete meses para 14.678, com crescente conteúdo não pornográfico em razão da mercantilização de ferramentas e serviços que reduzem as barreiras para quem não é especialista em criar deepfakes, estimulando, consequentemente, sua popularização, tanto em termos de evolução tecnológica, quanto em razão do forte impacto na sociedade.
Mas, se para as celebridades que foram vítimas de deepfake, pois tiveram seus rostos inseridos em vídeos pornôs, a violação dos direitos da personalidade foi um transtorno, além de crime contra a honra quando se trata de deepfake com discursos políticos, o risco recai sobre processo democrático em si.
Em comparação entre conteúdos deepfakes disponíveis no YouTube, segundo o relatório da Deeptrace Labs, 81% são sobre entretenimento e 12% versam sobre conteúdo político e de figuras públicas que, em geral, distorcem os discursos e deslegitimam os políticos.
Um exemplo que ficou bastante conhecido é o vídeo do Buzzfeed6 alertando sobre os riscos da deepfake, no qual aparece a imagem do ex-presidente dos Estados Unidos, Barack Obama, dizendo que "Killmonger estava certo", que "Ben Carson está afundado", que "o presidente Trump é um idiota completo e total" e que, no final, diz "Obrigado e fiquem ligadas, cadelas".
Destaca-se, na análise do relatório, o relato de dois casos de influência de deepfake no processo democrático, para além dos riscos a segurança cibernética. Deeptrace Labs apresentou a tentativa de um golpe militar e uma campanha de difamação política ocorrida, respectivamente, no Gabão e na Malásia, indicando como os deepfakes já estão desestabilizando os processos políticos.
No caso do Gabão, o presidente ficou afastado da vida pública em razão de um acidente vascular cerebral grave, em agosto de 2018, que inicialmente não foi revelado ao público. Após inúmeras especulações, inclusive sobre sua morte, o presidente Ali Bongo gravou um vídeo sobre seu estado de saúde que foi divulgado pelo governo. Em razão da sua estranha aparência, consequência do AVC que até então não fora divulgado, o político gabonês Bruno Moubamba declarou que o vídeo era falso - um deepfake -, e os membros das forças armadas do Gabão lançaram uma tentativa de golpe contra o governo7, que foi contornada.
O caso da Malásia diz respeito sobre um vídeo contendo imagens de uma relação sexual entre o Ministro da Economia, Azmin Ali, e um assessor. Ocorre que a atividade sexual entre pessoas do mesmo sexo é proibida na Malásia. O assessor alegou que o vídeo é verdadeiro, mas o Ministro Ali afirma que se trata de deepfake.
No Brasil, é aventada a hipótese do vídeo com cenas de sexo entre algumas mulheres e João Dória, então candidato ao governo do Estado de São Paulo pelo PSDB, ser um deepfake. A polêmica entre os peritos oscilou entre ser um vídeo verdadeiro, ou ser falso ou ser inconclusivo8. Inegável, porém, que a divulgação do vídeo em pleno período eleitoral prejudicou a imagem do então candidato.
Sobre o shallowfake, a DeepTrace Labs aponta como exemplo o caso do vídeo da presidente da Câmara dos Representantes dos Estados Unidos, a congressista democrata Nancy Pelosi. O som do vídeo foi editado de forma com que seu discurso parecesse mais lento. O shallowfake viralizou nas redes sociais e foi, inclusive, retuitado na conta oficial do presidente Donald Trump que, em 13 de julho de 2019, teve mais de 6,3 milhões de visualizações, resultando em comentários ofensivos, como "bêbada", sendo que não havia nada de errado com o discurso original.
Outro caso que chegou ao conhecimento público foi da manipulação do vídeo, com a aceleração das imagens, para fazer parecer que o jornalista Jim Acosta, da CNN, havia feito um gesto agressivo em uma coletiva de imprensa com o presidente Donald Trump, motivo alegado pela Casa Branca para retirar sua credencial9.
Por fim, em que pese os vídeos não serem perfeitos, são realistas o suficiente para gerar dúvidas ou fazer acreditar os incautos. Com a manipulação das imagens e vozes dos políticos e figuras públicas influentes, até jornalistas de renome, a criação de vídeos falsos pode abalar a opinião pública e o processo democrático, principalmente nas eleições de 2020. Desta forma, a empresa holandesa observa que, sem contramedidas defensivas, a integridade das democracias em todo o mundo está em risco.
Como verificar um vídeo falso ou manipulado?
O jornal The Washington Post lançou um guia sobre vídeos manipulados10. Nele, o jornal aponta três formas de manipular, dividindo-as segundo sua gravidade.
A primeira e mais leve é a ausência de contexto, que pode ter sido deturpado ou isolado. Neste caso do vídeo deturpado, este é apresentado de maneira inalterada, mas o contexto não corresponde ao dia e local de sua gravação, enganando o espectador. Exemplo prático: Katrina Pierson, assessora da campanha de Donald Trump, publicou em maio de 2019 um vídeo sobre um lançamento de mísseis em Gaza, mas o vídeo foi filmado em 2014, na Bielorrússia11. Já no caso de isolamento, a imagem é recortada de um contexto e apenas um trecho do vídeo é exibido, criando uma narrativa que não reflete o contexto de sua gravação.
O segundo de gravidade mediana é a edição enganosa, seja por omissão de trecho do vídeo, resultando no recorte de várias falas, para criar uma nova narrativa, apresentando-a como completa, quando, na verdade, diversas outras informações foram omitidas ou por emenda de um trecho de um vídeo em outro, criando a falsa impressão de um diálogo ou de uma história que está sendo contada. Exemplo prático: na campanha de 2008, Barack Obama fez um vídeo sugerindo que o tratamento de saúde de sua mãe havia sido negado, quando na verdade, a negativa se deu em razão da discussão sobre a cobertura do seguro invalidez12.
Por fim, a mais grave, é a transformação maliciosa, quando parte ou todo o vídeo foi manipulado, de forma a transformar a própria filmagem em outro conteúdo. Pode ser feito através da edição de um vídeo, por meio de cortes, alteração da velocidade, uso de Photoshop, duplicação de áudio ou adição ou exclusão de informações visuais, como o citado por Sam Gregory, o shallowfake, tudo para enganar quem está assistindo ao vídeo. Também pode ser feito através da fabricação de um vídeo, por meio de inteligência artificial, o deepfake.
Assim, a checagem de fatos pode ser um caminho para verificar a falsidade ou manipulação de vídeos, principalmente nos casos de ausência de contexto ou edição enganosa.
Nos casos mais graves, da citada transformação maliciosa, faz-se necessário um perito. No entanto, cabe assinalar que os vídeos falsos ainda não são perfeitos, mas com o aprimoramento do machine learning, essa realidade mudará em pouquíssimo tempo. Até a perfeição, as pessoas podem reconhecer um deepfake observando o desfoque e o embaçamento do rosto, principalmente da boca e seu movimento em relação ao que está sendo dito, além da divisão dos dentes e a entonação da voz. Na região dos olhos, é possível observar a sobrancelha do fundo original, que geralmente aparece no vídeo falso, e os olhos que, muitas vezes, não se fixam numa mesma direção ou não piscam. Na maioria das vezes, os algoritmos também não reproduzem a respiração, não sendo possível observar esse movimento.
Quais as medidas de combate a este tipo de desinformação?
Para evitar o colapso da confiança e uma onda crescente de que não podemos acreditar no que vemos, as empresas de aplicação de internet devem somar esforços para impedir o compartilhamento de vídeos falsos ou manipulados, sem que haja, no mínimo, a informação ao usuário sobre a falsidade ou manipulação de seu conteúdo.
Os deepfake de sátira e crítica política devem contar a informação de que se trata de um vídeo falso, manipulado ou editado, a fim de não criar artificialmente, no espectador ou na opinião pública, estados mentais, emocionais ou passionais tendentes a colocar em descrédito toda e qualquer informação disponível na internet.
Mas qualquer medida de combate passa, primeiro, pela detecção da manipulação ou falsidade desses vídeos e o Facebook e a Google lançaram projetos de pesquisa neste campo.
Em 05 de setembro deste ano, o Facebook, a Microsoft, a Partnership on AI e os acadêmicos de sete universidades - Cornell Tech, MIT, Universidade de Oxford, UC Berkeley, Universidade de Maryland, College Park e Universidade de Albany-SUNY -, lançaram o Deepfake Detection Challenge13, um desafio para uma pessoa ou grupo criar tecnologia capaz de detectar deepfake, para tanto, estão investindo US$ 10 milhões.
Logo em seguida, no dia 24 de setembro, a Google, destacando que o YouTube é uma subsidiária da Google, lançou uma base de dados para auxiliar no combate às deepfakes14. Em colaboração com a Jigsaw e as Universidades Técnica de Munique e a Federico II, de Nápoles, Google lançou o FaceForensics, um conjunto de dados formado ao longo do ano passado, com imagens de atores pagos e com consentimento para gravar centenas de vídeos. Então, foram criados milhares de deepfakes a partir desses vídeos. Os vídeos resultantes, reais e falsos, compõem o banco de dados que Google criou para apoiar diretamente os esforços de detecção de deepfake.
No que diz respeito aos termos de uso, o Twitter Safety anunciou15, em 21 de outubro passado, que gostaria de saber a opinião dos usuários sobre uma nova política para lidar com mídia enganosa alterada, ou seja, fotos e vídeos que tenham sido modificados para enganar ou confundir as pessoas, com especial atenção para o conteúdo que ameaçar a segurança física de alguém ou causar danos offline. Então, a plataforma indaga aos usuários16, por exemplo, se esses vídeos devem ser simplesmente removidos, ou basta que ganhem um selo que indica manipulação e se o usuário concorda que essa mídia enganosa pode alterar o debate público ou se pode afetar a segurança física e psicológica de um indivíduo ou de um grupo.
Conclusão.
Como visto acima, a manipulação e falsificação de vídeos é uma realidade que cada vez mais se aprimora. Ainda que iniciada com pornografia não consensual, os vídeos com cunho político têm surgido com mais frequência, inclusive já foi objeto de litígio como no Gabão, na Malásia, nos Estados Unidos e até aqui no Brasil.
Como um processo mais sofisticado de desinformação, a Justiça Eleitoral, os candidatos, os partidos políticos e as coligações devem estar atentas a esta nova modalidade de manipulação da opinião pública e disseminação de desinformação, para resguardar a lisura do pleito vindouro.
Uma vez que as redes sociais influenciam o comportamento através das emoções, temos que as imagens, os vídeos e as mensagens de texto, por exemplo, que são os recursos de comunicação mais frequentes a que temos acesso cotidianamente, influenciam diretamente na opinião pública.
Cremos que o primeiro passo de combate à desinformação é a educação digital, mas a checagem de fatos e do contexto da informação é fundamental para o debate de ideias que deve prevalecer na nossa sociedade.
Ademais, o desenvolvimento de tecnologia é essencial para detectar os vídeos falsos e manipulados, que podem afetar o debate público, o processo democrático e, até, contribuir para a violação de direitos humanos.
Por isso, se o conteúdo disponível aos usuários da internet, em especial das redes sociais, é manipulado e falseado, a opinião pública é corrompida. E uma sociedade que preza pelo pluralismo político, deve igualmente prezar pelas informações confiáveis e fidedignas, a fim de nortear o debate público, sob pena de violar os princípios fundamentais de um Estado Democrático de Direito.