Temos falado bastante por aqui sobre as tecnologias de Deepfake, suas consequências e as iniciativas de pesquisadores do Recod.ai para desenvolver ferramentas que nos ajudem a identificar conteúdos adulterados na internet. A edição de outubro da revista Pesquisa Fapesp publicou uma reportagem exclusiva sobre o assunto, trazendo comentários do Prof. Anderson Rocha e as contribuições científicas do laboratório à área de Forense Digital.
A matéria aborda, entre outros, o caso de Deepfake e desinformação que circulou nas redes sociais em agosto e que envolveu adulteração do conteúdo de uma reportagem do Jornal Nacional, da emissora Globo. O uso mal intencionado das tecnologias de Deepfake espalha desinformação sobre política, mas também é aplicado em outros setores do mundo digital, como a pornografia não consentida.
A tecnologia por trás dos Deepfakes não é simples, e as consequências do uso malicioso podem ser graves. Anderson relembra, na reportagem, “casos de vídeos alterados de exercícios militares de outros países, que multiplicam o número de mísseis para mostrar um poder bélico maior”, dessa forma interferindo diretamente na relação entre países.
O Recod.ai, em colaboração com pesquisadores da Itália, dos EUA e de Hong Kong, desenvolve pesquisas com objetivo de elaborar ferramentas para automatizar o que um especialista humano faz, que é a procura por incoerências em materiais audiovisuais, como contrastes de luz, passo essencial na constatação de adulteração. O trabalho integra o projeto DéjaVù e você pode conhecer mais sobre ele clicando aqui.
Saiba como a ferramenta elaborada funciona. Acesse nosso release.
Acesse a reportagem completa da revista Pesquisa Fapesp aqui.