VÃdeos que viralizam nas redes sociais mostrando figuras públicas em situações quase inacreditáveis como, por exemplo, o presidente ucraniano Volodymyr Zelensky anunciando total rendição à s tropas da Rússia. Será verdade? Afinal de contas parece tão real... A resposta é não, pois trata-se de uma "deep fake", "falsificação profunda" que, como a tradução indica, é tão bem feita que pode enganar até os mais atentos.
O que muita gente não sabe, porém, é que esse tipo de golpe, além de manipular vÃdeos com celebridades e polÃticos famosos, também prejudica empresas e cidadãos comuns, que podem ser envolvidas em fraudes de identidade e extorsões.
Segundo estudo da empresa de segurança Kaspersky, 65% dos brasileiros ignoram a sua existência e 71% não reconhecem quando um vÃdeo foi editado digitalmente usando essa técnica.
"Deep fake pode ser definido como a criação de vÃdeos e áudios falsos por meio de inteligência artificial", explica Guilherme Bacellar, especialista de segurança cibernética e fraude da Unico.
A prática costuma utilizar um vÃdeo de referência e a face (ou corpo) de outra pessoa, que não fazia parte do vÃdeo original. "É possÃvel ainda criar áudios falsos fazendo a inteligência artificial aprender como uma pessoa fala e, a partir daÃ, obter uma montagem com outras falas, inclusive alterando os lábios para acompanhar as palavras que são ditas", explica.
Também há vÃdeos que alteram o rosto ou o corpo de uma pessoa e reconstroem o movimento dos lábios para manter o áudio original. "O objetivo dessas ações é prejudicar a imagem de figuras públicas ou obter ganhos financeiros enganando pessoas comuns", diz.
A prática vem evoluindo rapidamente, tornando cada vez mais difÃcil a sua identificação. Isso ocorre porque as novas redes neurais (sistemas de computação que funcionam como neurônios do cérebro humano), a evolução da capacidade de processamento, a redução de custos da computação em nuvem e as novas placas de vÃdeo (GPUs) com foco em inteligência artificial têm facilitado o acesso a essa tecnologia, contribuindo para aumentar a qualidade dos vÃdeos.
No entanto, os criminosos não precisam de tanto conhecimento e tecnologia para aplicar seus golpes. Isso porque deep fakes criados para serem distribuÃdos por apps de mensagens não exigem tanta qualidade. Aplicativos para celular de troca (face swap) ou animação de face para fins de diversão são comumente usados. "As telas pequenas escondem as imperfeições de vÃdeos que são gerados por aplicativos on-line ou smartphones", explica o especialista.
O perigo é que, para o cidadão comum, o deep fake pode ser o ponto de partida para uma fraude financeira, a compra de um veÃculo ou de um imóvel. "Para empresas, um deep fake de um CFO ou CEO enviado para algum funcionário pode ser a origem de um desvio financeiro ou sabotagem de um grande negócio", explica.
A recomendação para pessoas fÃsicas se protegerem é diminuir a exposição de fotos com rostos e vÃdeos pessoais na internet. "Deve-se manter as redes sociais configuradas como privadas, já que fotos, áudios ou vÃdeos disponÃveis publicamente podem ser utilizadas para alimentar a inteligência artificial e criar deep fake."
Para empresas, a melhor forma de proteção é utilizar uma tecnologia eficiente para identificação desse tipo de fraude. "Já existem soluções de IA com taxas de acerto superiores a 70%", diz Bacellar. Isso é possÃvel porque o computador pode "enxergar" mÃnimos movimentos de rosto e lábios e "ouvir" os menores pedaços que formam as palavras e sÃlabas da fala apresentada.
"Isso, aliado ao fato de que essas inteligências artificiais são treinadas com milhares de vÃdeos reais e centenas de deep fakes, torna a detecção cada dia mais eficiente e precisa", explica.
"A maioria das empresas que investe na detecção da prática utiliza soluções de biometria facial, assunto em que a Unico é especialista", afirma Bacellar. "Nós aplicamos diversas camadas de proteção e detecção que servem não apenas para combater deep fake, mas detectam também outros tipos de ataque até mais sofisticados nos quais o criminoso tenta se fazer passar por outra pessoa."
Além disso, a biometria facial parte do princÃpio da presença ao vivo. Isso significa que para ter uma biometria facial válida é necessário que a pessoa esteja de fato em frente a câmera que realiza a captura. "Um vÃdeo de deep fake não é uma presença fÃsica diante da câmera e, portanto, não engana nossas camadas de proteção."