Skip to content

Falsificar vídeos é fácil, mostra profunda nostalgia

17 de abril de 2021

Principais vantagens

  • Deep Nostalgia é um novo programa que permite animar fotos antigas.
  • A tecnologia mostra como é fácil criar vídeos de pessoas fazendo coisas que não fizeram na vida real.
  • A tecnologia falsa profunda já é tão sofisticada que é difícil dizer se um vídeo é real ou gerado por computador, diz um especialista.

imaginima / Getty Images

Tenha cuidado com novos softwares que podem criar as chamadas “falsificações profundas”, nas quais vídeos de pessoas reais podem ser simulados, alertam os especialistas. Deep Nostalgia, lançado pela empresa MyHeritage, é tendência nas redes sociais, com usuários reanimando todos, de compositores famosos a parentes mortos. O software está gerando reações mistas, com algumas pessoas encantadas com as criações e outras achando-as assustadoras. A tecnologia mostra como é fácil criar vídeos de pessoas fazendo coisas que não fizeram na vida real.

“A tecnologia Deepfake está ficando mais sofisticada e perigosa”, disse Aaron Lawson, diretor assistente do Laboratório de Tecnologia e Pesquisa de Fala da SRI International (STAR), em uma entrevista por e-mail. “Isso se deve em parte à natureza da inteligência artificial. Onde a tecnologia ‘tradicional’ requer tempo e energia humanos para melhorar, a IA pode aprender por si mesma.” Mas a capacidade da IA ​​de se desenvolver é uma faca de dois gumes “, continuou Lawson.” Se um AI é criado para fazer algo benevolente, ótimo. Mas quando uma IA é projetada para algo malicioso, como falsificações profundas, o perigo é sem precedentes. ”

O software dá vida às fotos

O site de genealogia MyHeritage introduziu o mecanismo de animação no mês passado. A tecnologia, conhecida como Deep Nostalgia, permite aos usuários animar fotos através do site MyHeritage. Uma empresa chamada D-ID projetou algoritmos para MyHeritage que recriam digitalmente o movimento de rostos humanos.

O software aplica os movimentos às fotografias e modifica as expressões faciais para se moverem como os rostos humanos costumam fazer, de acordo com o site MyHeritage. Deep Nostalgia mostra que a tecnologia falsa profunda está se tornando mais acessível, disse Lior Shamir, professor de ciência da computação na Universidade Estadual do Kansas, em uma entrevista por e-mail. Está progredindo rapidamente e eliminando até mesmo as diferenças sutis entre o vídeo e áudio falsos e reais.

“Também houve um progresso substancial em relação à falsificação profunda em tempo real, o que significa que vídeos falsos profundos e convincentes são gerados no momento da comunicação por vídeo”, disse Shamir. “Por exemplo, pode-se ter uma reunião do Zoom com uma certa pessoa, enquanto vê e ouve a voz de uma pessoa completamente diferente.” Há também um número crescente de falsificações profundas baseadas na linguagem, disse Jason Corso, diretor do Stevens Institute for Artificial Intelligence do Stevens Institute of Technology, em uma entrevista por e-mail. “Gerar parágrafos inteiros de texto falso profundo para uma agenda específica é bastante difícil, mas os avanços modernos no processamento de linguagem natural profundo estão tornando isso possível”, acrescentou.

Como detectar uma falsificação profunda

Embora a tecnologia de detecção de falsificações ainda esteja em um estágio inicial, existem algumas maneiras de detectar uma, disse Corso, começando pela boca. “A variabilidade na aparência do interior da boca quando alguém está falando é muito alta, dificultando uma animação convincente”, explicou Corso.

“Isso pode ser feito, mas é mais difícil do que o resto da cabeça. Observe como os vídeos Nostalgia Profunda não demonstram a capacidade da fotografia de dizer ‘Eu te amo’ ou alguma outra frase durante a criação falsa profunda. Fazendo isso exigiria a abertura e o fechamento da boca, o que é muito difícil para uma geração falsa profunda. ”

Ghosting é outra dádiva, acrescentou Corso. Se você vir borrões nas bordas da cabeça, isso é resultado de “movimento rápido ou pixels limitados disponíveis na imagem de origem. Uma orelha pode desaparecer parcialmente momentaneamente ou o cabelo pode ficar borrado onde você não esperava”, ele disse. Você também pode observar a variação de cores ao tentar localizar um vídeo falso profundo, como uma linha nítida no rosto, com cores mais escuras de um lado e mais claras do outro.

“Os algoritmos de computador podem freqüentemente detectar esses padrões de distorção”, disse Shamir. “Mas algoritmos falsos profundos estão avançando rapidamente. É inevitável que leis rígidas sejam exigidas para proteger contra falsificações profundas e os danos que eles podem facilmente causar.”