Lar Pareceres Alguma coisa pode nos proteger de deepfakes? | Ben Dickson

Alguma coisa pode nos proteger de deepfakes? | Ben Dickson

Índice:

Vídeo: Entenda: os deepfakes vão dominar o mundo? - TecMundo (Outubro 2024)

Vídeo: Entenda: os deepfakes vão dominar o mundo? - TecMundo (Outubro 2024)
Anonim

No final de 2017, a Motherboard relatou uma tecnologia de IA que poderia trocar de rosto em vídeos. Naquela época, a tecnologia - mais tarde denominada deepfakes - produzia resultados brutos e granulosos e era usada principalmente para criar vídeos pornográficos falsos com celebridades e políticos.

Dois anos depois, a tecnologia avançou tremendamente e é mais difícil de detectar a olho nu. Juntamente com notícias falsas, os vídeos falsificados se tornaram uma preocupação de segurança nacional, especialmente à medida que as eleições presidenciais de 2020 se aproximam.

Desde que os deepfakes surgiram, várias organizações e empresas desenvolveram tecnologias para detectar vídeos violados pela IA. Mas há um medo de que um dia a tecnologia deepfakes seja impossível de detectar.

Pesquisadores da Universidade de Surrey desenvolveram uma solução que poderia resolver o problema: em vez de detectar o que é falso, provará o que é verdade. Programada para ser apresentada na próxima Conferência sobre Visão Computacional e Reconhecimento de Padrões (CVPR), a tecnologia, chamada Archangel, usa IA e blockchain para criar e registrar uma impressão digital digital à prova de adulteração para vídeos autênticos. A impressão digital pode ser usada como um ponto de referência para verificar a validade da mídia distribuída on-line ou transmitida na televisão.

Usando o AI para assinar vídeos

A maneira clássica de provar a autenticidade de um documento binário é usar uma assinatura digital. Os editores executam seus documentos através de um algoritmo criptográfico como SHA256, MD5 ou Blowfish, que produz um "hash", uma sequência curta de bytes que representa o conteúdo desse arquivo e se torna sua assinatura digital. A execução do mesmo arquivo pelo algoritmo de hash a qualquer momento produzirá o mesmo hash se o conteúdo não for alterado.

Hashes são supersensíveis a alterações na estrutura binária do arquivo de origem. Quando você modifica um único byte no arquivo hash e o executa novamente através do algoritmo, ele produz um resultado totalmente diferente.

Mas, embora os hashes funcionem bem para arquivos e aplicativos de texto, eles apresentam desafios para vídeos, que podem ser armazenados em diferentes formatos, de acordo com John Collomosse, professor de visão computacional da Universidade de Surrey e líder de projeto do Arcanjo.

"Queríamos que a assinatura fosse a mesma, independentemente do codec com o qual o vídeo está sendo compactado", diz Collomosse. "Se eu pegar meu vídeo e convertê-lo de, digamos, MPEG-2 para MPEG-4, esse arquivo terá uma duração totalmente diferente e os bits serão completamente alterados, o que produzirá um hash diferente. O que precisávamos era um algoritmo de hash com reconhecimento de conteúdo ".

Para resolver esse problema, Collomosse e seus colegas desenvolveram uma profunda rede neural sensível ao conteúdo contido no vídeo. Redes neurais profundas são um tipo de construção de IA que desenvolve seu comportamento através da análise de vastas quantidades de exemplos. Curiosamente, as redes neurais também são a tecnologia no coração dos deepfakes.

Ao criar deepfakes, o desenvolvedor alimenta a rede com fotos do rosto de um sujeito. A rede neural aprende os recursos do rosto e, com treinamento suficiente, torna-se capaz de encontrar e trocar rostos em outros vídeos com o rosto do sujeito.

A rede neural do Arcanjo é treinada no vídeo que recebe impressões digitais. "A rede está analisando o conteúdo do vídeo, e não os bits e bytes subjacentes", diz Collomosse.

Após o treinamento, quando você executar um novo vídeo pela rede, ele será validado quando contiver o mesmo conteúdo que o vídeo de origem, independentemente de seu formato, e será rejeitado quando for um vídeo diferente ou for violado ou editado.

Segundo Collomosse, a tecnologia pode detectar adulterações espaciais e temporais. As adulterações espaciais são alterações feitas em quadros individuais, como as edições de troca de rosto feitas no deepfakes.

Mas os deepfakes não são a única maneira de alterar os vídeos. Menos discutidas, mas igualmente perigosas, são as alterações intencionais feitas na sequência de quadros e na velocidade e duração do vídeo. Um vídeo adulterado recente e amplamente divulgado da presidente da Câmara, Nancy Pelosi, não usou deepfakes, mas foi criado através do uso cuidadoso de técnicas simples de edição que a fizeram parecer confusa.

"Uma das formas de adulteração que podemos detectar é a remoção de segmentos curtos do vídeo. São adulterações temporais. E podemos detectar até três segundos de adulteração. Portanto, se um vídeo tiver várias horas de duração e você apenas remover três segundos desse vídeo, podemos detectar isso ", diz Collomosse, acrescentando que o Arcanjo também detectará alterações feitas na velocidade do vídeo original, como foi feito no vídeo de Pelosi.

Registrando a impressão digital no Blockchain

O segundo componente do projeto Archangel é um blockchain, um banco de dados inviolável, onde novas informações podem ser armazenadas, mas não alteradas - ideal para arquivos de vídeo, que não fazem alterações nos vídeos depois de registrados.

A tecnologia Blockchain está subjacente a moedas digitais como Bitcoin e Ether. É um livro digital mantido por várias partes independentes. A maioria das partes deve concordar com as alterações feitas na blockchain, o que torna impossível qualquer parte única se intrometer unilateralmente com o razão.

É tecnicamente possível atacar e alterar o conteúdo de uma blockchain se mais de 50% de seus participantes conspirarem. Mas, na prática, é extremamente difícil, especialmente quando a blockchain é mantida por muitas partes independentes com objetivos e interesses variados.

A blockchain do Arcanjo é um pouco diferente da blockchain pública. Primeiro, ele não produz criptomoeda e armazena apenas o identificador, a impressão digital sensível ao conteúdo e o hash binário da rede neural do verificador para cada vídeo em um arquivo morto (as cadeias de bloco não são adequadas para armazenar grandes quantidades de dados, e é por isso que o vídeo em si e a rede neural são armazenados fora da cadeia).

Além disso, é uma blockchain autorizada ou "privada". Isso significa que, diferentemente da blockchain Bitcoin, onde todos podem registrar novas transações, apenas as partes autorizadas podem armazenar novos registros na blockchain Archangel.

O Arcanjo está atualmente sendo testado por uma rede de arquivos do governo nacional do Reino Unido, Estônia, Noruega, Austrália e EUA: Para armazenar novas informações, todos os países envolvidos precisam subscrever a adição. Mas enquanto apenas os arquivos nacionais dos países participantes têm o direito de adicionar registros, todos os outros têm acesso de leitura ao blockchain e podem usá-lo para validar outros vídeos no arquivo.

  • Exploração de IA e Machine Learning, Deepfakes, agora mais difícil de detectar Exploração de IA e Machine Learning, Deepfakes, agora mais difíceis de detectar
  • Os vídeos do Deepfake estão aqui e não estamos prontos Os vídeos do Deepfake estão aqui e não estamos prontos
  • A nova AI da Adobe detecta rostos Photoshopped A nova AI da Adobe detecta rostos Photoshopped

"Esta é uma aplicação de blockchain para o bem público", diz Collomosse. "Na minha opinião, o único uso razoável do blockchain é quando você tem organizações independentes que não necessariamente confiam umas nas outras, mas elas têm esse interesse coletivo nesse objetivo coletivo de confiança mútua. E o que queremos fazer é proteger os arquivos nacionais do governo em todo o mundo, para que possamos garantir sua integridade usando essa tecnologia ".

Como a criação de vídeos falsificados está se tornando mais fácil, mais rápida e mais acessível, todos precisarão de toda a ajuda possível para garantir a integridade de seus arquivos de vídeo - especialmente os governos.

"Acho que os deepfakes são quase como uma corrida armamentista", diz Collomosse. "Como as pessoas estão produzindo deepfakes cada vez mais convincentes, e algum dia pode ser impossível detectá-las. É por isso que o melhor que você pode fazer é tentar provar a procedência de um vídeo".

Alguma coisa pode nos proteger de deepfakes? | Ben Dickson