Lar O negócio Ai e exploração de aprendizado de máquina, deepfakes, agora mais difíceis de detectar

Ai e exploração de aprendizado de máquina, deepfakes, agora mais difíceis de detectar

Índice:

Vídeo: DeepFake Detector AIs Are Good Too! (Outubro 2024)

Vídeo: DeepFake Detector AIs Are Good Too! (Outubro 2024)
Anonim

À medida que avançamos para a próxima temporada de campanhas eleitorais presidenciais, você deve tomar cuidado com os perigos potenciais que os vídeos online falsos trazem através do uso de inteligência artificial (IA) e aprendizado de máquina (ML). Usando o software de IA, as pessoas podem criar vídeos deepfake (abreviação de "deep learning and fake") nos quais os algoritmos de ML são usados ​​para realizar uma troca de rostos para criar a ilusão de que alguém disse algo que não disse ou é alguém que eles ' não é. Os vídeos do Deepfake estão aparecendo em várias áreas, do entretenimento à política e ao mundo corporativo. Os vídeos deepfake não apenas podem influenciar injustamente uma eleição com mensagens falsas, mas podem causar constrangimento pessoal ou causar mensagens de marca enganosas se, digamos, mostrarem um CEO anunciando o lançamento de um produto ou uma aquisição que realmente não aconteceu.

Os Deepfakes fazem parte de uma categoria de IA denominada "Generers Adversarial Networks" ou GANs, na qual duas redes neurais competem para criar fotografias ou vídeos que parecem reais. Os GANs consistem em um gerador, que cria um novo conjunto de dados, como um vídeo falso, e um discriminador, que usa um algoritmo de ML para sintetizar e comparar dados do vídeo real. O gerador continua tentando sintetizar o vídeo falso com o antigo até que o discriminador não possa dizer que os dados são novos.

Como Steve Grobman, vice-presidente sênior e diretor de tecnologia (CTO) da McAfee, apontou na RSA Conference 2019 em março em San Francisco, fotografias falsas existem desde a invenção da fotografia. Ele disse que alterar fotos tem sido uma tarefa simples que você pode executar em um aplicativo como o Adobe Photoshop. Mas agora esses tipos de recursos avançados de edição também estão migrando para o vídeo, e estão usando ferramentas de software altamente capazes e de fácil acesso.

Como os Deepfakes são criados

Embora entender os conceitos de IA seja útil, não é necessário ser um cientista de dados para criar um vídeo deepfake. Apenas envolve seguir algumas instruções online, de acordo com Grobman. Na RSA Conference 2019 (veja o vídeo acima), ele apresentou um vídeo em profundidade, juntamente com o Dr. Celeste Fralick, cientista chefe de dados e engenheiro principal sênior da McAfee. O vídeo do deepfake ilustra a ameaça que esta tecnologia representa. Grobman e Fralick mostraram como um funcionário público em um vídeo dizendo algo perigoso poderia induzir o público a pensar que a mensagem é real.

Para criar o vídeo, Grobman e Fralick baixaram o software deepfake. Eles então fizeram um vídeo de Grobman testemunhando perante o Senado dos EUA em 2017 e sobrepuseram a boca de Fralick à de Grobman.

"Usei comentários públicos disponíveis gratuitamente para criar e treinar um modelo de ML; isso me permitiu desenvolver um vídeo deepfake com minhas palavras saindo da boca", disse Fralick à platéia da RSA no palco. Fralick continuou dizendo que vídeos deepfake poderiam ser usados ​​para exploração social e guerra de informação.

Para fazer o vídeo deepfake, Grobman e Fralick usaram uma ferramenta desenvolvida por um usuário do Reddit chamada FakeApp, que emprega algoritmos e fotos de ML para trocar rostos em vídeos. Durante a apresentação da RSA, Grobman explicou os próximos passos. "Dividimos os vídeos em imagens estáticas, extraímos os rostos e os limpamos, classificando-os e limpando-os no Instagram".

Os scripts Python permitiram à equipe da McAfee criar movimentos bucais para que o discurso de Fralick correspondesse à boca de Grobman. Então eles precisavam escrever alguns scripts personalizados. O desafio de criar um deepfake convincente é quando características como sexo, idade e tom de pele não combinam, disse Grobman.

Ele e Fralick usaram um algoritmo final de IA para combinar as imagens de Grobman testemunhando perante o Senado com o discurso de Fralick. Grobman acrescentou que foram necessárias 12 horas para treinar esses algoritmos de ML.

A McAfee descreveu as etapas necessárias para criar um vídeo deepfake mostrado na RSA Conference 2019. Ele usou o software deepfake chamado FakeApp e o treinamento de modelos de ML para alterar o vídeo de Grobman com a fala de Fralick. (Crédito da imagem: McAfee).

As conseqüências dos Deepfakes

Vídeos deepfake criados por hackers têm o potencial de causar muitos problemas - tudo, de funcionários do governo que espalham informações falsas a celebridades que ficam envergonhadas por estarem em vídeos em que realmente não estavam participando de empresas que prejudicam a posição dos concorrentes na bolsa de valores. Cientes desses problemas, os parlamentares em setembro enviaram uma carta a Daniel Coats, diretor de Inteligência Nacional dos EUA, para solicitar uma revisão da ameaça que os deepfakes representam. A carta alertou que países como a Rússia poderiam usar deepfakes nas mídias sociais para espalhar informações falsas. Em dezembro, os legisladores introduziram a Lei de Proibição Falsa Profunda Maliciosa de 2018 para proibir a fraude relacionada a "registros audiovisuais", que se referem a deepfakes. Resta ver se a conta será aprovada.

Como mencionado, as celebridades podem sofrer vergonha com vídeos nos quais seus rostos foram sobrepostos aos rostos de estrelas pornôs, como foi o caso de Gal Gadot. Ou imagine um CEO supostamente anunciando notícias sobre produtos e afundando o estoque de uma empresa. Os profissionais de segurança podem usar o ML para detectar esses tipos de ataques, mas, se não forem detectados a tempo, podem causar danos desnecessários a um país ou marca.

"Com os deepfakes, se você sabe o que está fazendo e sabe a quem alvejar, pode realmente criar um vídeo convincente para causar muitos danos a uma marca", disse o Dr. Chase Cunningham, analista principal da Forrester Research. Ele acrescentou que, se você distribuir essas mensagens no LinkedIn ou no Twitter ou usar um formulário de bot, "poderá esmagar o estoque de uma empresa com base no total de vídeos falsos sem muito esforço".

Através de vídeos deepfake, os consumidores podem ser levados a acreditar que um produto pode fazer algo que não pode. Cunningham observou que, se o CEO de um grande fabricante de automóveis dissesse em um vídeo falso que a empresa não fabricaria mais veículos movidos a gás e depois divulgasse essa mensagem no Twitter ou LinkedIn naquele vídeo, essa ação poderia facilmente danificar uma marca.

"Curiosamente, com base em minha pesquisa, as pessoas tomam decisões com base em manchetes e vídeos em 37 segundos, disse Cunningham." Então você pode imaginar se consegue um vídeo com duração superior a 37 segundos, pode levar as pessoas a tomar uma decisão com base em factual ou não. E isso é aterrorizante."

Como as mídias sociais são um local vulnerável onde os vídeos do deepfake podem se tornar virais, os sites de mídia social estão trabalhando ativamente para combater a ameaça dos deepfakes. O Facebook, por exemplo, emprega equipes de engenharia que podem identificar fotos, áudio e vídeo manipulados. Além de usar software, o Facebook (e outras empresas de mídia social) contratam pessoas para procurar manualmente os deepfakes.

"Expandimos nossos esforços contínuos para combater a mídia manipulada para incluir o combate a deepfakes", disse um representante do Facebook em comunicado. "Sabemos que o surgimento contínuo de todas as formas de mídia manipulada apresenta desafios reais para a sociedade. É por isso que estamos investindo em novas soluções técnicas, aprendendo com pesquisas acadêmicas e trabalhando com outras pessoas do setor para entender os deepfakes e outras formas de mídia manipulada.."

Nem todos os Deepfakes são ruins

Como vimos no vídeo educacional deepfake da McAfee e nos vídeos cômicos deepfake na TV noturna, alguns vídeos deepfake não são necessariamente ruins. De fato, embora a política possa expor os reais perigos dos vídeos deepfake, a indústria do entretenimento geralmente mostra apenas o lado mais leve dos vídeos deepfake.

Por exemplo, em um episódio recente de The Late Show With Stephen Colbert, foi mostrado um engraçado vídeo em que o rosto do ator Steve Buscemi era sobreposto ao corpo da atriz Jennifer Lawrence. Em outro caso, o comediante Jordan Peeler substituiu um vídeo do ex-presidente Barack Obama falando com sua própria voz. Vídeos humorísticos de deepfake como esses também apareceram online, nos quais o rosto do presidente Trump se sobrepõe ao rosto da chanceler alemã Angela Merkel enquanto a pessoa fala.

Novamente, se os vídeos deepfake são usados ​​para fins satíricos ou bem-humorados ou simplesmente como entretenimento, as plataformas de mídia social e até as casas de produção de filmes permitem ou os utilizam. Por exemplo, o Facebook permite esse tipo de conteúdo em sua plataforma, e a Lucasfilm usou um tipo de recreação digital para apresentar uma jovem Carrie Fisher no corpo da atriz Ingvild Deila em "Rogue One: A Star Wars Story".

Grobman, da McAfee, observou que parte da tecnologia por trás dos deepfakes é usada com dublês na produção de filmes para manter os atores seguros. "O contexto é tudo. Se é para propósitos cômicos e é óbvio que não é real, é algo que é um uso legítimo da tecnologia", disse Grobman. "Reconhecer que pode ser usado para todos os tipos de propósitos diferentes é fundamental."

(Crédito da imagem: Statista)

Como detectar vídeos do Deepfake

A McAfee não é a única empresa de segurança que está experimentando como detectar vídeos falsos. Em seu artigo entregue no Black Hat 2018, intitulado "AI Gone Rogue: Exterminating Deep Fakes Antes que Causem Ameaça", dois especialistas em segurança da Symantec, o Líder de Resposta de Segurança Vijay Thaware e o Engenheiro de Desenvolvimento de Software Niranjan Agnihotri, escreveram que eles criaram uma ferramenta para identificar vídeos falsos baseados no Google FaceNet. O Google FaceNet é uma arquitetura de rede neural que os pesquisadores do Google desenvolveram para ajudar na verificação e reconhecimento de faces. Os usuários treinam um modelo FaceNet em uma imagem específica e podem verificar sua identidade durante os testes posteriores.

Para tentar impedir a disseminação de vídeos deepfake, a AI Foundation, uma organização sem fins lucrativos focada na interação humana e com IA, oferece um software chamado "Reality Defender" para detectar conteúdo falso. Ele pode digitalizar imagens e vídeos para ver se eles foram alterados usando a IA. Se tiverem, eles receberão uma "Marca d'água de IA honesta".

  • O Guia de Negócios do Machine Learning O Guia de Negócios do Machine Learning
  • PornHub, Twitter bane pornografia modificada por IA 'Deepfake' PornHub, Twitter bane pornografia com modificação AI de 'Deepfake'
  • A mais recente tecnologia Deepfake fará você dançar como Bruno Mars A mais recente tecnologia Deepfake fará você dançar como Bruno Mars

Outra estratégia é manter em mente o conceito de Zero Trust, que significa "nunca confie, sempre verifique" - um lema de segurança cibernética que significa que os profissionais de TI devem confirmar que todos os usuários são legítimos antes de conceder privilégios de acesso. Ser cético quanto à validade do conteúdo do vídeo será necessário. Você também desejará software com recursos de análise digital para detectar conteúdo falso.

Procurando Deepfakes

No futuro, precisaremos ser mais cautelosos com o conteúdo de vídeo e ter em mente os perigos que eles podem apresentar à sociedade se forem mal utilizados. Como observou Grobman, "no curto prazo, as pessoas precisam ser mais céticas em relação ao que veem e reconhecer que vídeo e áudio podem ser fabricados".

Portanto, mantenha um olho cético nos vídeos políticos que você assiste durante a próxima temporada eleitoral e não confie em todos os vídeos com líderes corporativos. Porque o que você ouve pode não ser o que realmente foi dito, e vídeos enganosos de deepfake têm o potencial de realmente prejudicar nossa sociedade.

Ai e exploração de aprendizado de máquina, deepfakes, agora mais difíceis de detectar