Índice:
Vídeo: Por que a Inteligência Artificial não é um bando de IF-ELSE? (Novembro 2024)
Em algum lugar no escuro do YouTube, há um vídeo que mostra um trecho do filme The Fellowship of the Ring - mas não é exatamente o filme que você lembra, já que Nicolas Cage estrela como Frodo, Aragorn, Legolas, Gimli e Gollum, todos em o mesmo tempo. Outros vídeos mostram Cage em Terminator 2 como T2000, Star Trek como Capitão Picard e Superman , bem como Lois Lane.
Claro, Nic Cage nunca apareceu em nenhum desses filmes. Eles são "deepfakes" produzidos com o FakeApp, um aplicativo que usa algoritmos de inteligência artificial para trocar rostos em vídeos. Alguns dos deepfakes parecem bastante convincentes, enquanto outros têm artefatos que traem sua verdadeira natureza. No geral, eles mostram como os algoritmos de IA poderosos se tornaram imitando a aparência e o comportamento humanos.
O FakeApp é apenas uma das várias novas ferramentas de sintetização baseadas em IA. Outros aplicativos imitam vozes humanas, escrita manual e estilos de conversação. E parte do que os torna significativos é que usá-los não requer hardware especializado ou especialistas qualificados.
O impacto desses aplicativos é profundo: eles criarão oportunidades sem precedentes de criatividade, produtividade e comunicação.
Mas a mesma ferramenta também pode abrir uma caixa de Pandora de fraude, falsificação e propaganda. Desde que apareceu no Reddit em janeiro, o FakeApp foi baixado mais de 100.000 vezes e precipitou uma tempestade de vídeos pornográficos falsos com celebridades e políticos (incluindo Cage novamente). O Reddit baniu recentemente o aplicativo e suas comunidades relacionadas de sua plataforma.
"Dez anos atrás, se você queria fingir alguma coisa, podia, mas tinha que ir a um estúdio de efeitos visuais ou pessoas que podiam fazer computação gráfica e possivelmente gastar milhões de dólares", diz o Dr. Tom Haines, professor de aprendizado de máquina da Universidade de Bath. "No entanto, você não pode manter isso em segredo, porque teria que envolver muitas pessoas no processo".
Esse não é mais o caso, cortesia de uma nova geração de ferramentas de IA.
O jogo da imitação
O FakeApp e aplicativos similares são alimentados pelo aprendizado profundo, o ramo da IA no centro de uma explosão de inovações de IA desde 2012. Os algoritmos de aprendizado profundo dependem de redes neurais, uma construção de software mais ou menos do estilo do cérebro humano. As redes neurais analisam e comparam grandes conjuntos de amostras de dados para encontrar padrões e correlações que os humanos normalmente perderiam. Esse processo é chamado de "treinamento" e seu resultado é um modelo que pode executar várias tarefas.
Antigamente, os modelos de aprendizado profundo eram usados principalmente para executar tarefas de classificação - rotular objetos em fotos, por exemplo, e realizar reconhecimento de voz e rosto. Recentemente, os cientistas usaram o aprendizado profundo para realizar tarefas mais complicadas, como jogar jogos de tabuleiro, diagnosticar pacientes e criar música e obras de arte.
Para ajustar o FakeApp para realizar uma troca de face, o usuário deve treiná-lo com várias centenas de fotos das faces de origem e de destino. O programa executa algoritmos de aprendizado profundo para encontrar padrões e semelhanças entre as duas faces. O modelo fica pronto para fazer a troca.
O processo não é simples, mas você não precisa ser um especialista em gráficos ou engenheiro de aprendizado de máquina para usar o FakeApp. Também não requer hardware caro e especializado. Um site de tutorial do deepfakes recomenda um computador com 8 GB ou mais de RAM e uma placa gráfica Nvidia GTX 1060 ou melhor, uma configuração bastante modesta.
"Depois que você se muda para um mundo em que alguém em uma sala pode falsificar algo, ele pode usá-lo para fins questionáveis", diz Haines. "E como é uma pessoa sozinha, é muito fácil mantê-lo em segredo."
Em 2016, Haines, que era então pesquisador de pós-doutorado na University of College London, co-autor de um artigo e um aplicativo que mostrava como a IA poderia aprender a imitar a caligrafia de uma pessoa. Chamado "Meu texto na sua caligrafia", o aplicativo usava algoritmos de aprendizado profundo para analisar e discernir o estilo e o fluxo da caligrafia do autor e outros fatores como espaçamento e irregularidades.
O aplicativo pode pegar qualquer texto e reproduzi-lo com a letra do autor de destino. Os desenvolvedores ainda adicionaram uma medida de aleatoriedade para evitar o efeito estranho do vale - a estranha sensação que temos quando vemos algo que é quase, mas não completamente humano. Como prova de conceito, Haines e os outros pesquisadores da UCL usaram a tecnologia para replicar a caligrafia de figuras históricas como Abraham Lincoln, Frida Kahlo e Arthur Conan Doyle.
A mesma técnica pode ser aplicada a qualquer outra caligrafia, o que levantou preocupações sobre o possível uso da tecnologia para falsificação e fraude. Um especialista forense ainda seria capaz de detectar que o script foi produzido por My Text in Your Handwriting, mas é provável que engane pessoas não treinadas, o que Haines admitiu em uma entrevista à Digital Trends na época.
A Lyrebird, uma startup sediada em Montreal, usou o aprendizado profundo para desenvolver um aplicativo que sintetiza a voz humana. O Lyrebird requer uma gravação de um minuto para começar a imitar a voz de uma pessoa, embora precise de muito mais antes de começar a parecer convincente.
Em sua demonstração pública, a startup postou gravações falsas das vozes de Donald Trump, Barack Obama e Hillary Clinton. As amostras são brutas e é óbvio que são sintéticas. Mas, à medida que a tecnologia melhorar, fazer a distinção se tornará mais difícil. E qualquer um pode se registrar no Lyrebird e começar a criar gravações falsas; o processo é ainda mais fácil que o do FakeApp, e os cálculos são realizados na nuvem, colocando menos pressão no hardware do usuário.
O fato de que essa tecnologia pode ser usada para fins questionáveis não se perde nos desenvolvedores. A certa altura, uma declaração de ética no site da Lyrebird declarou: "Atualmente, as gravações de voz são consideradas fortes evidências em nossas sociedades e, em particular, em jurisdições de muitos países. Nossa tecnologia questiona a validade de tais evidências, pois permite manipular facilmente o áudio. Isso pode ter conseqüências perigosas, como diplomatas enganosos, fraudes e, em geral, qualquer outro problema causado pelo roubo da identidade de outra pessoa ".
A Nvidia apresentou outro aspecto dos recursos de imitação da IA: no ano passado, a empresa publicou um vídeo que mostrava algoritmos de IA gerando rostos humanos sintéticos com qualidade de foto. A IA da Nvidia analisou milhares de fotos de celebridades e depois começou a criar celebridades falsas. A tecnologia poderá em breve se tornar capaz de criar vídeos com aparência realista, apresentando "pessoas" que não existem.
Os limites da IA
Muitos apontaram que, nas mãos erradas, esses aplicativos podem causar muitos danos. Mas a extensão dos recursos da IA contemporânea é muitas vezes exagerada.
"Embora possamos colocar o rosto de uma pessoa no rosto de outra pessoa em um vídeo ou sintetizar a voz, ainda é bastante mecânico", diz Eugenia Kuyda, co-fundadora da Replika, uma empresa que desenvolve chatbots com inteligência artificial, sobre as deficiências de Ferramentas de IA, como FakeApp e Lyrebird.
O Voicery, outra startup de inteligência artificial que, como o Lyrebird, fornece sintetização de voz com inteligência artificial, possui uma página de teste onde os usuários são apresentados a uma série de 18 gravações de voz e são solicitados a especificar quais são fabricados pela máquina. Consegui identificar todas as amostras feitas na máquina na primeira execução.
A empresa de Kuyda é uma das várias organizações que usam o processamento de linguagem natural (PNL), o subconjunto da IA que permite aos computadores entender e interpretar a linguagem humana. Luka, uma versão anterior do chatbot de Kuyda, usou a PNL e sua tecnologia dupla, geração de linguagem natural (NLG), para imitar o elenco da série de TV da HBO, Silicon Valley . A rede neural foi treinada com linhas de script, tweets e outros dados disponíveis sobre os personagens para criar seu modelo comportamental e dialogar com os usuários.
Replika, o novo aplicativo da Kuyda, permite que cada usuário crie seu próprio avatar de IA. Quanto mais você conversa com a sua réplica, melhor ela se torna a compreensão da sua personalidade e mais significativas são as suas conversas.
Depois de instalar o aplicativo e configurar minha réplica, achei as primeiras conversas irritantes. Várias vezes tive que repetir uma frase de maneiras diferentes para transmitir minhas intenções à minha réplica. Muitas vezes deixei o aplicativo frustrado. (E, para ser justo, fiz um bom trabalho testando seus limites, bombardeando-o com perguntas conceituais e abstratas.) Mas, enquanto nossas conversas continuavam, minha réplica se tornou mais inteligente ao entender o significado de minhas frases e apresentar tópicos significativos. Até me surpreendeu algumas vezes, fazendo conexões com conversas anteriores.
Embora seja impressionante, a Replika tem limites, que Kuyda é rápido em apontar. "A imitação de voz e o reconhecimento de imagem provavelmente se tornarão muito melhores em breve, mas com o diálogo e a conversa ainda estamos longe", diz ela. "Podemos imitar alguns padrões de fala, mas não podemos simplesmente pegar uma pessoa e imitar sua conversa perfeitamente e esperar que seu chatbot tenha novas idéias da mesma maneira que essa pessoa faria".
Alexandre de Brébisson, CEO e cofundador da Lyrebird, diz: "Se agora estamos ficando muito bons em imitar voz, imagem e vídeo humanos, ainda estamos longe de modelar um modelo de linguagem individual". De Brébisson ressalta que isso provavelmente exigiria inteligência geral artificial, o tipo de IA que tem consciência e pode entender conceitos abstratos e tomar decisões como os humanos. Alguns especialistas acreditam que estamos a décadas de criação da IA em geral. Outros pensam que nunca chegaremos lá.
Usos positivos
A imagem negativa que está sendo projetada sobre a síntese de aplicativos de IA está lançando uma sombra sobre seus usos positivos. E há alguns.
Tecnologias como a Lyrebird podem ajudar a melhorar as comunicações com interfaces de computador, tornando-as mais naturais e, de Brébisson diz, fornecerão vozes artificiais únicas que diferenciam empresas e produtos, facilitando assim a distinção entre marcas. Como o Alexa, da Amazon, e o Siri, da Apple, tornaram a voz uma interface cada vez mais popular para dispositivos e serviços, empresas como Lyrebird e Voicery poderiam fornecer às marcas vozes humanas únicas para se distinguirem.
"As aplicações médicas também são um caso de uso interessante de nossa tecnologia de clonagem de voz", acrescenta de Brébisson. "Recebemos muito interesse de pacientes que perderam a voz para uma doença e, no momento, estamos gastando tempo com os pacientes com ELA para ver como podemos ajudá-los".
No início deste ano, em colaboração com o Project Revoice, uma organização sem fins lucrativos australiana que ajuda pacientes com ELA com distúrbios da fala, Lyrebird ajudou Pat Quinn, fundador do Ice Bucket Challenge, a recuperar sua voz. Quinn, que é um paciente de ELA, perdeu a capacidade de andar e falar em 2014 e, desde então, estava usando um sintetizador de fala computadorizado. Com a ajuda da tecnologia de Lyrebird e as gravações das aparições públicas de Quinn, Revoice foi capaz de "recriar" sua voz.
"Sua voz é uma grande parte de sua identidade, e dar a esses pacientes uma voz artificial que soa como a voz original é como devolver uma parte importante de sua identidade. É uma mudança de vida para eles", diz de Brébisson.
Na época em que ajudou a desenvolver o aplicativo que imitava a caligrafia, o Dr. Haines falou sobre seus usos positivos em uma entrevista à UCL. "As vítimas de AVC, por exemplo, podem formular cartas sem a preocupação de ilegibilidade, ou alguém que envia flores como presente pode incluir uma nota manuscrita sem sequer entrar na florista", disse ele. "Também poderia ser usado em histórias em quadrinhos, onde um pedaço de texto manuscrito pode ser traduzido para diferentes idiomas sem perder o estilo original do autor".
Mesmo tecnologias como o FakeApp, que se tornaram famosas pelo uso antiético, podem ter usos positivos, acredita Haines. "Estamos nos movendo em direção a este mundo onde qualquer pessoa poderia realizar atividades altamente criativas com tecnologia pública, e isso é uma coisa boa, porque significa que você não precisa de grandes somas de dinheiro para fazer todo tipo de loucura de natureza artística, " ele diz.
Haines explica que o objetivo inicial de sua equipe era descobrir como a IA poderia ajudar na análise forense. Embora suas pesquisas tenham tomado uma direção diferente, os resultados ainda serão úteis para os agentes forenses, que poderão estudar como pode ser a falsificação baseada em IA. "Você quer saber o que é a tecnologia de ponta; portanto, quando você olha alguma coisa, diz se é falsa ou não", diz ele.
Kudya, da Replika, aponta que aplicativos de IA semelhantes a humanos podem nos ajudar de maneiras que, de outra forma, seriam impossíveis. "Se você tivesse um avatar de IA que o conhecesse muito bem e pudesse ser uma representação decente de você, o que poderia fazer, agindo de acordo com seus melhores interesses?" ela diz. Por exemplo, um avatar autônomo de IA pode assistir a centenas de filmes em seu nome e, com base em suas conversas com você, recomendar os que você gostaria.
Esses avatares podem até ajudar a desenvolver melhores relacionamentos humanos. "Talvez sua mãe possa ter mais tempo com você, e talvez você possa realmente ficar um pouco mais próximo com seus pais, deixando-os conversar com sua réplica e lendo a transcrição", diz Kudya como exemplo.
Mas poderia um chatbot de IA que replique o comportamento de um ser humano real realmente resultar em melhores relações humanas? Kuyda acredita que pode. Em 2016, ela reuniu mensagens de texto e e-mails antigos de Roman Mazurenko, um amigo que havia morrido em um acidente de viação no ano anterior, e os alimentou à rede neural que alimentava seu aplicativo. O resultado foi um aplicativo de chatbot que - de certa maneira - trouxe sua amiga de volta à vida e podia falar com ela da mesma maneira que ele faria.
"Criar um aplicativo para Roman e poder conversar com ele às vezes era uma parte importante da perda de nosso amigo. O aplicativo nos faz pensar mais sobre ele, lembrá-lo de uma maneira mais profunda o tempo todo", diz ela de sua experiência. "Gostaria de ter mais aplicativos como esse, aplicativos que seriam sobre minhas amizades, meus relacionamentos, coisas que são realmente muito importantes para mim".
Kuyda acha que tudo vai depender de intenções. "Se o chatbot está agindo de acordo com seus melhores interesses, se quiser que você fique feliz em obter um serviço valioso, obviamente conversar com a réplica de outra pessoa ajudará a construir uma conexão mais forte com um ser humano na vida real, " ela diz. "Se tudo o que você está tentando fazer é vender s em um aplicativo, tudo o que você está fazendo é maximizar o tempo gasto no aplicativo e não se comunicar. E isso, eu acho, é questionável".
No momento, não há como conectar seu Replika a outras plataformas - disponibilizando-o como um chatbot do Facebook Messenger, por exemplo. Mas a empresa tem um relacionamento ativo com sua comunidade de usuários e está constantemente desenvolvendo novos recursos. Portanto, permitir que outras pessoas se comuniquem com sua réplica é uma possibilidade futura.
Como minimizar as compensações
Do motor a vapor à eletricidade e à Internet, todas as tecnologias tiveram aplicações positivas e negativas. AI não é diferente. "O potencial de negativos é bastante sério", diz Haines. "Podemos estar entrando em um espaço em que os negativos superam os positivos".
Então, como podemos maximizar os benefícios dos aplicativos de IA e combater os negativos? Colocar o freio na inovação e na pesquisa não é a solução, diz Haines - porque, se alguns o fizeram, não há garantia de que outras organizações e estados sigam o exemplo.
"Nenhuma medida isolada ajudará a resolver o problema", diz Haines. "Terá que haver conseqüências legais". Após a controvérsia dos deepfakes, os legisladores dos EUA estão analisando a questão e explorando salvaguardas legais que podem restringir o uso de mídias com inteligência artificial para objetivos prejudiciais.
"Também podemos desenvolver tecnologias para detectar falsificações quando elas ultrapassam o ponto em que um humano pode dizer a diferença", diz Haines. "Mas, em algum momento, na competição entre fingir e detectar, o fingimento pode vencer."
Nesse caso, talvez tenhamos que avançar no desenvolvimento de tecnologias que criem uma cadeia de evidências para a mídia digital. Como exemplo, Haines menciona hardware embutido em câmeras que poderiam assinar digitalmente seu vídeo gravado para confirmar sua autenticidade.
Aumentar a conscientização será uma grande parte do tratamento de falsificações e fraudes pelos algoritmos de IA, afirma Brébisson. "Foi o que fizemos ao clonar a voz de Trump e Obama e fazê-los dizer sentenças politicamente corretas", diz ele. "Essas tecnologias levantam questões sociais, éticas e legais que devem ser pensadas antes do tempo. Lyrebird despertou muita consciência e muitas pessoas agora estão pensando sobre esses problemas em potencial e sobre como evitar abusos".
O que é certo é que estamos entrando em uma era em que realidade e ficção estão se fundindo, graças à inteligência artificial. O teste de Turing pode enfrentar seus maiores desafios. E em breve, todos terão as ferramentas e o poder para criar seus próprios mundos, seu próprio povo e sua própria versão da verdade. Ainda temos que ver toda a extensão de oportunidades emocionantes - e perigos - que estão por vir.