Lar Pareceres O ano de avaliação ética da indústria ai

O ano de avaliação ética da indústria ai

Índice:

Vídeo: A história da Inteligência Artificial - TecMundo (Outubro 2024)

Vídeo: A história da Inteligência Artificial - TecMundo (Outubro 2024)
Anonim

Desde que redes neurais profundas venceram a competição de reconhecimento de imagem mais importante do mundo em 2012, todos ficaram entusiasmados com o que a inteligência artificial poderia desencadear. Mas, na corrida para desenvolver novas técnicas e aplicações de IA, os possíveis impactos negativos ficaram em segundo plano.

Agora estamos vendo uma mudança em direção a uma maior conscientização sobre a ética da IA. Em 2018, os desenvolvedores de IA tornaram-se mais conscientes das possíveis ramificações de suas criações. Muitos engenheiros, pesquisadores e desenvolvedores deixaram claro que não desenvolveriam tecnologias que prejudicam ou causam danos à vida de pessoas inocentes e mantiveram suas empresas.

Reconhecimento facial na aplicação da lei

No passado, a criação de aplicativos de reconhecimento facial era árdua, intensiva em recursos e propensa a erros. Mas, com os avanços na visão computacional - o subconjunto da IA ​​que permite aos computadores reconhecer o conteúdo de imagens e vídeos - a criação de aplicativos de reconhecimento facial ficou muito mais fácil e ao alcance de todos.

Grandes empresas de tecnologia como Microsoft, Amazon e IBM começaram a fornecer serviços baseados em nuvem que permitiam a qualquer desenvolvedor integrar a tecnologia de reconhecimento facial em seu software. Isso desbloqueou muitos novos casos de uso e aplicativos em diferentes domínios, como proteção e autenticação de identidade, segurança doméstica inteligente e varejo. Mas os ativistas dos direitos de privacidade manifestaram preocupação com o potencial de uso indevido.

Em maio de 2018, a União Americana das Liberdades Civis revelou que a Amazon estava comercializando o Rekognition, uma tecnologia de análise de vídeo em tempo real, para órgãos policiais e governamentais. De acordo com a ACLU, a polícia em pelo menos três estados estava usando o Rekognition para reconhecimento facial em feeds de vídeo de vigilância.

"Com o Rekognition, um governo agora pode construir um sistema para automatizar a identificação e o rastreamento de qualquer pessoa. Se as câmeras do corpo policial, por exemplo, fossem equipadas com reconhecimento facial, os dispositivos destinados à transparência e responsabilidade dos oficiais se transformariam ainda mais em máquinas de vigilância destinadas a público ", alertou a ACLU. "Ao automatizar a vigilância em massa, sistemas de reconhecimento facial como Rekognition ameaçam essa liberdade, representando uma ameaça específica para comunidades já injustamente alvejadas no clima político atual. Depois que sistemas de vigilância poderosos como esses forem construídos e implantados, será extremamente difícil desfazer o dano.."

As preocupações da ACLU foram ecoadas pelos funcionários da Amazon, que em junho escreveram uma carta para Jeff Bezos, CEO da empresa, e exigiram que ele parasse de vender o Rekognition para a aplicação da lei. "Nossa empresa não deveria estar no negócio de vigilância; não deveria estar no negócio de policiamento; não deveria estar no negócio de apoiar aqueles que monitoram e oprimem populações marginalizadas", dizia a carta.

Em outubro, um funcionário anônimo da Amazon divulgou que pelo menos 450 funcionários haviam assinado outra carta pedindo que Bezos e outros executivos parassem de vender o Rekognition à polícia. "Não podemos lucrar com um subconjunto de clientes poderosos às custas de nossas comunidades; não podemos desviar os olhos do custo humano de nossos negócios. Não construiremos silenciosamente tecnologia para oprimir e matar pessoas, seja em nosso país ou em outros, "dizia.

As consequências do projeto militar de inteligência artificial do Google

Enquanto a Amazon lidava com essa reação interna, o Google enfrentava lutas semelhantes em relação a um contrato para desenvolver IA para as forças armadas dos EUA, apelidado de Projeto Maven.

O Google estaria ajudando o Departamento de Defesa a desenvolver uma tecnologia de visão por computador que processaria imagens de vídeo de drones. A quantidade de vídeos gravados por drones todos os dias era demais para os analistas humanos revisarem, e o Pentágono queria automatizar parte do processo.

Reconhecendo a natureza controversa da tarefa, um porta-voz do Google estipulou que estava fornecendo apenas APIs para o TensorFlow, sua plataforma de aprendizado de máquina, para detectar objetos em feeds de vídeo. O Google também enfatizou que estava desenvolvendo políticas e salvaguardas para abordar aspectos éticos de sua tecnologia.

Mas o Project Maven não se deu bem com os funcionários do Google - 3.000 dos quais, incluindo dezenas de engenheiros, logo assinaram uma carta aberta ao CEO Sundar Pichai que pedia o término do programa.

"Acreditamos que o Google não deveria estar no negócio da guerra", dizia a carta. Ele pediu que a empresa "redigisse, divulgasse e aplicasse uma política clara, afirmando que nem o Google nem seus contratados jamais desenvolverão tecnologia de guerra".

Os funcionários do Google também alertaram que seu empregador estava comprometendo sua reputação e sua capacidade de competir por talentos no futuro. "Não podemos terceirizar a responsabilidade moral de nossas tecnologias para terceiros", enfatizaram os Googlers.

Logo depois, uma petição assinada por 90 acadêmicos e pesquisadores instou os principais executivos do Google a interromper o trabalho em tecnologia militar. Os signatários alertaram que o trabalho do Google prepararia o terreno para o "reconhecimento automático de alvos e sistemas de armas autônomos". Eles também alertaram que, à medida que a tecnologia se desenvolver, eles ficariam "a um curto passo de autorizar drones autônomos a serem mortos automaticamente, sem supervisão humana ou controle humano significativo".

À medida que as tensões aumentavam, vários funcionários do Google se demitiram em protesto.

Como os líderes técnicos responderam

Sob pressão, o Google declarou em junho que não renovaria seu contrato com o Departamento de Defesa do Projeto Maven após a expiração em 2019.

Em um post no blog, o CEO Sundar Pichai (foto abaixo) declarou um conjunto de princípios éticos que governariam o desenvolvimento e a venda da tecnologia de IA da empresa. De acordo com Pichai, a empresa daqui em diante considerará projetos que são para o bem da sociedade como um todo e evitará o desenvolvimento de IA que reforce os vieses injustos existentes ou prejudique a segurança pública.

Pichai também afirmou explicitamente que sua empresa não trabalhará em tecnologias que violem as normas de direitos humanos.

Bezos, da Amazon, ficou menos perturbado com a indignação com o Rekognition. "Vamos continuar apoiando o Departamento de Defesa, e acho que deveríamos", disse Bezos em uma conferência de tecnologia em São Francisco, em outubro. "Um dos trabalhos da liderança sênior é tomar a decisão certa, mesmo quando é impopular".

Bezos também sublinhou a necessidade de a comunidade tecnológica apoiar as forças armadas. "Se grandes empresas de tecnologia vão dar as costas ao Departamento de Defesa, este país estará em apuros", disse ele.

O presidente da Microsoft, Brad Smith, cuja empresa enfrentou críticas por seu trabalho com a ICE, publicou um post em julho em que pedia uma abordagem medida na venda de tecnologia sensível a agências governamentais. Embora Smith não descartasse a venda de serviços de reconhecimento facial para policiais e militares, ele enfatizou a necessidade de uma melhor regulamentação e transparência no setor de tecnologia.

  • MIT gastará US $ 1 bilhão em programa para estudar ética da IA ​​MIT gastará US $ 1 bilhão em programa para estudar ética da AI
  • A IA realmente fala nosso idioma? A IA realmente fala nosso idioma?
  • Quebrando a fábrica de IA imparável da China Quebrando a fábrica de IA imparável da China

"Elegemos representantes eleitos no Congresso e dispomos das ferramentas necessárias para avaliar essa nova tecnologia, com todas as suas implicações. Nós nos beneficiamos dos freios e contrapesos de uma Constituição que nos viu desde a era das velas até a era da inteligência artificial. Como em tantas vezes no passado, precisamos garantir que novas invenções sirvam nossas liberdades democráticas de acordo com o estado de direito ", escreveu Smith.

Em 2018, ameaças distantes de robôs assassinos e desemprego em massa deram lugar a preocupações sobre o impacto ético e social mais imediato da IA. De muitas maneiras, esses desenvolvimentos indicam que o setor está amadurecendo, à medida que os algoritmos de IA se tornam mais proeminentes em tarefas críticas. Mas, à medida que algoritmos e automação se tornam mais arraigados em nossas vidas diárias, mais debates surgem.

O ano de avaliação ética da indústria ai