Lar Visão de futuro Google apps, ferramentas visam 'democratizar ai'

Google apps, ferramentas visam 'democratizar ai'

Índice:

Vídeo: 12 FERRAMENTAS do Google para Marketing Digital 🚀 (Outubro 2024)

Vídeo: 12 FERRAMENTAS do Google para Marketing Digital 🚀 (Outubro 2024)
Anonim

Para mim, o maior tema da conferência de E / S do Google na semana passada foi "democratizar a IA" - em outras palavras, tornar a IA acessível tanto aos usuários finais através do uso em uma variedade de serviços do Google quanto aos desenvolvedores através de novas ferramentas, programas, e até hardware projetado em torno da estrutura de inteligência artificial do Google, o TensorFlow.

O CEO do Google, Sundar Pichai, iniciou a conferência com uma palestra na qual ele ressaltou novamente que a empresa estava passando de uma abordagem móvel para uma abordagem AI, similar ao que ele disse no ano passado.

Ele disse que o Google estava "repensando todos os nossos produtos e aplicando o aprendizado de máquina e a IA para atender aos problemas dos usuários". Ele disse que os algoritmos de aprendizado de máquina já influenciam a classificação de diferentes resultados na pesquisa e como o Street View agora reconhece sinais automaticamente. Outros serviços estão ficando mais inteligentes por causa da IA, disse ele, como como o Google Home agora suporta vários usuários e como o Gmail está lançando um recurso de "resposta inteligente", onde sugere automaticamente respostas a emails.

Para esse fim, ele fez vários anúncios de produtos de IA, tanto para consumidores quanto para desenvolvedores.

Lente, Assistente e Foto usam recursos de AI

Para os usuários finais, o mais visível desses novos esforços é o Google Lens, um conjunto de recursos de computação baseados em visão que podem entender o que você está vendo e executar ações, no Assistente do Google e no Google Fotos.

Por exemplo, ele demonstrou como você pode tirar uma foto de uma flor e como o Google Lens agora pode identificá-la. Mais prosaicamente, ele pode tirar uma foto de um nome de usuário e senha para Wi-Fi e entender automaticamente que você deseja se conectar e fazer isso por você. Outros exemplos incluem tirar uma foto do lado de fora de um restaurante e fazer com que o software entenda o que é, mostrando as revisões e os menus dos usuários. Isso não é tudo completamente novo, mas posso imaginar que será bastante útil - o tipo de coisa que todos usaremos de maneira rotineira em poucos anos. O Google diz que isso será lançado em alguns meses.

O Google Assistant continua ficando mais inteligente e incorporará o Google Lens, embora a maior novidade disso seja que o Assistant está chegando ao iPhone.

O popular aplicativo Google Fotos também está recebendo vários outros novos recursos orientados por IA, incluindo "compartilhamento sugerido", onde seleciona automaticamente as melhores fotos e sugere que você as compartilhe com as pessoas nas fotos. O Google Fotos também está adicionando um recurso que permitirá automaticamente que você compartilhe todo ou parte do seu biblioteca, para que, se você tirar fotos de seus filhos, eles também se tornem parte da biblioteca de fotos de seu parceiro. E pode sugerir as melhores fotos para um livro de fotos.

Primeiro data center da IA ​​e novas ferramentas de desenvolvimento

No lado interno, Pichai falou sobre como a empresa estava "repensando" sua arquitetura computacional para construir "os primeiros data centers de IA". Ele disse que o Google usa suas atuais Unidades de Processamento de Tensores (TPUs) em todos os seus serviços, desde a pesquisa básica até o reconhecimento de fala até a concorrência AlphaGo.

Fiquei particularmente intrigado com a introdução da empresa de uma nova versão do TPU 2.0, que Pichai disse que era capaz de atingir 180 teraflops (180 trilhões de operações de ponto flutuante por segundo) por placa de 4 chips ou 11, 5 petaflops em cada "pod" do 64 dessas placas. Agora, eles estão disponíveis para os desenvolvedores como "TPUs na nuvem" no Google Cloud Engine, e a empresa disse que disponibilizaria 1000 TPUs na nuvem para os pesquisadores de aprendizado de máquina por meio da nova TensorFlow Research Cloud.

Isso faz parte de um impulso crescente no TensorFlow, a estrutura de aprendizado de máquina de código aberto da empresa para desenvolvedores, e a conferência teve uma variedade de sessões destinadas a conseguir que mais desenvolvedores usassem essa estrutura. O TensorFlow parece ser o mais popular dos frameworks de aprendizado de máquina, mas é apenas uma de várias opções. (Outros incluem Caffe, que é promovido pelo Facebook, e MXNet, promovido pela Amazon Web Services.)

Fui a uma sessão sobre o "TensorFlow for Non-Experts", projetado para evangelizar a estrutura e os Keras biblioteca de aprendizado profundo, e estava lotado. É uma coisa fascinante, mas não tão familiar quanto as ferramentas de desenvolvimento mais tradicionais. Todas as grandes empresas dizem que estão tendo problemas para encontrar desenvolvedores suficientes com experiência em aprendizado de máquina; portanto, não é surpresa ver todos eles pressionando suas estruturas internas. Embora as ferramentas para usá-las estejam melhorando, ainda é complicado. É claro que apenas chamar um modelo existente é muito mais fácil, e o Google Cloud Platform, assim como a Microsoft e a AWS, todos têm uma variedade desses serviços que os desenvolvedores de ML podem usar.

Como o desenvolvimento de tais serviços é tão difícil, Pichai passou muito tempo conversando sobre o "AutoML", uma abordagem que tem redes neurais projetando novas redes neurais. Ele disse que o Google espera que o AutoML tenha a capacidade que alguns doutores possuem hoje e possibilite que centenas de milhares de desenvolvedores projetem novas redes neurais para suas necessidades específicas em três a cinco anos.

Isso faz parte de um esforço maior chamado Google.ai para levar a IA a mais pessoas, com Pichai falando sobre uma variedade de iniciativas para usar a IA para ajudar nos cuidados de saúde. Ele falou sobre patologia e detecção de câncer, seqüenciamento de DNA e descoberta de moléculas.

Continuando o tema, Dave Burke, chefe de engenharia do Android, anunciou uma nova versão do TensorFlow otimizada para dispositivos móveis chamada TensorFlow Lite. A nova biblioteca permitirá que os desenvolvedores construam modelos de aprendizado profundo mais enxutos, projetados para rodar em smartphones Android, e ele falou sobre como os designers de processadores móveis estavam trabalhando em aceleradores específicos em seus processadores ou DSPs projetados para inferir redes neurais e até treinar.

Na palestra do desenvolvedor, Fei Fei Li, professora de Stanford que chefia a pesquisa em IA do Google, disse que se juntou ao Google "para garantir que todos possam aproveitar a IA para permanecer competitiva e resolver os problemas que mais importam para eles".

Ela falou muito sobre "Democratização da IA", incluindo as várias ferramentas que o Google disponibiliza aos desenvolvedores para aplicativos específicos, como visão, fala, tradução, linguagem natural e inteligência em vídeo, além de criar ferramentas para criar seus próprios modelos, como como TensorFlow, que é mais fácil de usar com APIs de mais alto nível.

Ela falou sobre como os desenvolvedores agora poderão usar CPUs, GPUS ou TPUs no Google Compute Engine. Ela deu um exemplo de quanta melhoria de velocidade alguns modelos estão executando em TPUs, dizendo que as implicações dessa pesquisa são significativas.

Ecoando Pichai, ela divulgou a nova Nuvem de Pesquisa TensorFlow, dizendo que estudantes e usuários do Kaggle deveriam se candidatar a usá-la; e concluiu dizendo que a empresa criou sua equipe de IA em nuvem para torná-la democrática, encontrar você onde você está, com as ferramentas de IA mais avançadas do Google e compartilhar a jornada conforme você as usa.

Google apps, ferramentas visam 'democratizar ai'