Lar O negócio Por dentro da reescrita ai do google: construindo aprendizado de máquina em tudo

Por dentro da reescrita ai do google: construindo aprendizado de máquina em tudo

Índice:

Vídeo: Machine Learning: como ensinar uma máquina a aprender | Nerdologia Tech (Outubro 2024)

Vídeo: Machine Learning: como ensinar uma máquina a aprender | Nerdologia Tech (Outubro 2024)
Anonim

Makoto Koike é um produtor de pepinos no Japão. Koike é um ex-designer de sistemas embarcados que passou anos trabalhando na indústria automobilística japonesa, mas em 2015 ele voltou para casa para ajudar na fazenda de pepinos de seus pais. Ele logo percebeu que a tarefa manual de classificar os pepinos por cor, forma, tamanho e atributos como "espinhos" era frequentemente mais complicada e mais árdua do que cultivá-los. Inspirado na profunda inovação de aprendizado do software de inteligência artificial (AI) do Google AlphaGo, ele decidiu automatizar a tarefa.

As empresas estão começando a implementar a IA prática de todos os tipos, mas é seguro dizer que ninguém viu a solução de classificação de pepino da IA ​​da Koike chegando. Koike nunca havia trabalhado com técnicas de IA antes, mas, usando a biblioteca de aprendizado de máquina de código aberto TensorFlow (ML), ele começou a inserir imagens de pepinos. Graças aos algoritmos de visão computacional para reconhecimento de objetos e aprendizado profundo para treinar o TensorFlow nas nuances de diferentes pepinos, Koike percebeu que podia identificar e classificar os vegetais com um alto nível de precisão. Então, usando apenas o TensorFlow e um computador Raspberry Pi 3 barato, a Koike construiu uma máquina de classificação automatizada que a fazenda ainda hoje usa.

O TensorFlow é um dos muitos algoritmos e ferramentas de código aberto que revolucionam o que empresas e desenvolvedores podem resolver usando a IA. A empresa expandiu sua missão de "trazer os benefícios da IA ​​para todos" com o lançamento do Google.ai em sua conferência de E / S do Google, agrupando todos os seus recursos de IA em uma plataforma unificada. O Google também está incorporando essas técnicas e interfaces de programação de aplicativos (APIs) em tudo o que faz, incorporando o ML aos seus produtos e redefinindo fundamentalmente como o software funciona no processo.

A PCMag visitou recentemente o Googleplex e conversou com executivos do G Suite, Google Cloud Platform (GCP) e o Laboratório de soluções avançadas de aprendizado de máquina da empresa (ML ASL) sobre como o Google está se reconstruindo com a IA.

Inteligência Artificial em Todo Lugar

Digamos que um de seus clientes esteja tendo um problema. Um agente do departamento de suporte técnico da sua empresa está em um bate-papo ao vivo com o cliente por meio de um aplicativo de bate-papo que armazena dados no Google Cloud Platform. Para ajudá-los a resolver o problema, o usuário precisa enviar ao agente alguns dados pessoais confidenciais. Agora vamos dizer que o cliente é sua avó. O representante de atendimento ao cliente solicita à avó alguns dados, mas, em vez disso, a avó envia muito mais informações do que precisa quando carrega uma foto do cartão de segurança social para o bate-papo.

Em vez de o Google arquivar essas informações de identificação pessoal (PII), a imagem aparece com o número de segurança social e outras PII automaticamente redigidas. O agente nunca vê nenhuma informação de que não precisa e nenhum desses dados entra no arquivo criptografado do Google. Durante uma demonstração da tecnologia da API DLP na sede do Google em Mountain View, Califórnia, a empresa retirou a cortina de como os algoritmos de ML analisam texto e imagens para que isso aconteça.

Rob Sadowski, líder de marketing de confiança e segurança do Google Cloud, explicou que a redação automática é alimentada pela API de prevenção de perda de dados (DLP) do Google que trabalha sob a superfície para classificar dados confidenciais. O algoritmo faz o mesmo com dados como números de cartão de crédito e também pode analisar padrões para detectar quando um número é falso. Este é apenas um exemplo da estratégia sutil do Google de inserir a IA em suas experiências e oferecer a empresas e desenvolvedores como Koike os recursos para fazer o mesmo.

O Google está longe de ser o único gigante da tecnologia que cria uma camada de inteligência conectiva em seu software, mas, juntamente com a Amazon e a Microsoft, o Google tem sem dúvida a amplitude mais difundida de ferramentas e serviços de inteligência baseados em nuvem disponíveis. Analisando os produtos da empresa, você pode encontrar o Google Assistant e várias APIs de ML e visão computacional em uso em praticamente qualquer lugar.

A Pesquisa do Google usa algoritmos ML em seu sistema AI do RankBrain para processar e refinar consultas, re-classificar e agregar dados com base em uma série de fatores que mudam para melhorar continuamente a qualidade dos resultados da pesquisa. O Google Fotos usa a visão computacional para agrupar fotos relacionadas em memórias e combinar várias fotos do mesmo local em panoramas. A Caixa de entrada oferece aos usuários respostas inteligentes geradas automaticamente para escolher e apresenta emails relevantes agrupando categorias semelhantes. O novo aplicativo de bate-papo do Google Allo da empresa vem com o Google Assistant incorporado. A lista continua.

Todos esses aplicativos são executados na infraestrutura de nuvem do Google, e a empresa está até aplicando ML em seus data centers para reduzir o consumo de energia, ajustando as bombas de resfriamento com base nos dados de carga e do tempo. Sadowski disse que isso também serve como a camada final de defesa na estratégia de segurança do Google, onde a empresa usa inteligência de máquina e pontuação de riscos em sua pilha de segurança para determinar se um sistema está comprometido usando análises preditivas.

"O Google pega todos esses modelos de ML e AI que desenvolvemos e os ajusta para segurança", explicou Sadowski. "A segurança muda muito mais radicalmente do que a maioria dos setores de TI. Os produtos que eram o núcleo da sua infraestrutura de segurança há três ou quatro anos, como firewalls e proteção de terminais ainda são importantes, mas queremos fornecer defesa em profundidade, em escala e padrão em uma infraestrutura de vários inquilinos com milhões de usuários ativos diários.

"Começa com o hardware subjacente do data center", continuou Sadowski. "Além disso, há serviços de aplicativos e autenticação com dados e comunicação totalmente criptografados. Além disso, está a identidade do usuário. E a última camada de defesa é como operamos com monitoramento, detecção e resposta a incidentes 24/7. É assim que resolva problemas como acesso remoto seguro com o proxy com reconhecimento de identidade.É o serviço DLP programático que encontra e evita vazamentos de dados e ajuda na governança e na segurança dos dados.O objetivo é tornar esses recursos fáceis, consumíveis e fazê-los funcionar em escala."

Uma suíte G mais inteligente

O ML também é incorporado nos aplicativos de produtividade do Google G Suite. Allan Livingston, diretor de gerenciamento de produtos do G Suite, detalhou algumas das maneiras pelas quais a IA está tornando o G Suite mais inteligente e contextual, sem que os usuários percebam isso.

"Pense em como o G Suite reúne todos esses aplicativos de uma maneira naturalmente integrada", disse Livingston. "Você inicia seu trabalho em uma delas e segue conforme apropriado. Você abre um anexo do Gmail no Drive, o que o leva ao Docs; é realmente automático.

"Estamos tentando pensar nisso para o usuário e isso também envolve aprendizado de máquina. Começamos com respostas inteligentes na Caixa de entrada e tivemos um bom sucesso com o Gmail, o que levou ao recurso Explorar no Documentos, Planilhas Google e Slides ".

Lançado no último outono, o Explore aplica o processamento de linguagem natural (PNL) à experiência de produtividade no aplicativo. No Documentos, o Explore oferece sugestões instantâneas com base no conteúdo do seu documento e recomenda automaticamente tópicos e recursos relacionados. No Apresentações, ele gera sugestões de design para reduzir a formatação da apresentação. O caso de uso mais interessante, no entanto, está no Planilhas. Livingston explicou como o Explore usa o ML para simplificar a análise de dados e informações de business intelligence (BI).

"Muitos usuários não sabem o que é uma tabela dinâmica ou como usá-la para visualizar uma folha de dados", explicou Livingston. "Digamos que você esteja lidando com dados de vendas de um cliente, onde cada linha é um item vendido. O Explore permite digitar consultas em linguagem natural como 'Qual é o item principal da Black Friday?' e solta uma resposta como "Você vendeu 563 pares de calças". Estamos abordando a análise de dados de uma maneira que economiza tempo na tomada de decisões baseadas em dados, usando o aprendizado de máquina para melhorar um problema comum de maneira natural ".

Uma demonstração do recurso Explorar no Planilhas, da conferência Google Cloud NEXT em março passado.

Segundo Livingston, o Google planeja expandir esse tipo de pesquisa na nuvem direcionada a ML para terceiros e começar a construir um ecossistema em torno dele. A idéia geral é um tema comum na IA prática: automatizar processos manuais para liberar os usuários para um trabalho mais criativo. Essa ideia está no centro da maioria dos aplicativos de aplicativos ML: para automaginar processos de negócios repetíveis e tarefas diárias, incluindo a classificação de pepinos.

"Nos negócios e com os consumidores, os usuários têm esses padrões de interação naturais. A mudança para a nuvem e a produtividade móvel estão realmente mudando a maneira como as pessoas trabalham, e essas técnicas de aprendizado de máquina aplicadas são fundamentais para isso", disse Livingston. "Devido à nossa força no aprendizado de máquina, por causa de nossos produtos servirem de base, por causa de todos os dados em nossa nuvem, estamos em uma posição única para aplicar isso e escalar infinitamente".

Alimentando uma revolução de aprendizado de máquina

A base de tudo o que o Google faz em relação à IA está enraizada em suas APIs, algoritmos e ferramentas de código aberto. A biblioteca TensorFlow da empresa é a ferramenta ML mais usada no GitHub, gerando aplicativos como o classificador de pepino da Koike. O conjunto de APIs subjacentes ao Google Cloud - algoritmos que abrangem visão computacional, inteligência de vídeo, fala e PNL, modelagem de previsão e ML em larga escala por meio do Google Cloud Machine Learning Engine - é a tecnologia que alimenta todos os recursos de IA integrados aos aplicativos e serviços do Google e agora também a plataforma Google.ai.

Francisco Uribe, gerente de produto da equipe de AI / ML do Google Cloud, trabalha no coração do mecanismo que está reescrevendo o funcionamento do Google. Uribe supervisiona o ML ASL mencionado anteriormente, um laboratório com um programa imersivo no qual os especialistas em ML do Google trabalham diretamente com empresas para implementar soluções de IA. Usando as APIs do Google e o Cloud ML Engine, o laboratório trabalha com empresas para treinar e implantar seus próprios modelos em produção.

Uribe trabalha no espaço da IA ​​há mais de uma década. Ele fundou a BlackLocus, uma startup orientada a dados que construiu um mecanismo de preços automatizado para varejistas, adquirido pela Home Depot em 2012. Depois disso, ingressou no Google e trabalhou por quatro anos na equipe de anúncios de pesquisa que aplicava ML para melhorar a experiência do anúncio. Em 2016, ele passou a desempenhar uma função de pesquisa executando o ML ASL e atuando como mentor no Launchpad Accelerator do Google. Uribe disse que está continuamente surpreso com o modo como as empresas e os desenvolvedores estão usando as ferramentas do Google.

"Vimos casos de uso em geral - desde saúde e finanças até varejo e agricultura", disse Uribe. "Estamos tentando ajudar os clientes a melhorar os recursos de percepção. Tradução de fala, análise de imagem, APIs de vídeo, linguagem natural: todos fazem parte da democratização do acesso a algoritmos de aprendizado de máquina e profundo, que finalmente entraram em aplicabilidade".

O ML ASL trabalhou com o HSBC Bank plc, uma das maiores organizações de serviços bancários e financeiros do mundo, em soluções de ML para combate à lavagem de dinheiro e pontuação de crédito preditiva. O ML ASL também trabalhou com a United Services Automobile Association (USAA), um grupo de empresas financeiras da Fortune 500, para treinar os engenheiros da organização nas técnicas de ML aplicadas a cenários de seguros específicos. O eBay usou as ferramentas do Google para treinar seu assistente digital do ShopBot. Quando o ML ASL trabalha com uma empresa, Uribe explicou os quatro pilares que compõem o processo.

"Você precisa de uma oferta de computação sólida para lidar com os requisitos extremos dos trabalhos de ML, e o backbone de fibra óptica distribuída do GCP move os dados de um nó para outro com muita eficiência", disse Uribe. "Temos o Cloud Machine Learning Engine para ajudar os clientes a treinar modelos. Ajudamos os clientes a executar dados com acesso à comunidade de mais de 800.000 cientistas de dados ativos da Kaggle. Por fim, você precisa do talento para estar lá, no lado da pesquisa, nós temos o Brain Residency Program para treinar engenheiros em um currículo complexo de ML. Nós os vemos como os elementos básicos para ajudar os clientes a criar aplicativos inteligentes ".

Isso tudo alimenta a comunidade de código aberto e o ecossistema de terceiros que o Google está construindo em torno de sua tecnologia de IA. A empresa chegou a anunciar uma competição de startups de ML no início deste ano, que premia até US $ 500.000 em investimentos para startups de ML. Uribe falou sobre alguns dos aplicativos inovadores que ele já viu da tecnologia do Google e onde outras possibilidades podem estar.

"Digamos que você seja uma empresa de análise de atendimento ao cliente. Pense em uma API de fala para transcrever o conteúdo das chamadas e, em seguida, na análise de sentimentos para melhorar a qualidade do seu atendimento ao cliente", disse Uribe. "Use a API de visão para tirar uma foto de uma placa de rua em um país estrangeiro e, em seguida, a API de tradução para traduzir esse conteúdo em tempo real por meio de uma experiência de aplicativo. Não se trata apenas de aumentar a eficiência; trata-se de criar experiências de usuário novas e exclusivas."

Uribe vê ferramentas como o TensorFlow como o grande facilitador para a adoção de ML em larga escala no mercado. Essas tecnologias não apenas se tornaram essenciais para o que o Google é e como a gigante da tecnologia aborda o desenvolvimento de produtos, mas Uribe acredita que a tecnologia ML amplamente disponível ajudará a otimizar os negócios, abrir novas fontes de receita e inventar uma nova classe de aplicativos inteligentes.

"Pense nisso como uma nova revolução industrial", disse Uribe. "Estamos vendo essas ferramentas possibilitarem aumentos de magnitude em eficiência e experiências que você nunca viu antes. É incrível ver como as startups a estão aplicando. Veja o produtor de pepinos no Japão. Ele usou o TensorFlow para criar um modelo de classificação e classificando os pepinos com base em padrões, tamanho, texturas etc. e depois construímos hardware especializado para executá-lo. Esse nível de democratização é incrível de ver e mal arranhamos a superfície ".

Por dentro da reescrita ai do google: construindo aprendizado de máquina em tudo