Lar Visão de futuro Firebase, ferramentas para desenvolvedores de estúdio para Android roubam o show em I / O

Firebase, ferramentas para desenvolvedores de estúdio para Android roubam o show em I / O

Vídeo: Acessando Google Firebase Cloud Firestore com Delphi 10 2 2 (Novembro 2024)

Vídeo: Acessando Google Firebase Cloud Firestore com Delphi 10 2 2 (Novembro 2024)
Anonim

De certa forma, vimos dois Googles diferentes em exibição na conferência de desenvolvedores de E / S da empresa em Mountain View, aberta ontem. Um deles era o confiante Google, ampliando sua liderança em pesquisa e dispositivos móveis e seus pontos fortes em aprendizado de máquina para outros mercados adjacentes, além de oferecer novas ferramentas impressionantes para os desenvolvedores. O outro era um Google menos arrogante, se aproximando do mercado de assistentes de conversação, aplicativos de mensagens e realidade virtual. A maioria das manchetes foi para a última categoria, onde as mudanças são mais tangíveis. Mas para a maioria dos desenvolvedores, as extensões e alterações no Android e as ferramentas de desenvolvimento ao redor provavelmente terão um impacto mais imediato.

( Sundar Pichai )

O aprendizado de máquina foi o maior tema da conferência, com o CEO do Google, Sundar Pichai, abrindo a palestra de terça-feira falando sobre como a empresa estava evoluindo a pesquisa para fazer mais uso de seu longo investimento em aprendizado de máquina e processamento de linguagem natural. Ele disse que o Google fez grandes progressos no reconhecimento de voz, com as consultas de voz agora respondendo por 20% das buscas nos EUA; no reconhecimento de imagens, tanto no mecanismo de pesquisa quanto em Fotos; e na tradução, que agora suporta 100 idiomas diferentes e traduz 140 bilhões de palavras por dia. No geral, ele disse, o Google tem um "gráfico de conhecimento" de 1 bilhão de entidades - pessoas, lugares e coisas. E então ele mostrou uma variedade de novos produtos e serviços que podem usar esse conhecimento.

O mais óbvio é o novo Assistente do Google, que parece ser um assistente de conversação mais do que o serviço Google Now, projetado para fornecer um diálogo bidirecional com foco em fazer as coisas no mundo real e entender o conteúdo e o contexto. Houve várias demonstrações interessantes nas quais o Assistente foi capaz de fazer coisas como responder perguntas e ajudá-lo a escolher um filme para assistir ou um restaurante para jantar, e fazer as reservas.

Parecia muito bom, mas conceitualmente parece muito semelhante a outros assistentes de conversação que vimos, como o Siri da Apple, o Cortana da Microsoft e o Alexa da Amazon. De fato, as demos me lembraram as demos iniciais de Cortana.

Pichai promoveu a idéia de que a pesquisa está mudando, dizendo "não basta fornecer os links para eles, precisamos realmente ajudá-los a fazer as coisas no mundo real". Isso me lembrou o impulso por trás do Google Now há quatro anos, que funcionou muito bem para a empresa.

( Mario Queiroz )

Essa tecnologia fará parte de um novo dispositivo chamado Google Home, onde Pichai foi gentil em apontar para o Amazon Echo, que parece ter sido a inspiração. Como o Echo, o Home possui um assistente de conversação que pode tocar música, controlar vários dispositivos em casa e responder a perguntas. Mario Queiroz, vice-presidente de gerenciamento de produtos, apresentou algumas novidades interessantes, como a integração com o Chromecast, para que você possa "transmitir" músicas ou outras mídias para outros alto-falantes ou para uma tela de TV.

Em seguida, o diretor de engenharia Erik Kay mostrou o Allo, essencialmente uma plataforma de bate-papo, com o Assistente do Google incorporado para tornar suas conversas mais inteligentes; e Duo, um aplicativo de videochamada 1: 1 com um toque interessante que permite ver uma prévia do vídeo da pessoa que está ligando antes de atender a chamada. O conceito de bots de bate-papo em um serviço de mensagens (também conhecido como "conversas como plataforma") foi um grande foco do Microsoft Build há algumas semanas, e o Facebook Messenger vem pressionando esse conceito há algum tempo. O Google fez várias tentativas nas mídias sociais e nas mensagens antes - de fato, também acabou de introduzir uma ferramenta chamada Spaces para conexão em eventos - e ainda não obteve grande sucesso. Embora essas ferramentas pareçam boas em demonstrações no palco, não está claro se há novidades suficientes aqui para mudar isso.

Para mim, o mais surpreendente sobre esses produtos e serviços é que o Google os promove tão cedo. A maioria parece direcionada para o final do verão, mas fiquei surpreso ao não ver mais discussões para desenvolvedores relacionadas a como eles podem vincular seus serviços ao assistente. Pichai disse que eles teriam mais em alguns meses, mas parece que o Google está um pouco atrasado aqui e está tentando usar seu aprendizado de máquina e pontos fortes de busca para recuperar o atraso. Por outro lado, o Facebook fez um anúncio antecipado em sua conferência F8, e há muito poucos chatbots disponíveis para essa plataforma, e a plataforma de bot da Microsoft também é bastante incipiente, por isso é realmente um mercado aberto.

( Argila Bavor )

O Google está em uma posição um pouco diferente com a realidade virtual, com o Cardboard fornecendo uma plataforma popular, mas de baixo custo. O Google não está tentando competir com as soluções de ponta, como Oculus Rift ou HTC Vive, mas introduziu uma plataforma para VR chamada Daydream, que fará parte do próximo lançamento do Android N.

Clay Bavor, chefe da equipe de VR do Google, falou sobre como o Android N foi projetado para oferecer suporte a desempenho superior e baixa latência, permitindo que a atualização "motion to photon" seja inferior a 20ms, fazendo com que pareça mais realista. Além disso, ele terá um modo VR com sua própria interface de usuário que manipula corretamente coisas como notificações no ambiente imersivo. Como parte deste lançamento, há uma nova tela inicial do Daydream para iniciar o conteúdo de VR, incluindo filmes e jogos, além de uma nova versão da Play Store para VR que funciona no ambiente do Daydream. Outros aplicativos incluem uma nova versão do conteúdo do YouTube para VR, uma versão do Street View para caminhar por diferentes locais e Fotos para reviver momentos favoritos.

Muitos dos anúncios de VR lidavam com padrões e especificações. Para os telefones, a Bavor anunciou um conjunto de especificações que os telefones terão de corresponder para sensores, monitores e processadores específicos, a fim de serem chamados de "Daydream-ready". Isso não parece ser muito diferente dos telefones de última geração de hoje, mas deve deixar claro quais telefones estão prontos para o Daydream. Além disso, ele mostrou um design de referência para um fone de ouvido com ótima ótica, mais fácil de colocar e tirar e, mais importante, um novo controlador com apenas alguns botões e um painel sensível ao toque que parecia particularmente impressionante. Bavor disse que os primeiros dispositivos estarão disponíveis em vários parceiros neste outono, com as ferramentas de desenvolvimento disponíveis agora.

Além dos anúncios de produtos de alto perfil, havia muito mais detalhes sobre o Android N, a próxima versão do sistema operacional móvel que já está na versão beta e deve ser finalizada neste verão.

Dave Burke, vice-presidente de engenharia responsável pelo Android, disse que as áreas de foco deste lançamento são desempenho, segurança e produtividade. No lado do desempenho, ele enfatizou a introdução da API gráfica Vulkan 3D, que promete melhor desempenho com menor sobrecarga da CPU, e um novo compilador Runtime que é muito mais rápido e deve resultar em instalações de aplicativos mais rápidas. Sobre segurança, ele falou sobre criptografia baseada em arquivo, fortalecimento das estruturas de mídia e atualizações contínuas, o que significa que o dispositivo será atualizado automaticamente, para que você não precise instalar manualmente uma atualização. (A multidão parecia muito impressionada com isso.) Em produtividade, ele falou sobre o novo suporte a várias janelas para os modos de tela dividida e imagem em imagem, que parece ser um grande passo em frente aos recursos individuais de várias janelas que empresas como Samsung e LG adicionaram sobre as versões existentes do Android. Ele também mencionou alterações menores, como melhores notificações e suporte aos padrões Unicode-9 Emoji.

O Android Wear, TV e Auto receberam um pouco de atenção - e cada um deles teve suas próprias sessões e áreas durante o show -, mas grande parte do foco estava nas ferramentas de desenvolvedor. Fiquei muito impressionado com alguns dos novos recursos para desenvolvedores. Jason Titus, vice-presidente de produtos para desenvolvedores, falou sobre os avanços na web móvel, com mais de um bilhão de pessoas usando o Chrome em dispositivos móveis, com suporte para páginas da web progressivas e agora o programa AMP (Accelerated Mobile Pages) do Google para acelerar os sites..

( Stephanie Saad Cuthbertson )

Stephanie Saad Cuthbertson (acima), diretora de gerenciamento de produtos do Android Studio, anunciou o lançamento de uma visualização do Android Studio 2.2 com foco em construções mais rápidas, ferramentas mais inteligentes para projetar e depurar aplicativos e suporte mais amplo à plataforma. Ela disse que o Android Studio agora é usado por 95% dos 125 principais aplicativos. Observe que o Studio 2.0 foi lançado no início deste ano, e o Studio 2.1 com suporte ao Android N foi lançado com a versão prévia desse sistema operacional.

A grande novidade é a plataforma de back-end do Firebase, que começou como um banco de dados NoSQL que o Google adquiriu há 18 meses, mas agora se tornou um conjunto de 15 ferramentas de desenvolvedor, do banco de dados, para mensagens e notificações na nuvem, configuração remota e falha comunicando. Eu pensei que links dinâmicos, onde um URL pode produzir resultados diferentes, dependendo de onde ele é tocado, eram particularmente interessantes. Tudo isso está associado à análise gratuita e parecia uma plataforma muito impressionante e bem integrada que deveria ser atraente para muitos desenvolvedores de aplicativos móveis. O Firebase suporta aplicativos no Android, iOS e na Web para dispositivos móveis; portanto, o Google estava promovendo o aplicativo para aplicativos de plataforma cruzada, não apenas para o Android.

Uma das demos mais interessantes foi uma prévia do Android Instant Apps, que permite que qualquer aplicativo seja executado imediatamente, mesmo que não tenha sido instalado. Ellie Powers, gerente de produto do grupo para Android, disse que isso envolve modularizar os aplicativos existentes para que a Play Store baixe apenas as peças necessárias para exibir o conteúdo específico. Isso pode ser um grande problema - se um amigo quiser que você participe de uma conversa em um aplicativo de mensagens e envie um link, a idéia é que você pode simplesmente continuar a conversa em vez de precisar instalá-lo. Isso pode ser uma mudança significativa e apresenta uma abordagem diferente para a distinção entre a Web e os aplicativos móveis. O Instant Apps será executado em telefones que remontam ao Jelly Bean e deve começar a ser implementado gradualmente ainda este ano.

Pichai voltou a falar mais sobre aprendizado de máquina, discutindo como a empresa lançou sua estrutura de aprendizado de máquina TensorFlow no ano passado, e na semana passada lançou uma versão de código aberto do seu analisador de linguagem natural. Parece claro que será uma área em que o Google espera diferenciar sua Cloud Platform de outros fornecedores.

Uma divulgação fascinante foi que o programa AlphaGo, que jogava no nível de campeonato Go, era baseado em hardware personalizado, que Pichai descreveu como Unidades de Processamento por Tensores (TPUs). Em sessões e entrevistas posteriores, o Google explicou que usa milhares desses ASICs (circuitos integrados específicos de aplicativos) há mais de um ano para acelerar muitos aplicativos, incluindo classificação de resultados de pesquisa (RankBrain), mapeamento e navegação (Street View), processamento de fotos, reconhecimento de fala e tradução de idiomas. Ele disse que o TPU oferece "uma ordem de magnitude" melhor desempenho por watt para aprendizado de máquina. Isso ocorre principalmente porque esses tipos de tarefas funcionam bem com precisão reduzida, o que permite ao Google simplificar o design e incluir mais elementos de processamento em um único chip. Ele disse que isso era "uma ordem de grandeza" melhor do que as plataformas de aprendizado de GPU.

Pichai disse que o trabalho do Google em aprendizado de máquina pode se aplicar a uma ampla gama de campos, incluindo robótica e assistência médica, e apontou o trabalho que está sendo feito na detecção da retinopatia diabética. "Estou incrivelmente empolgado com o progresso que estamos fazendo com aprendizado de máquina e IA", disse ele, acrescentando que não era um caso de máquinas ou humanos, mas que o teste real é se os humanos podem alcançar muito mais com o apoio da IA.

No geral, o aprendizado de máquina foi o grande tema, mas foi interessante como o Google está tentando usá-lo como ponte para competir em mais mercados, como serviços de mensagens e nuvem. Mas para a maioria dos desenvolvedores, meu palpite é que as alterações no Android N, Android Studio e nos serviços Firebase receberão mais atenção nos próximos meses.

Firebase, ferramentas para desenvolvedores de estúdio para Android roubam o show em I / O