Lar Visão de futuro Apple, google e o caminho para o assistente que sabe tudo

Apple, google e o caminho para o assistente que sabe tudo

Vídeo: A história da Google - TecMundo (Novembro 2024)

Vídeo: A história da Google - TecMundo (Novembro 2024)
Anonim

Observando a palestra da Conferência Mundial de Desenvolvedores da Apple nesta semana e da conferência de E / S do Google há duas semanas, o que mais se destacou foi o esforço que ambas as empresas - assim como a Microsoft - estão se empenhando para criar sistemas inteligentes que sabem tanto quanto possível sobre você.

Esses sistemas sabem quem você é, onde está e todas as informações na tela, geralmente com o objetivo de atuar como um "assistente pessoal" que antecipa suas necessidades. Esse é um objetivo extremamente ambicioso que uma dessas empresas parece entender que pode ser o próximo grande passo na computação.

No caso da Apple e do Google, outras ofertas anunciadas em suas palestras podem receber mais atenção ou ter um impacto mais visível a curto prazo. O Google Fotos recebeu muita atenção; o Apple Pay e o Android Pay parecem estar prestes a ficar muito mais comuns, e as melhorias no Android Wear e no WatchOS podem muito bem pressagiar uma grande quantidade de aplicativos para wearables. Mas a mudança para sistemas totais mais inteligentes e abrangentes pode ter o maior impacto a longo prazo.

Apple, Google e Microsoft estão trabalhando nisso de diferentes ângulos. Mas eles parecem estar convergindo para sistemas que possuem um front-end móvel que pode ser controlado por digitação ou voz, apoiado por um conjunto de serviços e processos baseados na Internet que contêm uma enorme quantidade de dados sobre você e faz inferências com base em esses dados e sobre o que você está fazendo.

O caminho para essa convergência foi pavimentado por uma série de apresentações nos últimos anos. Muitos trabalham com assistentes pessoais há anos, e o Siri foi desenvolvido originalmente como um aplicativo independente por um spin-off da SRI International. Em 2011, a Apple apresentou o Siri como um "assistente virtual" com o iPhone 4s, atuando principalmente como um front end para coisas como pesquisa na Web, clima local e pesquisa de restaurantes. Em 2012, o Google introduziu o Google Now como parte do Android 4.1 Jelly Bean, fornecendo informações sobre uma série de "cartões" que respondiam a perguntas. Com o tempo, isso cresceu para fornecer mais informações e cobrir mais domínios.

No começo, pensei que ambos eram interessantes, mas o controle de voz parecia mais um "truque de salão" do que um aplicativo útil.

Mas, nos últimos anos, ambos melhoraram em ritmo acelerado. Em parte, ter mais usuários deu às duas empresas mais dados para trabalhar. Isso, combinado com algoritmos mais inteligentes e muito trabalho no processamento do servidor, resultou em sistemas que agora são muito mais precisos para entender o que você está perguntando do que eles estavam no lançamento. Agora, ambos podem responder a perguntas em mais domínios. E o Google Now pode inferir informações como onde sua casa e seu escritório se baseiam em seus locais típicos.

A Microsoft apresentou a Cortana no ano passado como parte do lançamento do Windows Phone 8.1, descrevendo-o como o primeiro "assistente digital" verdadeiramente pessoal, porque entendia mais o que você fazia em outros aplicativos, além da pesquisa na Web. Ele poderia fazer coisas como definir lembretes e entender quem era importante para você e quem não era, e embora não houvesse tantos usuários, também parece ter melhorado nos últimos anos. Agora, a Cortana também fará parte do Windows 10 em desktops e laptops.

Isso nos leva aos anúncios mais recentes, onde os três fornecedores parecem estar emprestando recursos dos outros e realmente tentando melhorar suas ofertas.

Google Now On Tap

No Google I / O, há algumas semanas, o vice-presidente sênior do Google, Sundar Pichai, falou sobre como a empresa continuava se concentrando na pesquisa. Mas, quando se trata de recursos da versão mais recente do Android, o que chamou minha atenção foram os novos recursos do assistente pessoal do Google Now chamado "Now on Tap".

Pichai falou sobre o investimento do Google em aprendizado profundo e aprendizado de máquina, dizendo que ajudou o Google a reduzir a taxa de erros de palavras no reconhecimento de fala de 23% para 8% no ano passado.

O Google Now já possui alguns recursos contextuais - por exemplo, ele sabe onde você está, para estimar o tempo que você levará para chegar em casa e pode exibi-lo nos vários "cartões" usados ​​para exibir informações ou notificações.

Aparna Chennapragada, diretora do Google Now, disse: "Nós nos perguntamos como podemos obter respostas rápidas para perguntas rápidas sem sair do contexto. Como podemos ajudá-lo a realizar as tarefas com o menor número de etapas possível?" O resultado, ela disse, era um novo serviço para ajudá-lo "no momento", não importa o que você estivesse fazendo ao telefone. Agora é o Now On Tap, e ela disse que combina o Knowledge Graph do Google - seu entendimento de mais de 1 bilhão de entidades (como times de beisebol e postos de gasolina) - com contexto e conexões com outros aplicativos para fornecer informações proativamente.

Na demonstração que ela mostrou, ela recebeu uma mensagem em um aplicativo sugerindo um restaurante para jantar e pedindo que ela lavasse a seco. Pressionar e segurar a tecla home exibiu o cartão do Google Now e o recurso Now on Tap exibiu informações básicas no restaurante, incluindo links para mapas de navegação, Yelp e OpenTable; também lembrou a limpeza a seco. Tocar no link OpenTable abriu o aplicativo, mas o mais impressionante foi diretamente para a página desse restaurante.

A idéia é que o sistema operacional agora entenda o contexto de onde você está e o que está fazendo no restante do dispositivo. Outro exemplo é que, se você estiver ouvindo música, mantenha pressionada a tecla Home e faça uma pergunta sobre a música. O Google Now saberá qual música está tocando e poderá responder a perguntas sobre ela.

"Você pode obter informações instantaneamente", disse Chennapragada. "Em todos esses exemplos - o artigo que você está lendo, a música que está ouvindo, a mensagem que está respondendo - a chave é entender o contexto do momento. Depois que o Now tiver esse entendimento, ele poderá fornecer respostas rápidas para perguntas rápidas, ajude você a fazer as coisas onde quer que esteja ao telefone ".

Apple destaca inteligência

Na palestra da WWDC na segunda-feira, a Apple discutiu uma série de mudanças no iOS 9, mas liderou com o conceito de "inteligência".

Craig Federighi, vice-presidente sênior de engenharia de software da Apple, falou sobre tornar a Siri um "assistente proativo" que pode fazer coisas como lembrá-lo sobre uma tarefa específica ou um link específico em um navegador em um momento específico ou quando você chega a um local específico. Por exemplo, se você receber uma mensagem de texto sobre um evento próximo, poderá solicitar à Siri que "lembre-me disso" e ele entenderá que você está se referindo ao evento e definirá um lembrete. Ele pode fazer coisas como adicionar automaticamente convites em uma mensagem de texto às suas agendas.

Ele pode lembrar os aplicativos que você costuma usar em um horário específico do dia e apresentá-los a você em um ícone simples, e agora adiciona "cartões descritivos", que fornecem mais informações sobre os resultados de uma pesquisa (com conceito semelhante) para os cartões no Google Now).

E geralmente parece ter melhorado. Federighi disse que a Apple teve uma redução de 40% na taxa de erros de palavras no último ano para 5%. E é mais inteligente lidar com as coisas no próprio sistema, agora capaz de responder a perguntas em linguagem natural como "mostre-me fotos de Utah em agosto passado".

O mais interessante é que ele oferece uma API para pesquisa, para encontrar conteúdo nos aplicativos. Por exemplo, ele falou sobre a possibilidade de se conectar profundamente ao aplicativo Airbnb para encontrar aluguéis disponíveis em uma área específica; ou procurando informações sobre receitas em outro aplicativo.

Em uma demonstração, ele exibiu uma nova tela de pesquisa acessando a tela inicial e como o próprio sistema faz sugestões sobre quem você deseja entrar em contato, com base nos contatos mais frequentes e nos próximos eventos. Ele mostrou como ele pode "vincular profundamente" aplicativos específicos para fornecer mais informações. Recursos semelhantes estavam disponíveis no Siri.

Uma coisa que a Apple enfatizou foi a privacidade, com Federighi dizendo "Conseguimos trazer inteligência ao longo da experiência no iOS 9, mas fazemos de uma maneira que não comprometa sua privacidade". No que certamente parecia uma escavação no modelo de publicidade do Google, ele disse que a Apple não mina suas fotos, e-mail, fotos ou informações na nuvem. Ele disse que todas as informações são feitas no dispositivo e permanecem no dispositivo sob seu controle, e quando o sistema precisa enviar informações para a nuvem para fazer buscas ou procurar tráfego, o faz anonimamente, sem informações compartilhadas com terceiros. "Você está no controle", disse ele.

Cortana Going Cross Platform

Você pode argumentar que a Microsoft teve vantagem em fornecer muitos dos recursos do assistente pessoal com o assistente Cortana para Windows Phone. Foi o primeiro dos três grandes assistentes de telefone a tentar agir como um verdadeiro assistente, em termos de agendamento de lembretes e de integração mais profunda com alguns dos aplicativos de telefone.

A Cortana também faz parte do Windows 10 na área de trabalho e no notebook. Mais recentemente, a Microsoft anunciou que uma versão do Cortana chegaria aos telefones iOS e Android, juntamente com um aplicativo "Phone Companion" que conecta seu PC à Cortana, para que você possa iniciar tarefas em um dispositivo e concluí-las em outro.

Como Joe Belfiore, da Microsoft, descreveu: "Você pode fazer com que Cortana o lembre de pegar leite na próxima vez que estiver no supermercado e, em seguida, seu telefone será ativado e tocará com o lembrete. Você poderá rastrear um voe usando a Cortana no telefone e no PC e receba as atualizações no dispositivo em que está, para não perder nada."

Conclusão

De várias maneiras, estamos ouvindo as três empresas se unirem, principalmente em esforços "proativos". Google e Apple disseram que suas ferramentas seriam mais "proativas", usando o termo para descrever como eles querem que seus assistentes pessoais pareçam pelo menos parecer que são capazes de antecipar o que você procurará.

Todos os três estão focados em se conectar melhor com os outros aplicativos do seu sistema, com a Apple e o Google anunciando o foco em "links diretos". Especificamente, eles desejam vincular-se a itens de um aplicativo, como ir para a tela correta no OpenTable para reservar uma tabela. Na E / S, o vice-presidente de engenharia do Android, Dave Burke, mostrou como o Android M agora tem melhores maneiras de os links passarem de links em email ou sites para o lugar certo em um aplicativo, sem a atual tela de "desambiguação".

O resultado de tudo isso é um embaçamento das linhas entre o sistema operacional e os aplicativos executados em cima dele, para fornecer uma experiência mais uniforme e sistemas que realmente sabem muito mais sobre você.

Tudo isso deve ser bastante útil. Mas por várias razões, tudo isso também pode ser assustador. É muito fácil imaginar a possibilidade de uso indevido dos dados, seja apenas para marketing excessivamente zeloso ou para invasões reais de privacidade. Estou curioso para saber como cada uma das empresas abordará isso. Gostaria de saber se uma das razões pelas quais o Google não chamou seu serviço de "assistente pessoal" é porque parece um pouco desanimador para uma empresa cujo modelo de negócios principal é orientado a coletar dados sobre as pessoas e usá-los para melhor direcionar s.

Também é fácil exagerar os recursos desses sistemas. O conceito de uma máquina onisciente e onisciente pode ser assustador, mas não estou preocupado com nenhum desses sistemas desenvolvendo "IA forte" no sentido do Skynet do Exterminador do Futuro ou de 2001: o HAL de uma Odisséia no Espaço a qualquer momento no futuro próximo. Como um participante disse em um painel recente, participei do programa: "Pense em Jarvis, não em HAL" - falando sobre a inteligência útil usada nos filmes do Homem de Ferro, em oposição à máquina assassina de 2001. Nos próximos anos, a questão não será se esses sistemas são inteligentes demais, mas se serão inteligentes o suficiente para serem realmente úteis ou nos encontraremos usando-os apenas como front-end para pesquisas na Web.

Obviamente, o diabo está nos detalhes, e nós realmente não saberemos até que ponto nenhum dos sistemas funciona até que as novas versões sejam lançadas. Enquanto o reconhecimento de voz está melhorando, expandi-lo para novos domínios causa mais desafios. E não estou claro quanto ao bom desempenho dos sistemas em permitir que você escolha os serviços que deseja usar, em vez de deixar de usar os serviços da Apple ou do Google.

Mas o conceito geral é claro e a utilidade pode ser fantástica. Se implantados corretamente, esses serviços devem tornar nossos dispositivos mais simples de usar, mais inteligentes e mais personalizados. Eles terão desafios e suscitarão algumas preocupações, mas acho que farão mais para mudar a maneira como interagimos com nossos dispositivos do que qualquer coisa desde a tela de toque.

Apple, google e o caminho para o assistente que sabe tudo