Índice:
- Desabafando a nuvem
- Preocupações com a privacidade
- Reduzindo a latência
- Enfrentando os desafios da borda
- As nuvens se dissiparão?
Vídeo: Edge Intelligence: Edge Computing in the AI Era (Novembro 2024)
Ao longo da costa do estado de New South Wales (NSW), na Austrália, paira uma frota de drones, ajudando a manter as águas seguras. No início deste ano, os drones ajudaram os salva-vidas da costa norte do estado a resgatar dois adolescentes que estavam lutando em ondas pesadas.
Os drones são movidos por algoritmos de inteligência artificial (IA) e visão de máquina que analisam constantemente seus feeds de vídeo e destacam itens que precisam de atenção: digamos, tubarões ou nadadores perdidos. Esse é o mesmo tipo de tecnologia que permite que o Google Fotos classifique fotos, uma câmera de segurança doméstica para detectar estranhos e um refrigerador inteligente para avisá-lo quando seus produtos perecíveis estiverem próximos das datas de vencimento.
Mas enquanto esses serviços e dispositivos precisam de uma conexão constante com a nuvem para suas funções de IA, os drones NSW podem executar suas tarefas de detecção de imagem com ou sem uma conexão sólida à Internet, graças aos chips de computação neural que permitem realizar cálculos de aprendizado profundo localmente.
Esses chips fazem parte de uma tendência crescente de inovações em computação de ponta que permitem que nossos dispositivos com software realizem pelo menos algumas funções críticas sem um vínculo constante com a nuvem. A ascensão da computação de ponta está ajudando a resolver problemas novos e antigos e abrindo caminho para a próxima geração de dispositivos inteligentes.
Desabafando a nuvem
Nas últimas duas décadas, a nuvem se tornou a maneira mais comum de hospedar aplicativos, por um bom motivo.
"O que torna a nuvem tão atraente é que ela diminui o custo de iniciar qualquer atividade que você deseja executar", diz Rob High, CTO da IBM Watson. "A nuvem… permite que as pessoas… resolvam problemas reais hoje sem ter que passar pelo custo da criação da infraestrutura".
Com conectividade onipresente à Internet e quase inúmeros aplicativos, serviços e plataformas de desenvolvimento em nuvem, as barreiras à criação e implantação de aplicativos diminuíram consideravelmente. Os vastos recursos de provedores de nuvem, como IBM, Google e Amazon, impulsionaram o desenvolvimento não apenas de aplicativos de negócios triviais, mas também de software complexo que exige grandes quantidades de computação e armazenamento - algoritmos de aprendizado de máquina e IA, além de streaming e AR aplicativos (realidade aumentada).
Mas esses avanços também criaram um desafio: a maioria dos aplicativos que usamos não funciona, a menos que estejam conectados à nuvem. Isso inclui a maioria dos aplicativos executados em computadores e telefones, bem como o software em geladeiras, termostatos, fechaduras de portas, câmeras de vigilância, carros, drones, sensores climáticos e assim por diante.
Com o advento da Internet das Coisas (IoT), um número crescente de dispositivos está executando software e gerando dados, e a maioria deles exigirá um link para a nuvem para armazenar e processar esses dados. A quantidade de energia e largura de banda necessária para enviar esses dados para a nuvem é imensa, e o espaço necessário para armazenar os dados desafiará os recursos até dos mais poderosos gigantes da nuvem.
"Há muitos dados que estamos coletando nesses sistemas, seja no limite, seja em um dispositivo IoT ou em qualquer outro lugar, com o qual você quase decida não se importar", diz High. Porém, se todas as decisões tiverem que ocorrer na nuvem, todos esses dados deverão ser enviados pela rede para os servidores em nuvem para serem limpos e filtrados.
Como exemplo, o High nomeia aviões modernos, que contêm centenas de sensores que monitoram os motores a jato e coletam centenas de gigabytes de dados de status e desempenho durante cada voo. "Quanto desses dados realmente importa se você deseja analisá-los de forma agregada? Provavelmente apenas uma fração deles", diz High. "Por que não se livrar dele na fonte quando não é necessário para mais nada que você esteja fazendo?"
Fazer o que High sugere fora da nuvem era quase impossível, mas os avanços nos processadores System-on-Chip (SoC) de baixo consumo e baixo custo deram aos dispositivos de borda mais poder computacional e os deixaram arcar com parte da carga computacional de seus ecossistemas, como a análise em tempo real ou a filtragem de dados.
"Há tantos dados no ambiente de borda que faz sentido trazer alguns dos recursos de computação em nuvem para a capacidade computacional do dispositivo de borda", diz High.
Preocupações com a privacidade
Os benefícios da computação de borda não se limitam à liberação de recursos na nuvem.
Remi El-Ouazzane, Grupo de Novas Tecnologias e Gerente Geral da Movidius (Intel), cita as câmeras de segurança comerciais como outro exemplo de quando a computação de borda pode fazer uma enorme diferença. Você vê essas câmeras nos semáforos, nos aeroportos e na entrada dos prédios, gravando e transmitindo vídeos de alta qualidade pela rede o tempo todo.
"Quanto menos dados você precisar transportar de volta para um servidor ou data center, mais limpeza e sofisticação você poderá fazer localmente, melhor será o custo total de propriedade da perspectiva de armazenamento e transferência", diz El-Ouazzane.
Isso significa fornecer às câmeras o poder de analisar seus próprios feeds de vídeo, determinar quais quadros ou comprimentos de vídeo requerem atenção e enviar apenas esses dados ao servidor.
Quando essas câmeras são instaladas em sua casa, escritório ou em qualquer local privado, a conexão com a nuvem também se torna uma possível preocupação de segurança. Hackers e pesquisadores de segurança conseguiram comprometer a conexão entre os eletrodomésticos e seus servidores em nuvem para interceptar feeds de vídeo confidenciais. A análise dos dados localmente evita a necessidade de um canal de vídeo entre sua casa, sua vida privada e um provedor de serviços.
A Movidius, adquirida pela Intel em 2016, é uma das várias startups que fabricam chips de computador especializados para tarefas de IA, como reconhecimento de fala e visão computacional. A empresa fabrica unidades de processamento de visão (VPUs) - processadores de baixo consumo de energia executando redes neurais que analisam e "entendem" o contexto das imagens digitais sem a necessidade de enviá-las de volta à nuvem.
O Movidius Myriad 2 é um processador de visão sempre ativo, feito para ambientes com restrição de energia.
"Quando a câmera entende a semântica do que está vendo, a capacidade de impor regras sobre o que a câmera pode ou não fazer está se tornando uma tarefa muito fácil", diz El-Ouazzane. "Você não precisa capturar sua sala de estar pelas próximas 12 horas apenas para saber que, em um determinado momento, seu cachorro cruzou o tapete em frente ao sofá."
Outras empresas estão explorando o uso de computação de ponta especializada com inteligência artificial para preservar a privacidade do usuário. O Apple iPhone X, por exemplo, é alimentado pelo chip A11 Bionic, que pode executar tarefas de IA localmente, permitindo realizar um reconhecimento facial complicado sem enviar a foto do usuário para a nuvem.
Mais processamento de IA no limite pode pavimentar o caminho para a inteligência artificial descentralizada, em que os usuários precisam compartilhar menos dados com grandes empresas para usar aplicativos de IA.
Reduzindo a latência
Outro problema com os grandes provedores de nuvem é que seus data centers estão localizados fora das grandes cidades, colocando-os a centenas e milhares de quilômetros de distância das pessoas e dispositivos que usam seus aplicativos.
Em muitos casos, a latência causada pelos dados que viajam de e para a nuvem pode produzir um desempenho ruim ou pior, resultados fatais. Pode ser um drone tentando evitar colisões ou aterrissagens em terrenos irregulares, ou um carro autônomo tentando decidir se está se deparando com um obstáculo ou um pedestre.
A implementação leve da Movidius de redes neurais profundas e visão computacional torna seus chips adequados para dispositivos móveis como drones, para os quais hardware que consome energia, como GPUs, não é viável. Os drones são um estudo particularmente interessante, porque precisam de acesso de baixa latência ao cálculo da IA e devem continuar funcionando em configurações offline.
Detecção de gestos como outra área em que a computação de ponta está ajudando a melhorar a experiência do drone. "O objetivo é tornar os drones acessíveis a muitas pessoas, e os gestos parecem ser uma boa maneira de as pessoas usá-los. A latência é importante quando você gesticula o drone para executar alguma tarefa", diz El-Ouazzane.
Para startups como a Skylift Global, que fornece serviços pesados de drones para resgatar trabalhadores e socorristas, o acesso de baixa latência à IA e a recursos de computação pode economizar dinheiro e vidas. "Isso reduzirá significativamente os custos de ingestão de dados, reduzirá a latência da rede, aumentará a segurança e ajudará a transformar dados de streaming em decisões em tempo real", diz Amir Emadi, CEO e fundador da Skylift.
Entregar suprimentos aos socorristas requer decisões em frações de segundo. "Quanto mais tempo passa, por exemplo, no combate a incêndios, mais caro fica para remediar a situação. Como nossos drones se tornam capazes de tomar decisões em tempo real no limite, mesmo quando perdem a conectividade, poderemos economizar mais vidas, dinheiro e tempo ", diz Emadi.
Outros domínios que precisam de computação em tempo quase real são aplicativos de realidade aumentada e virtual e veículos autônomos. "Todos esses são ambientes de computação baseados em experiência. Eles acontecerão em torno das pessoas", diz Zachary Smith, CEO da Packet, uma startup sediada em Nova York focada em permitir que os desenvolvedores acessem hardware altamente distribuído.
Um aplicativo de RA ou VR que não consegue acompanhar os movimentos do usuário causa tonturas ou impede que a experiência se torne imersiva e real. E a latência será um problema ainda maior quando os carros autônomos, que dependem muito da visão computacional e dos algoritmos de aprendizado de máquina, se tornarem dominantes.
"Uma latência de 30 milissegundos não importa para carregar sua página da Web, mas realmente importa para um carro determinar a 100 km / h se deve virar à esquerda ou à direita para evitar colidir com uma garotinha", diz Smith.
Enfrentando os desafios da borda
Apesar da necessidade de aproximar a computação, colocar hardware especializado em todos os dispositivos pode não ser a resposta final, reconhece Smith. "Por que não colocar todos os computadores no carro? Acho que isso tem a ver com a evolução de quão rápido você pode controlar o ciclo de vida disso", diz ele.
"Quando você coloca o hardware no mundo, ele geralmente fica lá por cinco a 10 anos", diz Smith, enquanto a tecnologia que alimenta esses casos de uso baseados em experiências está evoluindo a cada seis a 12 meses.
Mesmo empresas muito grandes, com cadeias de suprimentos complicadas, muitas vezes lutam para atualizar seu hardware. Em 2015, a Fiat Chrysler teve que recuperar 1, 4 milhão de veículos para corrigir uma vulnerabilidade de segurança que foi exposta cinco anos antes. E a gigante fabricante de chips Intel ainda está se esforçando para lidar com uma falha de design que expõe centenas de milhões de dispositivos a hackers.
El-Ouazzane, da Movidius, reconhece esses desafios. "Sabemos que todos os anos teremos que mudar uma gama de produtos, porque todos os anos traremos mais inteligência e pediremos aos nossos clientes que atualizem", diz ele.
Para evitar recalls constantes e permitir que os clientes façam uso de longo prazo de seu hardware de ponta, a Movidius embala seus processadores com recursos e capacidade extras. "Precisamos, nos próximos anos, da capacidade de realizar atualizações nesses produtos", diz El-Ouazzane.
A Packet, empresa de Smith, usa uma abordagem diferente: cria microcentros de dados que podem ser implantados nas cidades, mais perto dos usuários. A empresa pode fornecer aos desenvolvedores recursos computacionais de latência muito baixa - o mais próximo possível dos usuários sem colocar o hardware real no limite.
"Acreditamos que haverá a necessidade de um mecanismo de entrega de infraestrutura para colocar hardware que possa ser acessado pelos desenvolvedores em todas as cidades do mundo", diz Smith. A empresa já opera em 15 locais e planeja expandir para centenas de cidades.
Mas as ambições de Packet vão além da criação de versões em miniatura das amplas instalações operadas por empresas como Google e Amazon. Como Smith explica, a implantação e atualização de hardware especializado não é viável com a nuvem pública. No modelo de negócios da Packet, fabricantes e desenvolvedores implantam hardware especializado nos data centers de ponta da empresa, onde eles podem atualizá-lo e atualizá-lo rapidamente quando necessário, além de garantir que seus usuários obtenham acesso super rápido aos recursos de computação.
A Hatch, um dos clientes da Packet, é uma empresa derivada da Rovio, a empresa de jogos móveis que criou o Angry Birds. A empresa executa o Android em servidores de computação de ponta para fornecer serviços de streaming de jogos multiplayer de baixa latência para usuários com dispositivos Android low-end.
"precisa de servidores ARM razoavelmente especializados em todos esses mercados ao redor do mundo", diz Smith. "Eles têm configurações personalizadas da nossa oferta de servidores e a colocamos em oito mercados globais na Europa, e em breve serão 20 ou 25 mercados. Parece a Amazon para eles, mas eles conseguem executar hardware personalizado em todos os mercados da Europa.."
Teoricamente, a Hatch poderia fazer o mesmo na nuvem pública, mas os custos a tornariam um negócio ineficiente. "A diferença está entre colocar 100 usuários por CPU e colocar 10.000 usuários por CPU", diz Smith.
Smith acredita que este modelo irá atrair a geração de desenvolvedores que impulsionará as próximas inovações de software. "Nosso foco é como conectar a geração de software, pessoas que cresceram na nuvem, com primitivas de hardware especializadas", diz Smith. "Estamos falando de usuários que nem conseguem abrir o MacBook para olhar para dentro, e essa é a pessoa que inovará na pilha de hardware / software".
As nuvens se dissiparão?
Com os dispositivos de ponta se tornando capazes de executar tarefas computacionais complicadas, o futuro da nuvem está em perigo?
"Para mim, a computação de borda é uma próxima progressão natural e lógica da computação em nuvem", diz High do IBM Watson.
De fato, em 2016, a IBM lançou um conjunto de ferramentas que permitem que os desenvolvedores distribuam tarefas entre a borda e a nuvem, especialmente nos ecossistemas de IoT, onde os dispositivos de borda já coletam muitos dados sobre o ambiente imediato. E no final de 2016, a Amazon Web Services, outra grande plataforma de desenvolvimento em nuvem, anunciou o Greengrass, um serviço que permite aos desenvolvedores de IoT executar partes de seus aplicativos em nuvem em seus dispositivos de borda.
Nada disso significa que a nuvem está desaparecendo. "Há muitas coisas que são feitas melhor na nuvem, mesmo quando muito trabalho ainda está sendo feito no limite", diz High. Isso inclui tarefas como agregar dados de muitas fontes diferentes e fazer análises em larga escala com grandes conjuntos de dados.
"Se precisarmos criar modelos nos algoritmos de IA que usamos nesses dispositivos de borda, criar e treinar esses modelos ainda será um problema intensivo em computação, e muitas vezes requer capacidade computacional que excede em muito o que está disponível nesses dispositivos de borda" diz.
El-Ouzzane concorda. "A capacidade de treinar modelos de IA localmente é extremamente limitada", diz ele. "Do ponto de vista do aprendizado profundo, o treinamento tem apenas um lugar para se sentar, e é na nuvem, onde você obtém recursos de computação e armazenamento suficientes para lidar com grandes conjuntos de dados".
El-Ouazzane também fornece casos de uso em que os dispositivos de borda são atribuídos com tarefas críticas de missão e tempo, enquanto a nuvem cuida de inferências mais avançadas que não dependem da latência. "Estamos vivendo em um mundo de continuidade entre a nuvem e a borda".
"Existe uma relação muito simbiótica e sinérgica entre a computação de ponta e a computação em nuvem", diz High.