Lar O negócio Como essa estrutura maciça no deserto de oregon mantém o facebook funcionando

Como essa estrutura maciça no deserto de oregon mantém o facebook funcionando

Vídeo: Wild Wild Country | Official Trailer [HD] | Netflix (Outubro 2024)

Vídeo: Wild Wild Country | Official Trailer [HD] | Netflix (Outubro 2024)
Anonim

PRINEVILLE, Oregon - Existem várias maneiras de garantir que você tenha Internet rápida. Você pode se mudar para uma cidade do Google Fiber. Você pode selecionar um dos nossos ISPs mais rápidos. Ou você pode construir sua casa ao lado de um data center do Facebook.

Veja o primeiro data center do Facebook, por exemplo. Inaugurado em Prineville, Oregon, em 2011, serviu de modelo para todos os datacenters que a gigante de mídia social construiu desde então, da Suécia a Iowa. Consome tanta largura de banda que requer vários ISPs que atendem à área para fortalecer suas redes, trazendo moradores locais para o passeio.

Você pode pensar no data center de Prineville, juntamente com outras instalações do Facebook, como o coração coletivo da maior rede social do mundo: eles recebem uma grande quantidade de solicitações de fotos, atualizações de status e atualizações de feed de notícias dos 1, 65 bilhões de usuários ativos do site e responda o mais rápido possível, semelhante a um coração bombeando oxigênio para a corrente sanguínea.

As instalações de Prineville estão chegando ao seu quinto aniversário e lidam com solicitações de dados para coisas que Mark Zuckerberg provavelmente não tinha idéia do que o Facebook estaria fazendo quando ele sonhou com a idéia da empresa em seu dormitório em Harvard.

Nesta semana, o PCMag parou para uma turnê.

A Prineville ainda armazena fotos e atualizações de status, é claro, mas agora também possui milhares de GPUs da Nvidia suportando a pesquisa de inteligência artificial do Facebook, além de 2.000 telefones iOS e Android executando testes 24 horas por dia. Isso ajuda os engenheiros da empresa a aumentar a eficiência de energia de seus aplicativos, que incluem Instagram, Messenger e WhatsApp, além do Facebook.

Os dados do Facebook são 'resilientes, não redundantes'

A primeira coisa que você nota sobre a instalação de Prineville é seu tamanho. Erguendo-se do alto deserto repleto de árvores do centro de Oregon, a três horas de carro de Portland não é um único edifício, mas quatro (e isso não inclui outro enorme data center que a Apple construiu recentemente do outro lado da rua, apropriadamente chamado Connect Way). Um dos prédios do Facebook pode acomodar dois Walmarts dentro e tem aproximadamente 30 metros a mais do que um porta-aviões da classe Nimitz.

No interior, existem servidores com vários petabytes de armazenamento e que os engenheiros do Facebook atualizam constantemente substituindo componentes. Das 165 pessoas que trabalham em período integral no data center, 30 por edifício são designadas apenas para atender ou substituir fontes de alimentação, processadores, memória e outros componentes.

A marca de quase qualquer empresa que opera na Internet, da Amazon a Charles Schwab, é a redundância: vários servidores armazenando várias cópias de dados. Esse é o caso de Prineville, onde Ken Patchett, diretor de operações de dados ocidentais do Facebook, concentra-se na resiliência - mais ou menos definida como a capacidade de estar pronto quando e onde quer que alguém faça logon no Facebook.

É possível focar na "resiliência, não redundância", como Patchett coloca, porque o Facebook tem o luxo de armazenar várias cópias de dados em seus outros locais ao redor do mundo, de Lulea, na Suécia, a Altoona, Iowa. Portanto, em vez de ter dois ou mais de tudo, ele pode se concentrar na compra de equipamentos estratégicos em cada local, como ter um gerador de energia reserva para cada seis geradores principais.

"Você tem que ser fiscalmente responsável se quiser ser resiliente", explicou Patchett. Ele é um dos pais fundadores de data centers de alta tecnologia no alto deserto do Oregon. Antes de chegar ao Facebook, ele ajudou a iniciar um data center em The Dalles, Oregon, para o Google, uma das primeiras empresas de Internet a capitalizar a energia hidrelétrica barata e o clima frio e seco que caracterizam a vasta porção oriental da nona maior Estado.

Um poder abundante, é claro, é crucial para a operação do Facebook. A temperatura do servidor é regulada por uma combinação de refrigerador de água e grandes ventiladores que aspiram o ar seco do deserto (abaixo) em vez de aparelhos de ar condicionado que consomem muita energia e dinheiro. A faixa de temperatura alvo está entre 60 e 82 graus Fahrenheit. A equipe de Patchett se tornou tão boa em atingir essa meta que a Prineville agora possui uma taxa de eficiência de energia de 1, 07, o que significa que o equipamento de refrigeração, luzes e aquecedores - qualquer coisa que não seja um dispositivo de computação - consomem apenas 7% do uso total de energia da instalação.

32 iPhones em uma caixa

A maior parte do resfriamento e energia é direcionada para atender às demandas dos servidores, mas alguns são desviados para uma sala de teste de aplicativos comparativamente pequena, com implicações para reduzir o uso de energia, não apenas em Prineville, mas em todos os telefones com um aplicativo do Facebook.

Não é segredo que o aplicativo do Facebook tenha lutado com o gerenciamento de energia. O The Guardian afirmou no início deste ano que o aplicativo estava diminuindo a duração da bateria dos iPhones em 15%. Para otimizar o aplicativo e diminuir o consumo de bateria, a empresa trouxe aproximadamente 2.000 telefones iOS e Android para Prineville, onde são instalados dentro de caixas em grupos de 32.

Cada caixa possui sua própria rede Wi-Fi, cercada por paredes isoladas e fita de cobre, que os engenheiros da sede do Vale do Silício usam para realizar uma bateria de testes. Eles estão procurando "regressões" no uso e desempenho da bateria causados ​​por atualizações nos aplicativos do Facebook, Instagram, Messenger e WhatsApp. Se eles encontrarem um no próprio código do Facebook, eles o corrigem. Se a ineficiência foi introduzida por um desenvolvedor, o sistema notifica automaticamente o infrator por email.

As caixas não contêm apenas os mais recentes iPhone 6s ou Galaxy S7. No lado do iOS, eles incluem muitos modelos do iPhone 4s e posterior. No lado do Android, quem sabe? Basta dizer que há um cara cujo trabalho é encontrar dispositivos Android obscuros e trazê-los para Prineville.

"Temos que adquirir telefones de qualquer lugar", disse Antoine Reversat, engenheiro que ajudou a desenvolver a infraestrutura e o software de teste. Seu objetivo final é dobrar a capacidade dos racks para acomodar até 62 telefones cada e descobrir uma maneira de reduzir o procedimento manual de 20 etapas necessário para configurar o telefone para teste em uma etapa. Isso deve confortar qualquer pessoa que já tenha seu telefone morrido enquanto atualiza seu feed de notícias.

Big Sur: o cérebro da IA ​​do Facebook

Em seguida, em nosso tour, estavam os servidores de inteligência artificial Big Sur, que, como o litoral da Califórnia para o qual são nomeados, constituem a parte mais panorâmica do data center. Não estamos falando de vistas panorâmicas do Pacífico, é claro, mas de uma tela de computador que exibia o que parecia ser um grupo de pinturas, comandado por Ian Buck, vice-presidente de computação acelerada da Nvidia.

"Nós treinamos uma rede neural para reconhecer pinturas", explicou Buck. "Depois de meia hora olhando as pinturas, ela pode começar a gerar as suas próprias."

Os mostrados se assemelhavam ao impressionismo francês do século 19, mas com uma reviravolta. Se você deseja uma combinação de uma natureza morta de frutas e uma paisagem de rio, Big Sur pintará isso para você, flexionando seus 40 petaflops de poder de processamento por servidor. É um dos vários sistemas de IA que usam GPUs Nvidia - neste caso, processadores Tesla M40 baseados em PCI.e - para resolver problemas complexos de aprendizado de máquina. O projeto de assistência médica DeepMind do Google também usa os processadores da Nvidia.

O Facebook está usando Big Sur para ler histórias, identificar rostos em fotos, responder perguntas sobre cenas, jogar e aprender rotinas, entre outras tarefas. Ele também fornece o software de código aberto, oferecendo a outros desenvolvedores um plano de como configurar sua própria infraestrutura específica de IA. O hardware inclui oito placas GPU Tesla M40 de até 33 watts cada. Todos os componentes são facilmente acessíveis em uma gaveta de servidores para aumentar a facilidade de atualizações, que certamente virão quando a Nvidia lançar novas versões PCI.e de suas GPUs Tesla, incluindo o carro-chefe P100.

Armazenamento a frio para fotos esquecidas

Como Prineville é o primeiro data center do Facebook, costuma ser onde os engenheiros testam idéias para tornar os servidores do Facebook mais eficientes. Uma das idéias mais recentes é armazenamento a frio ou servidores dedicados que armazenam qualquer coisa no Facebook que não tenha muitas visualizações - suas fotos de baile do ensino médio, por exemplo, ou as dezenas de atualizações de status que você postou quando Michael Jackson morreu em 2009.

O segredo do sucesso do armazenamento a frio são suas múltiplas camadas. O primeiro nível é composto por hardware corporativo de alto desempenho, enquanto os níveis mais baixos usam componentes mais baratos e, em alguns casos - talvez para aquelas fotos com aparelhos que você espera que ninguém veja - bibliotecas de fitas de backup. O resultado final é que cada rack de servidor de armazenamento a frio pode armazenar 2 petabytes de armazenamento, ou o equivalente a 4.000 pilhas de moedas de um centavo que chegam até a lua.

Construindo para o futuro

Embora o Facebook tenha trazido à Internet mais rapidamente e outros benefícios para Prineville, incluindo mais de US $ 1 milhão em doações para escolas e instituições de caridade locais, sua presença não é isenta de controvérsias. O Oregon está dando muito dinheiro em incentivos fiscais para a empresa no momento em que a economia local, ainda se recuperando da bolha imobiliária de 2008, segue a média nacional.

Ainda assim, 1, 65 bilhão de pessoas não teriam acesso ao Facebook sem este posto avançado no deserto e seus data centers irmãos. E, mesmo dando os retoques finais em seu quarto edifício em Prineville, a empresa está bem encaminhada para concluir um quinto centro no Texas. Mas se isso faz você se sentir culpado pela energia que sua navegação no Facebook consome, não deve. De acordo com Patchett, um único usuário navegando no Facebook por um ano inteiro consome menos energia do que é necessário para fazer um café com leite. Em outras palavras, você pode renunciar a apenas uma viagem à Starbucks e rolar pelo feed de notícias até o conteúdo do seu coração.

Como essa estrutura maciça no deserto de oregon mantém o facebook funcionando