Vídeo: What's inside a Facebook Datacenter Open Compute Rack? (Novembro 2024)
Embora muito menos proeminente que outros eventos recentes, o Open Compute Summit da semana passada pode acabar dizendo mais sobre a direção dos grandes computadores do que qualquer anúncio individual de um fornecedor.
O Facebook organizou inicialmente o Open Compute Project, e essa foi a quarta cúpula do grupo nos últimos 18 meses. Vários grandes centros de dados - desde empresas de hospedagem a grandes empresas financeiras - agora são membros e grande parte do setor está aparecendo para exibir e oferecer suporte. A idéia é redesenhar o servidor moderno - inicialmente para computação, mas também potencialmente para armazenamento - de maneira a refletir as necessidades dos maiores datacenters de melhor escalabilidade e soluções menos proprietárias.
O primeiro passo é um novo design para racks, conhecido como especificação de rack aberto. Isso usa unidades de rack mais largas e um pouco mais altas do que nos servidores existentes. Hoje, uma unidade de rack padrão (um servidor de 1U) tem 19 polegadas de largura; com o Rack aberto, uma única unidade de rack teria 21 polegadas de largura. O novo tamanho foi projetado para encaixar três placas-mãe ou cinco unidades de 3, 5 polegadas lado a lado, em direção a servidores ainda mais densos. Observe que, no plano Open Rack, os servidores não possuem fontes de alimentação próprias; em vez disso, o rack possui vários suprimentos para alimentar cada servidor.
O conceito não é tão diferente dos servidores blade oferecidos atualmente pela Cisco, Dell, HP e IBM, mas essa é uma especificação aberta, enquanto as soluções atuais tendem a ser proprietárias. Isso deve levar a mais concorrência de custos. (Observe também que o tamanho do quadro ou chassi do rack ainda tem cerca de 24 polegadas de largura, portanto os produtos Open Rack devem caber nos data centers existentes.) HP e Dell, entre outros, já mostraram produtos que se encaixam no design de rack aberto.
No Rack aberto, a idéia é eventualmente ter "trenós" diferentes - um módulo de computação com dois processadores e uma pequena quantidade de memória e armazenamento, um módulo DRAM, um módulo de armazenamento e um módulo de armazenamento flash - todos conectados em velocidades muito altas. Esses módulos devem poder ser misturados e combinados; e mais importante, cada um pode ser substituído em uma programação diferente. (Normalmente, a memória flash se desgasta mais rapidamente que os discos rígidos, por exemplo, e as CPUs são atualizadas a cada dois anos ou mais porque as demandas de computação realmente tiram vantagem da Lei de Moore, mas outros componentes podem ser atualizados em um ciclo de cinco a seis anos..)
Uma nova especificação é chamada de Open Common Slot para processadores. Com base no PCI-Express, isso deve permitir que os processadores de qualquer fornecedor que o suporte entrem em um servidor Open Rack. Os fornecedores tradicionais de servidores x86 Intel e AMD indicaram suporte, assim como Applied Micro e Calxeda, ambos mostrando seus servidores ARM de baixa potência. Além disso, a AMD e a Intel disseram ter desenvolvido placas-mãe Open Rack: o Roadrunner da AMD e o Decathlete da Intel.
Parece haver muito progresso nas interconexões para esses servidores. A Intel diz que está enviando amostras de um módulo fotônico de silício de 100 Gbps e que está desenvolvendo especificações para o uso da interconexão para CPU, memória e placas de rede em um rack. Enquanto isso, a Mellanox estava mostrando um novo sistema que inclui controladores e um comutador de topo de rack que pode executar o Infiniband em até 56Gbps.
Outras partes do OCP estão trabalhando no projeto de armazenamento do Open Vault (conhecido como Knox), que permitirá até 30 unidades em um chassi de rack aberto de 2U. Vários dos grandes nomes do armazenamento oferecem suporte a pelo menos partes disso, incluindo EMC, Fusion-io, Hitachi Global Storage e SanDisk, com o Fusion-io mostrando um cartão ioScale que pode ter até 3, 2 TB de memória flash.
Inicialmente, grande parte da ênfase para o Open Compute veio do Facebook, que iniciou o projeto para lidar com a enorme quantidade de dados necessários para armazenar, mover e calcular a cada dia. Na cúpula, o Facebook repetiu algumas de suas estatísticas de uso: - possui um bilhão de usuários, que carregam cerca de 4, 2 bilhões de curtidas, postagens e comentários por dia, além de cerca de 350 milhões de fotos por dia. Como resultado, o Facebook precisa de 7 petabytes adicionais por mês (e em crescimento) apenas para armazenar fotos.
O Facebook também falou sobre como ele realmente executa cerca de 40 serviços principais e 200 serviços menores, mas agora os separou para que cada um deles seja executado em um dos cinco tipos de servidor padrão: Web, Banco de Dados, Hadoop, Haystack (Fotos) e Feed (muitos CPU e memória). O conceito por trás do Open Compute é permitir que você personalize seus servidores com mais facilidade para cada serviço e possa trocar e receber componentes com facilidade, de diferentes fornecedores e em diferentes agendas, para que seja mais flexível e mais econômico.
Obviamente, aqueles que administram data centers para empresas têm os mesmos objetivos gerais, embora a maioria não tenha quase a mesma escala. Por enquanto, meu palpite é que os grandes usuários dos conceitos do Open Compute serão os maiores datacenters, semelhante à forma como os grandes provedores de nuvem foram o ímpeto da plataforma em nuvem OpenStack. De fato, certamente há sobreposição no pensamento entre esses grupos, mas com o tempo, os conceitos devem se tornar dominantes. Eu não ficaria surpreso ao ver empresas de todos os tamanhos poder solicitar servidores Open Rack e, assim, obter os aprimoramentos de custo e agilidade que prometem. Levará alguns anos, mas a idéia é certamente promissora.