Vídeo: Почти v3 | Xeon E5 1650 на LGA 2011 - тесты в играх и актуальность в 2020 (Novembro 2024)
Examinar alguns dos anúncios que ocorreram na semana passada, mais particularmente na Open Compute Summit da semana passada, traz para casa o conceito de que os sistemas de computação e armazenamento estão ficando mais densos em um ritmo muito rápido.
Antes da conferência, a Intel lançou seu processador Xeon D, projetado para microsservidores, com versões de 4 e 8 núcleos. O mais notável é que a versão quad-core foi projetada para operar em um ponto de design térmico próximo a 20 watts, muito mais baixo que os processadores Xeon padrão, enquanto o 8-core usa cerca de 45 watts. Agora, a Intel já ofereceu projetos System-on-Chip (SoC) de 64 bits antes, como parte de sua família Atom (conhecida como Avoton, com o produto atual chamado C2750), e visualizou o Xeon D no outono passado. Mas este é o primeiro chip Intel destinado aos microsservidores a usar os núcleos Xeon, e a Intel diz que oferece desempenho até 3, 4 vezes mais rápido e até 1, 7 vezes melhor desempenho por watt em comparação com o núcleo Atom. O Xeon D pode endereçar até 128 GB de memória e espera-se que esteja disponível geralmente na segunda metade do ano.
Isso parece direcionado principalmente para cargas de trabalho de uso intensivo em computação para provedores de nuvem, telecomunicações e hospedagem, visando situações em que você deseja muitos núcleos de computação usando o mínimo de energia possível; e parece claramente um concorrente de todos os chips de servidor baseados em ARM que foram anunciados. Várias empresas anunciaram servidores ARM de 64 bits, mas apenas a Cavium com seu ThunderX, Applied Micro com seu X-Gene e AMD com o Opteron A1100, também conhecido como "Seattle", têm projetos em produção ou quase.
A Intel criou um design que sacrifica algum cache interno e capacidade de memória externa em comparação com sua família tradicional Xeon E em favor da densidade de computação, e usou sua fabricação de 14nm para tornar o chip menor e mais eficiente em termos de energia. (Observe que pode não ser tecnicamente um SoC, pois o hub do controlador da plataforma é realmente um dado diferente no mesmo pacote, mas isso não deve realmente importar no design dos sistemas.)
Na cúpula, o fundador do Open Compute Project, o Facebook, descreveu um novo chassi de sistema modular chamado "Yosemite", que possui quatro placas de servidor, cada uma com um único processador usando até 65 watts, juntamente com o switch de rede top de rack do Facebook do Wedge, e novos Software Open Baseboard Management Controller (OpenBMC) que fornece funções de gerenciamento de servidor, como monitoramento de temperatura, controle de ventiladores e registro de erros. Usando a especificação OpenRack, você pode instalar até 192 placas de servidor em um único rack. Em particular, o Facebook falou sobre o uso de placas chamadas "Mono Lake" com uma versão de 2, 0 GHz de oito núcleos / 16 threads do Intel Xeon D dentro deste sistema, permitindo até 1.536 núcleos de CPU por rack.
Em conjunto, tudo isso é um grande impulso do Facebook e do Open Compute Project em direção a padrões mais abertos no design de rack e servidor.
Outro anúncio importante na mesma linha foi da HP, que anunciou o Cloudline, uma nova família de servidores em rack que usam as especificações do Open Compute, criadas em conjunto com a Foxconn. O Cloudline CL são servidores de rack 1U e 2U e trenós com dois processadores Intel Xeon E5-2600 v3 (Haswell). A linha inclui sistemas completos de escala de rack para grandes data centers em nuvem; servidores densos e com vários nós para empresas de hospedagem; e servidores em rack de baixo custo e baixo custo para implantações em larga escala.
Para clientes corporativos, eles são projetados para executar a versão Helion da HP do software OpenStack, enquanto os grandes fornecedores de nuvem costumam usar suas próprias pilhas de software. A HP havia anunciado anteriormente os switches de rede abertos Altoline, e juntos isso parece uma grande mudança na maneira como a empresa está seguindo as maiores instalações de computação.
Enquanto isso, também vimos esforços para aumentar a densidade no lado do armazenamento. Fiquei impressionado com a matriz totalmente flash InfiniFlash da SanDisk, em particular uma configuração que permite até 512 TB de armazenamento bruto em um gabinete de 3U. É muito armazenamento rápido em uma pequena quantidade de espaço; a empresa diz que oferece cinco vezes a densidade de um sistema baseado em disco rígido com 50 vezes o desempenho. Os preços da memória Flash estão caindo - a SanDisk diz que custará menos de US $ 1 por GB após a compactação ou menos de US $ 2 por GB sem compactação ou desduplicação. A SanDisk vende principalmente para clientes OEM, não para empresas, mas disse que isso será oferecido aos provedores de nuvem.
As unidades de disco rígido também não estão paradas. A HGST, que vem ampliando o limite de capacidade em unidades de servidor, apresentou na semana passada uma versão de 10 TB de 3, 5 polegadas destinada a armazenamento legal para armazenamento em nuvem e arquivamento ativo. (Em outras palavras, não é para armazenamento primário, mas ainda tem muita capacidade.) E eu estava interessado em ver que a Toshiba agora está oferecendo uma unidade de desktop de 6TB e 3, 5 polegadas. Enquanto isso, a Sony demonstrou um protótipo de dispositivo de armazenamento a frio com 1, 5P petabytes de armazenamento (15.000 discos Blu-ray com 100 GB cada) com cerca de 30 segundos de tempo de acesso, e a Panasonic estava mostrando o formato de disco de arquivamento de 300 GB no qual trabalhou com a Sony, no qual dito deve estar disponível até o final do ano.
Mais computação e mais armazenamento é uma enorme tendência na computação. Mas tudo ainda precisa ser gerenciado, e esse é o próximo desafio.