Lar Visão de futuro Tecnologia de supercomputação continua, lista das 500 principais praticamente inalterada

Tecnologia de supercomputação continua, lista das 500 principais praticamente inalterada

Vídeo: Lançamento Análise Advocacia 500 e nova plataforma (Outubro 2024)

Vídeo: Lançamento Análise Advocacia 500 e nova plataforma (Outubro 2024)
Anonim

Duas vezes por ano, sincronizado com os grandes shows de supercomputação, um grupo de especialistas do setor publica uma lista dos supercomputadores mais rápidos do mundo. A última lista do Top500, como é conhecida, saiu ontem em conjunto com a Conferência Internacional de Supercomputação, e o supercomputador Tianhe-2, criado pela Universidade Nacional de Tecnologia de Defesa da China, ficou em primeiro lugar pela terceira vez consecutiva.

De fato, os nove principais sistemas da lista permanecem inalterados em relação à versão anterior, lançada em novembro. Ainda assim, há algumas coisas interessantes a serem observadas.

Os EUA continuam sendo o principal país em termos de sistemas gerais, com 233, mas esse número está abaixo dos 265 de novembro. Enquanto isso, o número de sistemas na China aumentou de 63 para 76. Atualmente, existem 37 sistemas com desempenho superior a um petaflop / s na lista, ante 31 seis meses atrás.

Sessenta e dois dos 500 principais sistemas usam alguma forma de tecnologia de acelerador ou coprocessador, acima dos 53 de novembro. Quarenta e quatro deles usam chips Nvidia, dois usam ATI Radeon e agora existem 17 sistemas com tecnologia Intel MIC (Xeon Phi). O número médio de núcleos aceleradores para esses 62 sistemas é de 78.127 núcleos / sistema.

Tanto o sistema principal, Tianhe-2, como o sistema nº 7, o sistema Stampede do Texas Advanced Computing Center da Universidade do Texas, usam processadores Intel Xeon Phi para acelerar sua taxa computacional.

O sistema nº 2, o Titan do Laboratório Nacional de Oak Ridge e o sistema nº 6, Piz Daint, do Centro Nacional de Supercomputação da Suíça, usam as GPUs da Nvidia para acelerar a computação.

A Intel continua a fornecer os processadores para a maior parcela (85, 4%) dos sistemas Top500. A participação dos processadores IBM Power permanece em 8%, enquanto a família AMD Opteron é usada em 6% dos sistemas, abaixo dos 9% da lista anterior. Noventa e seis por cento dos sistemas usam processadores com seis ou mais núcleos e 83% usam oito ou mais núcleos.

Embora tudo isso seja impressionante, o crescimento no desempenho parece estar diminuindo. O desempenho total combinado de todos os 500 sistemas aumentou para 274PF em comparação com 250PF há seis meses e 223PF há um ano. Parece muito, mas na verdade é muito mais lento do que o crescimento que observamos há alguns anos atrás, porque há menos supercomputadores extremamente sofisticados competindo pelo topo do gráfico que está sendo construído.

O que pode mudar isso são alguns novos anúncios projetados para acelerar a supercomputação.

A Nvidia anunciou hoje que estava estendendo seus aceleradores de GPU Tesla para trabalhar com processadores ARM de 64 bits. Em particular, anunciou o suporte a servidores com as CPUs Applied Micro X-Gene ARM64 e os aceleradores Tesla K20 da Nvidia, com três empresas - Cirrascale Corp., E4 Computer Engineering e Eurotech Group - anunciando planos para enviar esses sistemas. Nenhum cliente foi anunciado, embora a Nvidia diga que espera que esses sistemas possam usar centenas de aplicativos HPC existentes que já usam o esquema CUDA da Nvidia para aceleradores, simplesmente recompilando-os em sistemas ARM de 64 bits.

A Nvidia também já havia anunciado suporte para o uso de seus aceleradores com a família de CPUs Power da IBM. No entanto, até o momento, todos os sistemas que usam os aceleradores Nvidia Tesla estão usando processadores x86 da Intel ou AMD (como o sistema Titan, que combina o AMD Opterons com os aceleradores K20).

Ainda assim, parece que haveria aplicativos baseados principalmente na GPU, onde um processador de menor consumo de energia, como a arquitetura ARM 64, faria sentido.

Do lado da Intel, a empresa anunciou uma série de novos detalhes para o próximo gerador de seus processadores Xeon Phi, conhecido como Knights Landing. Isso inclui uma nova interconexão de alta velocidade chamada Omni Scale Fabric e memória na embalagem, que combina memória e CPU em um único chip (embora com múltiplas matrizes).

O Knights Landing, que deve ser lançado no segundo semestre de 2015, usará mais de 60 núcleos Silvermont Atom habilitados para HPC; e a Intel diz que fornecerá mais de 3 TFLOPS de desempenho de precisão dupla e três vezes o desempenho de thread único do atual Xeon Phi.

O novo tecido está previsto para ser incluído no Knights Landing, bem como as versões futuras dos processadores Xeon de uso geral da empresa, e parece ter um desempenho melhor do que o True Scale Fabric existente atualmente pela Intel. A memória, que está sendo lançada com a Micron, permite até 16 GB de memória de alta velocidade, que, segundo a Intel, pode oferecer uma largura de banda cinco vezes melhor em comparação com a memória DDR 4 e cinco vezes melhor eficiência energética e três vezes mais largura de banda que a memória GDDR normalmente usado com aceleradores.

Os supercomputadores Cori do Centro Nacional de Computação Científica de Pesquisa Energética do Laboratório Nacional Lawrence Berkeley usarão mais de 9.300 processadores Knights Landing, disse a Intel.

Com certeza, parece que a Intel está determinada a atingir o objetivo de uma máquina exascale até 2020 e está reunindo muita tecnologia para chegar lá. Será interessante ver se Power, ARM e / ou Nvidia podem fornecer uma concorrência credível para esse objetivo.

Tecnologia de supercomputação continua, lista das 500 principais praticamente inalterada