Lar Visão de futuro As arquiteturas alternativas governarão a supercomputação?

As arquiteturas alternativas governarão a supercomputação?

Vídeo: #SASMinds: Internet das Coisas: coloque-a para trabalhar a favor da sua organização | SAS Software (Outubro 2024)

Vídeo: #SASMinds: Internet das Coisas: coloque-a para trabalhar a favor da sua organização | SAS Software (Outubro 2024)
Anonim

Nos últimos anos, vimos algumas novas abordagens interessantes da computação de alto desempenho, em particular uma mudança dos grandes processadores tradicionais e em direção aos clusters de CPUs x86 com aceleradores ou coprocessadores para acelerar determinados tipos de cálculos. Saindo do programa de supercomputação da semana passada, vimos a Intel se esforçando para integrar seu coprocessador Xeon Phi ao tradicional processador de servidor Xeon para facilitar a programação; Nvidia introduzindo uma nova versão do seu acelerador Tesla GPU; e Micron suportando um tipo muito diferente de processador para computação ainda mais especializada. E tudo isso aconteceu no momento em que aceleradores e coprocessadores estão dominando a lista das 500 melhores computadores mais rápidos do mundo, levando alguns especialistas a sugerir que os benchmarks existentes dão muito peso a esses processadores.

A Nvidia estava divulgando seu sucesso com suas placas aceleradoras Tesla, grandes grupos de GPUs conectadas aos principais processadores da Intel ou da AMD. Esses chips são usados ​​em uma ampla variedade de sistemas, incluindo o sistema Titan no Laboratório Nacional de Oak Ridge e o novo sistema Piz Daint no Centro Nacional de Computação de Supercomputação da Suíça. O mais interessante é que a empresa diz que as placas da Tesla estão entre os 10 principais sistemas da lista mais recente do Green 500 dos supercomputadores mais eficientes em termos de energia do mundo. Todos esses sistemas também usam o Intel Xeons, com exceção do Titan Opteron, da AMD, que é o segundo sistema mais rápido do mundo no Top 500, mas está muito abaixo da lista do Green 500.

Além disso, a Nvidia anunciou uma parceria com a IBM para oferecer seus aceleradores Tesla em sistemas baseados na arquitetura IBM Power. A IBM há muito elogia seu desempenho em série, e seu sistema BlueGene / Q baseado em processadores Power executa o sistema Sequoia no Laboratório Nacional Lawrence Livermore e o sistema Mira no Laboratório Nacional de Argonne, entre outros. Ter a IBM e a Nvidia trabalhando juntos deve resultar em alguns sistemas interessantes no futuro.

Na feira, a empresa anunciou seu Tesla K40, a próxima geração de sua placa aceleradora de GPU. A empresa disse que oferecerá 1, 4 teraflops de desempenho de precisão dupla, 12 GB de memória (largura de banda de 288 GBps) e um recurso GPU Boost, que permite executar em uma velocidade de clock mais rápida em algumas situações. Esta é uma atualização da série Tesla K20 existente, usando o mesmo design básico de GPU produzido na tecnologia de 28nm.

Outras iniciativas incluem maneiras de facilitar a programação da GPU, incluindo o CUDA 6, que agora suporta memória unificada, permitindo que os desenvolvedores abordem a memória como um pool único, mesmo que a memória da CPU e da GPU permaneça separada. A empresa também oferece suporte ao OpenACC, uma coleção padrão de diretivas de compilador que informa ao sistema quais partes do programa (escritas em C / C ++ e Fortran) podem ser transferidas da CPU para um acelerador para aumentar o desempenho.

A abordagem da Intel, que chama de arquitetura Many Integrated Core (MIC), é muito diferente. Ele combina vários pequenos núcleos x86 em um único chip chamado Xeon Phi. Nos últimos anos, a Intel tem divulgado o fato de que todos os x86 são mais fáceis de programar, embora seja claro que os desenvolvedores ainda precisam direcionar a arquitetura diretamente. A versão atual do Xeon Phi, chamada Knights Corner, foi projetada para ser usada como um acelerador junto com os chips de servidor Xeon E mais tradicionais, e é usada por uma variedade de sistemas, incluindo o Tianhe-2 da China (atualmente o sistema mais rápido no mundo) e o sistema Stampede no Advanced Computing Center da Universidade do Texas.

Na feira, a Intel anunciou uma nova versão com o codinome Knights Landing, que também funcionará como uma CPU autônoma que pode caber em uma arquitetura de rack padrão e executar o sistema operacional diretamente, sem a necessidade de uma CPU host (como o Xeon E). Isso pode ser muito importante para ampliar o apelo do Xeon Phi, principalmente no mercado de estações de trabalho. Novamente, isso foi projetado para tornar mais fácil para os desenvolvedores de software vê-lo como uma única CPU. O Knights Landing estará disponível como uma CPU autônoma e como uma placa PCI Express que se encaixa nos sistemas existentes como uma atualização do Knights Corner.

Também existem outras mudanças significativas no Knights Landing, incluindo a adição de "memória quase", efetivamente DRAM que é oferecida no pacote com a CPU e, portanto, pode oferecer uma largura de banda muito maior que a memória DDR tradicional, limitada pela velocidade de o ônibus. (Isso está ficando mais rápido também, mas não tanto.) Esse não é o primeiro passo nessa direção; A IBM promove DRAM incorporada em sua arquitetura Power há anos e a própria Intel está colocando DRAM incorporada para gráficos nas versões Iris Pro de sua família Haswell Core. Ainda assim, acho que veremos muito mais esforços nessa direção nos próximos anos.

Enquanto isso, uma das novas abordagens mais interessantes vem da Micron, que anunciou um novo acelerador chamado Processador Automata, projetado principalmente para resolver problemas complexos de dados não estruturados.

A Micron descreveu isso como oferecendo uma malha composta de dezenas de milhares a milhões de elementos de processamento conectados para resolver tarefas específicas. A empresa, uma das maiores fabricantes de memória DRAM e NAND, diz que isso usará o processamento baseado em memória para resolver desafios complexos de computação em áreas como segurança de rede, bioinformática, processamento de imagem e análise. A Micron distribuirá inicialmente o Automata Processor em uma placa PCI-Express para que os desenvolvedores trabalhem com ele, mas a empresa planeja vender os processadores em módulos de memória padrão, conhecidos como DIMMs, ou como chips individuais para sistemas embarcados. De certa forma, isso soa semelhante aos arranjos de portas programáveis ​​em campo (FPGAs), que são ajustados para resolver aplicativos específicos que envolvem correspondência de padrões.

A empresa disse que está trabalhando com a Georgia Tech, a Universidade do Missouri e a Universidade da Virgínia para desenvolver novos aplicativos para o Automata. Embora a empresa não tenha anunciado uma data para os produtos finais, um kit de desenvolvimento de software está previsto para ser lançado no próximo ano, juntamente com ferramentas de simulação.

Os autômatos parecem um trabalho em andamento e provavelmente é muito cedo para saber quão amplos são os aplicativos, mas é uma abordagem interessante.

No geral, estamos vendo a evolução da computação de alto desempenho. Não faz muitos anos, os computadores mais rápidos eram basicamente apenas um grande número de processadores de servidor padrão. De fato, os sistemas IBM Blue Gene e os baseados no Sparc (como o computador K do Instituto Avançado de Ciência da Computação RIKEN no Japão, que usa processadores Fujitsu Sparc) ainda representam grande parte do mercado, incluindo cinco dos 10 mais rápidos. sistemas no mundo. Mas, nos últimos anos, o momento mudou para o coprocessador, com os sistemas usando Tesla e, mais recentemente, os aceleradores Xeon Phi, compondo mais os sistemas mais recentes. Com melhorias nesses sistemas, novas parcerias, melhores softwares e algumas novas abordagens, o mercado de supercomputadores pode ser muito diferente no futuro.

As arquiteturas alternativas governarão a supercomputação?