Lar Visão de futuro Nvidia aprimora melhorias de memória, arquitetura unificada para gpus, processadores móveis

Nvidia aprimora melhorias de memória, arquitetura unificada para gpus, processadores móveis

Vídeo: Qual computador comprar para 3D de Arquitetura em 2019 - GUIA COMPLETO (Novembro 2024)

Vídeo: Qual computador comprar para 3D de Arquitetura em 2019 - GUIA COMPLETO (Novembro 2024)
Anonim

Na conferência de tecnologia GPU da Nvidia, na semana passada, fiquei surpreso ao ver até que ponto os gráficos e a tecnologia da GPU estão se movendo - no desktop e nos dispositivos móveis - e como a maneira como as pessoas escrevem o software precisará mudar para tirar proveito disso.

O grande movimento é em direção a software heterogêneo, programas que podem usar a CPU tradicional do microprocessador e a GPU ao mesmo tempo. Este não é um conceito novo - tanto a Nvidia quanto a AMD falam sobre isso há um tempo -, mas os dois lados estão se aproximando.

A abordagem da AMD tem sido promover o que chama de "unidades de processamento acelerado", que combinam GPUs e CPUs em uma única matriz e o que chamou de "arquitetura de sistemas heterogêneos". Nos últimos anos, promove a HSA e, no ano passado, estabeleceu a HSA Foundation, juntamente com outras 21 empresas, para desenvolver padrões abertos para computação heterogênea.

A abordagem da Nvidia tem sido muito diferente, concentrando-se em suas plataformas CUDA para escrever software em suas GPUs e em sua versão Tesla de GPUs, que agora estão sendo usadas em supercomputadores como o supercomputador Titan do Laboratório Nacional de Oak Ridge. Nesses sistemas, um software bastante complexo gerencia o que a computação funciona na CPU e o que funciona na GPU.

Ao abrir sua palestra, o CEO da Nvidia, Jen-Hsun Huang, disse: "A computação visual é uma mídia poderosa e única. Nos últimos 20 anos, essa mídia transformou o PC de um computador para informações e produtividade em criatividade, expressão e descoberta.. " Os próximos anos devem dizer se essa transição está atingindo um platô ou se está apenas começando."

Como esperado, Huang falou muito em sua palestra sobre como a computação em GPU baseada em CUDA está crescendo. A empresa vendeu 430 milhões de GPUs compatíveis com CUDA e 1, 6 milhão de downloads de kits de programação CUDA; As GPUs Nvidia agora são usadas em 50 supercomputadores em todo o mundo. Por exemplo, ele disse, a Titan fez recentemente a maior simulação mecânica de sólidos do mundo, usando 40 milhões de processadores CUDA para fornecer 10 petaflops de desempenho sustentado. Ele também disse que a computação GPU tem muito potencial em aplicativos de "big data".

Huang chamou um representante do Shazam para falar sobre como a empresa usa GPUs para ajudar a combinar música e áudio de um grande número de usuários. Huang mencionou então que uma empresa chamada Cortexica está usando tecnologia semelhante para pesquisa visual.

Mais importante ainda, a empresa mostrou um novo roteiro para seu mecanismo de GPU usado em seus produtos de jogos GeForce e na linha Tesla. A arquitetura atual da GPU é chamada "Kepler", lançada no ano passado. A próxima versão, conhecida como "Maxwell", deve ser lançada no próximo ano. É um grande passo em direção à computação heterogênea, adicionando uma arquitetura de "memória virtual unificada", o que significa que a CPU e a GPU poderão ver toda a memória do sistema.

Isso é importante porque um dos grandes gargalos da computação em GPU foi mover dados entre os principais sistemas de memória e memória gráfica e porque escrever software que usa os dois tipos de processadores tem sido difícil. (A AMD anunciou um recurso semelhante para o seu processador Kaveri, previsto para o final deste ano. Não sei como isso funciona sem o suporte direto dos fabricantes de CPU, mas certamente é uma abordagem que veremos mais sobre daqui para frente.)

Para 2015, Huang prometeu outra versão, chamada "Volta", que pegará a memória gráfica e a empilhará diretamente na GPU, aumentando drasticamente a largura de banda da memória para cerca de um terabyte por segundo. Para comparação, a largura de banda máxima total do Kepler é de cerca de 192 gigabytes por segundo.

Várias empresas, incluindo a Intel, têm falado sobre empilhar memória em cima de um processador, mas a fiação para conectar a memória e o processador, que usa uma técnica conhecida como vias de silício, é complexa. Até onde eu sei, Volta é o primeiro processador relativamente mainstream anunciado que terá esse recurso.

O roteiro para celular tem alguns dos mesmos recursos. A empresa anunciou recentemente seus processadores Tegra 4 (codinome "Wayne") e Tegra 4i (codinome "Gray"). "Logan", que deve estar em produção em 2014, adiciona os primeiros gráficos compatíveis com CUDA da linha Tegra. Isso será seguido em 2015 com o "Parker", que combinará a tecnologia Maxwell GPU com o primeiro design exclusivo de núcleo de CPU da empresa, um processador ARM de 64 bits conhecido como Projeto Denver. (Observe que, embora os dois processadores compartilhem o design da GPU, o número de núcleos gráficos reais provavelmente será muito menor em um processador móvel do que em uma versão para desktop.)

Isso deve ser interessante devido à arquitetura de memória unificada e ao fato de ser fabricado com o uso de transistores FinFET 3D. A Intel usa essa técnica em seus processadores de 22 nm e a parceira de longa data da Nvidia, a Taiwan Semiconductor Manufacturing Corp., e a rival Globalfoundries disseram que terão FinFETS no próximo ano. A produção em massa deve começar em 2015.

"Em cinco anos, aumentaremos o desempenho do Tegra em 100 vezes", prometeu Huang.

Obviamente, a grande questão é para que usaremos a potência do computador. É muito fácil ver os aplicativos de computação de alto desempenho e "big data" - eles continuam crescendo e podem facilmente usar os recursos de computação paralela das GPUs. A Nvidia oferecerá esses recursos em uma variedade de métodos diferentes, incluindo através de seus painéis Tesla para estações de trabalho e supercomputadores; sua tecnologia de virtualização de servidor de CPU GRID para servidores corporativos; e um novo GRID Virtual Computing Appliance (VCA), um chassi de 4U com processadores Xeon, GPUs baseadas em Kepler e memória, destinado a departamentos.

E, é claro, os jogos usarão mais gráficos, ficando mais realistas em todas as gerações. O tamanho e a resolução dos monitores estão aumentando e as pessoas querem mais gráficos. Huang exibiu a nova placa gráfica de desktop de ponta da empresa, chamada Titan, executando uma simulação oceânica em tempo real do Waveworks. Ele também demonstrou o Faceworks, um cabeçote falante em 3D chamado Ira (acima), criado com o Institute for Creative Technology da USC.

Trazer todos esses recursos para dispositivos móveis é particularmente interessante. Não tenho certeza absoluta de que realmente preciso de toda a potência de uma GPU de desktop de ponta em um dispositivo móvel - afinal, em uma tela de cinco polegadas, 1.980 por 1.080 parece suficiente -, mas não tenho dúvidas de que as pessoas encontrarão usos para isso. Uma preocupação é que usaria muita energia, mas Huang disse que Logan "não será maior que um centavo". De qualquer forma, estarei interessado em ver o que as pessoas farão com tanto desempenho.

No geral, a Nvidia, como a AMD, aposta em melhorias gráficas contínuas, memória unificada e uma abordagem heterogênea para programar a CPU e a GPU. A AMD diria que está trabalhando com padrões abertos, enquanto a Nvidia apontaria para os sucessos que a CUDA está tendo, principalmente na arena de alto desempenho. E, é claro, há a Intel, cujos gráficos estão atrasados ​​tanto para a AMD quanto para a Nvidia atualmente, mas ainda dominam a área de CPU do PC. Ele também possui seu próprio conjunto de ferramentas de software. As diferentes abordagens devem fazer desta uma área fascinante para se assistir.

Nvidia aprimora melhorias de memória, arquitetura unificada para gpus, processadores móveis