Vídeo: Qual computador comprar para 3D de Arquitetura em 2019 - GUIA COMPLETO (Novembro 2024)
Na conferência de tecnologia GPU da Nvidia, na semana passada, fiquei surpreso ao ver até que ponto os gráficos e a tecnologia da GPU estão se movendo - no desktop e nos dispositivos móveis - e como a maneira como as pessoas escrevem o software precisará mudar para tirar proveito disso.
O grande movimento é em direção a software heterogêneo, programas que podem usar a CPU tradicional do microprocessador e a GPU ao mesmo tempo. Este não é um conceito novo - tanto a Nvidia quanto a AMD falam sobre isso há um tempo -, mas os dois lados estão se aproximando.
A abordagem da AMD tem sido promover o que chama de "unidades de processamento acelerado", que combinam GPUs e CPUs em uma única matriz e o que chamou de "arquitetura de sistemas heterogêneos". Nos últimos anos, promove a HSA e, no ano passado, estabeleceu a HSA Foundation, juntamente com outras 21 empresas, para desenvolver padrões abertos para computação heterogênea.
A abordagem da Nvidia tem sido muito diferente, concentrando-se em suas plataformas CUDA para escrever software em suas GPUs e em sua versão Tesla de GPUs, que agora estão sendo usadas em supercomputadores como o supercomputador Titan do Laboratório Nacional de Oak Ridge. Nesses sistemas, um software bastante complexo gerencia o que a computação funciona na CPU e o que funciona na GPU.
Ao abrir sua palestra, o CEO da Nvidia, Jen-Hsun Huang, disse: "A computação visual é uma mídia poderosa e única. Nos últimos 20 anos, essa mídia transformou o PC de um computador para informações e produtividade em criatividade, expressão e descoberta.. " Os próximos anos devem dizer se essa transição está atingindo um platô ou se está apenas começando."
Como esperado, Huang falou muito em sua palestra sobre como a computação em GPU baseada em CUDA está crescendo. A empresa vendeu 430 milhões de GPUs compatíveis com CUDA e 1, 6 milhão de downloads de kits de programação CUDA; As GPUs Nvidia agora são usadas em 50 supercomputadores em todo o mundo. Por exemplo, ele disse, a Titan fez recentemente a maior simulação mecânica de sólidos do mundo, usando 40 milhões de processadores CUDA para fornecer 10 petaflops de desempenho sustentado. Ele também disse que a computação GPU tem muito potencial em aplicativos de "big data".
Huang chamou um representante do Shazam para falar sobre como a empresa usa GPUs para ajudar a combinar música e áudio de um grande número de usuários. Huang mencionou então que uma empresa chamada Cortexica está usando tecnologia semelhante para pesquisa visual.
Mais importante ainda, a empresa mostrou um novo roteiro para seu mecanismo de GPU usado em seus produtos de jogos GeForce e na linha Tesla. A arquitetura atual da GPU é chamada "Kepler", lançada no ano passado. A próxima versão, conhecida como "Maxwell", deve ser lançada no próximo ano. É um grande passo em direção à computação heterogênea, adicionando uma arquitetura de "memória virtual unificada", o que significa que a CPU e a GPU poderão ver toda a memória do sistema.
Isso é importante porque um dos grandes gargalos da computação em GPU foi mover dados entre os principais sistemas de memória e memória gráfica e porque escrever software que usa os dois tipos de processadores tem sido difícil. (A AMD anunciou um recurso semelhante para o seu processador Kaveri, previsto para o final deste ano. Não sei como isso funciona sem o suporte direto dos fabricantes de CPU, mas certamente é uma abordagem que veremos mais sobre daqui para frente.)
Para 2015, Huang prometeu outra versão, chamada "Volta", que pegará a memória gráfica e a empilhará diretamente na GPU, aumentando drasticamente a largura de banda da memória para cerca de um terabyte por segundo. Para comparação, a largura de banda máxima total do Kepler é de cerca de 192 gigabytes por segundo.
Várias empresas, incluindo a Intel, têm falado sobre empilhar memória em cima de um processador, mas a fiação para conectar a memória e o processador, que usa uma técnica conhecida como vias de silício, é complexa. Até onde eu sei, Volta é o primeiro processador relativamente mainstream anunciado que terá esse recurso.
O roteiro para celular tem alguns dos mesmos recursos. A empresa anunciou recentemente seus processadores Tegra 4 (codinome "Wayne") e Tegra 4i (codinome "Gray"). "Logan", que deve estar em produção em 2014, adiciona os primeiros gráficos compatíveis com CUDA da linha Tegra. Isso será seguido em 2015 com o "Parker", que combinará a tecnologia Maxwell GPU com o primeiro design exclusivo de núcleo de CPU da empresa, um processador ARM de 64 bits conhecido como Projeto Denver. (Observe que, embora os dois processadores compartilhem o design da GPU, o número de núcleos gráficos reais provavelmente será muito menor em um processador móvel do que em uma versão para desktop.)
Isso deve ser interessante devido à arquitetura de memória unificada e ao fato de ser fabricado com o uso de transistores FinFET 3D. A Intel usa essa técnica em seus processadores de 22 nm e a parceira de longa data da Nvidia, a Taiwan Semiconductor Manufacturing Corp., e a rival Globalfoundries disseram que terão FinFETS no próximo ano. A produção em massa deve começar em 2015.
"Em cinco anos, aumentaremos o desempenho do Tegra em 100 vezes", prometeu Huang.
Obviamente, a grande questão é para que usaremos a potência do computador. É muito fácil ver os aplicativos de computação de alto desempenho e "big data" - eles continuam crescendo e podem facilmente usar os recursos de computação paralela das GPUs. A Nvidia oferecerá esses recursos em uma variedade de métodos diferentes, incluindo através de seus painéis Tesla para estações de trabalho e supercomputadores; sua tecnologia de virtualização de servidor de CPU GRID para servidores corporativos; e um novo GRID Virtual Computing Appliance (VCA), um chassi de 4U com processadores Xeon, GPUs baseadas em Kepler e memória, destinado a departamentos.
E, é claro, os jogos usarão mais gráficos, ficando mais realistas em todas as gerações. O tamanho e a resolução dos monitores estão aumentando e as pessoas querem mais gráficos. Huang exibiu a nova placa gráfica de desktop de ponta da empresa, chamada Titan, executando uma simulação oceânica em tempo real do Waveworks. Ele também demonstrou o Faceworks, um cabeçote falante em 3D chamado Ira (acima), criado com o Institute for Creative Technology da USC.
Trazer todos esses recursos para dispositivos móveis é particularmente interessante. Não tenho certeza absoluta de que realmente preciso de toda a potência de uma GPU de desktop de ponta em um dispositivo móvel - afinal, em uma tela de cinco polegadas, 1.980 por 1.080 parece suficiente -, mas não tenho dúvidas de que as pessoas encontrarão usos para isso. Uma preocupação é que usaria muita energia, mas Huang disse que Logan "não será maior que um centavo". De qualquer forma, estarei interessado em ver o que as pessoas farão com tanto desempenho.
No geral, a Nvidia, como a AMD, aposta em melhorias gráficas contínuas, memória unificada e uma abordagem heterogênea para programar a CPU e a GPU. A AMD diria que está trabalhando com padrões abertos, enquanto a Nvidia apontaria para os sucessos que a CUDA está tendo, principalmente na arena de alto desempenho. E, é claro, há a Intel, cujos gráficos estão atrasados tanto para a AMD quanto para a Nvidia atualmente, mas ainda dominam a área de CPU do PC. Ele também possui seu próprio conjunto de ferramentas de software. As diferentes abordagens devem fazer desta uma área fascinante para se assistir.