Lar Visão de futuro Nvidia visa gráficos e 'aprendizado profundo'

Nvidia visa gráficos e 'aprendizado profundo'

Vídeo: HARDWARE V2 - Arquitetura de computadores - CAP:05 - GPU - Graphics Processing Unit (Outubro 2024)

Vídeo: HARDWARE V2 - Arquitetura de computadores - CAP:05 - GPU - Graphics Processing Unit (Outubro 2024)
Anonim

O novo processador gráfico Titan X da Nvidia é baseado no processador GM200, que é um chip enorme, aproveitando a potência de 8 bilhões de transistores, 3.072 núcleos de processamento e 12 GB de memória GDDR5 integrada para 7 teraflops de desempenho de precisão única. Esse chip, que foi visualizado na Game Developers Conference há duas semanas, é baseado nos mesmos núcleos Maxwell que estão nos processadores atuais da empresa e é fabricado no mesmo processo de 28nm.

Mas a Nvidia disse nesta semana que seu novo GPU GeForce, principal carro-chefe, ofereceria o dobro do desempenho e o dobro da eficiência de energia de seu antecessor. É também um chip muito grande, com 601 mm2, o chip de maior tamanho fabricado atualmente e consumirá 250 watts de potência. E, claro, será o chip gráfico geral mais caro, com um preço de varejo sugerido de US $ 999.

A maioria das análises de sites como ExtremeTech, Anandtech e TechReport é bastante positiva. Obviamente, no mundo real, ninguém vê a duplicação de desempenho que o fornecedor alega, embora haja alguns bons ganhos. Em geral, o Titan X parece superar claramente outras placas de GPU única e faz um trabalho digno de crédito ao comparar com a GPU dupla da AMD Radeon R9 295X2 ou a GeForce GTX 980 SLI da Nvidia. Em muitos casos, uma placa de GPU dupla de qualquer fornecedor será mais rápida do que qualquer placa de GPU única, mas muitos jogos não usam ambas as placas e, em outros, as configurações de duas placas exibem mais gagueira. Em particular, muitas das análises focam no desempenho do Titan X em 4K.

É claro que o principal rival da Nvidia no mundo competitivo de gráficos para PC provavelmente não está se mantendo firme - há rumores de que a AMD tenha sua própria nova placa esperando nos bastidores.

Mais uma vez, porém, o que achei mais interessante sobre a introdução do Titan X na GPU Technology Conference (GTC) na terça-feira foi o foco no uso do chip em aplicativos de aprendizado profundo, com Jen-Hsun Huang, CEO da Nvidia, falando sobre como os pesquisadores descobriram que técnicas de aprendizado profundo podem ser drasticamente aceleradas usando GPUs.

Em particular, Huang falou sobre aplicativos que vão do reconhecimento de imagens com redação automatizada de legendas à pesquisa médica e veículos autônomos. O mercado automotivo foi o foco principal da Nvidia na CES, ao apresentar seu chip Tegra X1 e sua solução Drive PX para a indústria automobilística. A idéia é aumentar os sistemas avançados de assistência ao motorista (ADAS) existentes para que eles se tornem cada vez mais inteligentes. "Acredito que o Big Bang de carros autônomos está prestes a chegar nos próximos anos." Huang disse.

Mais tarde, Elon Musk, CEO da Tesla Motors, juntou-se a Huang no palco do GTC para dizer que o desenvolvimento de carros autônomos que são realmente mais seguros do que aqueles com humanos dirigindo não está tão longe. Musk disse que os atuais conjuntos de sensores em um Tesla já são capazes de recursos avançados de assistência ao motorista, mas dirigir em um ambiente urbano a velocidades de 10 a 40 milhas por hora exigirá mais poder de processamento. Ainda assim, ele disse que a transição levará muito tempo, já que a frota de veículos na estrada é muito grande. "É estranho que estejamos tão perto do advento da IA", disse Musk. "Eu só espero que tenha sobrado algo para nós humanos fazermos."

O aprendizado de máquina é diferente da maioria dos aplicativos de computação de alto desempenho (HPC) em que a Nvidia pressiona seus aceleradores Tesla. Esses aplicativos geralmente requerem ponto flutuante de precisão dupla, enquanto os aplicativos de aprendizado profundo geralmente precisam apenas de precisão única. O Titan X oferece apenas precisão única. Para aplicativos de aprendizado profundo, a Nvidia está oferecendo uma nova estrutura chamada DIGITS, o Deep GPU Training Systems para cientistas de dados e um novo equipamento de US $ 15.000 chamado DIGITS DevBox.

Olhando para o futuro, Huang disse que a arquitetura da GPU Pascal, que deve estrear no próximo ano, acelerará os aplicativos de aprendizado profundo dez vezes além da velocidade de seus processadores Maxwell da geração atual. Isso vem de três novos recursos: precisão mista (mais uso do ponto flutuante de 16 bits); 2, 7 vezes a capacidade de memória de até 32 GB através do uso de memória 3D empilhada com três vezes a largura de banda de memória e a interconexão NV Link, permitindo até oito GPUs de ponta em uma DevBox ou em uma estação de trabalho semelhante (em oposição aos quatro Titan X GPUs no único envio em maio). Não foi dito, mas é provável que os chips baseados nessa arquitetura usem a tecnologia de processo da próxima geração. Afinal, os primeiros chips de 28nm foram lançados em 2011 e começaram a ser vendidos em 2012. Portanto, no próximo ano, espero que vejamos chips gráficos discretos de 16nm ou 14nm.

Nvidia visa gráficos e 'aprendizado profundo'