앞으로 생각 엔비디아는 그래픽과 '딥 러닝'을 목표로

엔비디아는 그래픽과 '딥 러닝'을 목표로

비디오: [오픈인터뷰]'가상화 스토리지'(IP SAN)에 관한 5가지 궁금증 (십월 2024)

비디오: [오픈인터뷰]'가상화 스토리지'(IP SAN)에 관한 5가지 궁금증 (십월 2024)
Anonim

엔비디아의 새로운 Titan X 그래픽 프로세서는 GM200 프로세서를 기반으로한다.이 칩은 80 억 개의 트랜지스터, 3, 072 개의 프로세싱 코어 및 12GB의 온보드 GDDR5 메모리를 활용하여 7 테라 플롭의 최대 단 정밀도 성능을 제공한다. 이 칩은 2 주 전에 Game Developers Conference에서 시연되었으며 회사의 현재 프로세서에있는 동일한 Maxwell 코어를 기반으로하며 동일한 28nm 공정에서 제조됩니다.

그러나 엔비디아는 이번 주 새로운 플래그십 지포스 GPU가 이전 제품보다 2 배의 성능과 2 배의 전력 효율을 제공 할 것이라고 밝혔다. 또한 현재 제조 된 가장 큰 크기의 칩에 대해 601mm2의 매우 큰 칩이며 250 와트의 전력을 소비합니다. 물론, 소매 가격이 999 달러 인 가장 비싼 일반 그래픽 칩이 될 것입니다.

ExtremeTech, Anandtech 및 TechReport와 같은 사이트의 리뷰는 대부분 긍정적입니다. 물론 현실에서는 벤더가 주장하는 성능이 두 배로 향상되는 것을 보지 못하지만 좋은 이점이 있습니다. 일반적으로 Titan X는 다른 단일 GPU 카드를 분명히 능가하는 것으로 보이며 AMD의 듀얼 GPU Radeon R9 295X2 또는 Nvidia의 듀얼 GeForce GTX 980 SLI와 비교할만한 가치가 있습니다. 대부분의 경우 두 벤더의 듀얼 GPU 카드가 단일 GPU 카드보다 빠르지 만 많은 게임에서 두 카드를 사용하지 않으며 다른 카드에서는 듀얼 카드 설정이 더 끊어 질 수 있습니다. 특히 많은 리뷰는 Titan X가 4K에서 얼마나 잘 수행되는지에 중점을 둡니다.

물론 경쟁이 치열한 PC 그래픽 세계에서 엔비디아의 주요 경쟁자는 굳게 앉아 있지 않을 것입니다. AMD는 자체적으로 새로운 카드가 기다리고 있다는 소문이 있습니다.

그럼에도 불구하고 화요일에 GPU 기술 회의 (GTC)에서 Titan X를 도입 할 때 가장 흥미로운 것은 Nvidia CEO Jen-Hsun Huang과 함께 딥 러닝 애플리케이션에서 칩을 사용하는 데 중점을 두었습니다. GPU를 사용하여 딥 러닝 기술을 극적으로 가속화 할 수 있음을 발견했습니다.

특히 Huang은 자동 자막 작성을 통한 이미지 인식에서부터 의료 연구, 자율 주행 차량에 이르는 응용 분야에 대해 이야기했습니다. 자동차 시장은 Tegra X1 칩과 자동차 산업을위한 Drive PX 솔루션을 도입하면서 CES에서 Nvidia의 주요 초점이었습니다. 기존 고급 운전자 보조 시스템 (ADAS)을 확장하여 시간이 지남에 따라 더욱 스마트하고 스마트하게 만들 수 있습니다. "나는 자율 주행 자동차의 빅뱅이 앞으로 몇 년 안에 나올 것이라고 믿는다." 황이 말했다.

나중에 Tesla Motors의 CEO 인 Elon Musk는 GTC 단계에서 Huang에 합류하여 실제로 운전하는 사람보다 안전한 자율 주행 차를 개발하는 것은 그리 멀지 않다고 말했습니다. 머스크는 테슬라의 현재 센서 제품군은 이미 고급 운전자 보조 기능을 갖추고 있지만 도시 환경에서 시간당 10-40 마일의 속도로 자율 주행하려면 더 많은 처리 능력이 필요할 것이라고 말했다. 그러나 그는 도로의 차량이 너무 커서 전환이 오래 걸릴 것이라고 말했다. 머스크는 "우리가 AI의 출현에 너무 가까워서 이상하다"고 말했다. "우리 인간이해야 할 일이 남아 있기를 바랍니다."

머신 러닝은 엔비디아가 테슬라 가속기를 추진하고있는 대부분의 고성능 컴퓨팅 (HPC) 애플리케이션과 다릅니다. 이러한 응용 프로그램에는 일반적으로 배정 밀도 부동 소수점이 필요하지만 딥 러닝 응용 프로그램에는 종종 단 정밀도 만 필요합니다. Titan X는 단 정밀도 만 제공합니다. 딥 러닝 애플리케이션을 위해 Nvidia는 DIGITS라는 새로운 프레임 워크, 데이터 과학자를위한 Deep GPU 교육 시스템 및 DIGITS DevBox라는 새로운 15, 000 달러의 어플라이언스를 제공합니다.

Huang은 내년 데뷔 예정인 Pascal GPU 아키텍처는 현재 세대의 Maxwell 프로세서 속도보다 10 배 빠른 딥 러닝 애플리케이션을 가속화 할 것이라고 말했다. 이것은 세 가지 새로운 기능에서 비롯됩니다. 혼합 정밀도 (16 비트 부동 소수점 더 많이 사용); 3 개의 메모리 대역폭을 가진 3D 스택 메모리를 사용하여 최대 32GB의 메모리 용량 2.7 배, NVBox 인터커넥트는 DevBox 또는 유사한 워크 스테이션에서 최대 8 개의 하이 엔드 GPU를 지원합니다 (4 개의 Titan X와 반대) 5 월에 출시 된 GPU). 언급 된 바는 없지만이 아키텍처 기반 칩은 차세대 공정 기술을 사용할 것으로 보인다. 결국, 최초의 28nm 칩은 2011 년에 출시되어 2012 년에 판매되기 시작했습니다. 따라서 내년까지 16nm 또는 14nm 이산 그래픽 칩을 보게되기를 바랍니다.

엔비디아는 그래픽과 '딥 러닝'을 목표로