엔비디아가 22일 호놀룰루에서 개최된 인공지능 관련 컴퓨터 비전 및 패턴 인식 콘퍼런스인 ‘CVPR(Computer Vision and Pattern Recognition) 2017’에서 엔비디아 인공지능(AI) 랩 프로그램 참여 연구진 15명에게 최신 볼타(Volta) 아키텍처 기반 엔비디아 테슬라 V100(NVIDIA Tesla V100)을 증정했다.
약 150명 이상의 정상급 인공지능 연구진이 모인 본 콘퍼런스에 참석해, 15개 참가 연구기관의 대표자들에게 엔비디아 테슬라 V100 GPU 가속기의 성능에 관해 소개하고 직접 증정하는 시간을 가졌다.
인공지능 컴퓨터 비전 및 패턴인식 콘퍼런스 CVPR
최신 볼타 아키텍처 기반 엔비디아 테슬라V100
엔비디아가 22일 호놀룰루에서 개최된 인공지능 관련 컴퓨터 비전 및 패턴 인식 콘퍼런스인 ‘CVPR(Computer Vision and Pattern Recognition) 2017’에서 엔비디아 인공지능(AI) 랩 프로그램 참여 연구진 15명에게 최신 볼타(Volta) 아키텍처 기반 엔비디아 테슬라 V100(NVIDIA Tesla V100)을 증정했다.
약 150명 이상의 정상급 인공지능 연구진이 모인 본 콘퍼런스에 참석해, 15개 참가 연구기관의 대표자들에게 엔비디아 테슬라 V100 GPU 가속기의 성능에 관해 소개하고 직접 증정하는 시간을 가졌다.
테슬라 V100에 사용된 엔비디아의 7세대 GPU 아키텍처인 볼타는 이전 세대인 파스칼(Pascal)과 비교해 최대 5배 향상된 테라플롭(teraflops) 성능을 제공한다. 불과 2년 전에 발표된 맥스웰(Maxwell) 아키텍처와 비교하면 15배 수준에 이른다. 이처럼 강력한 성능은 무어의 법칙에서 예측하던 4배의 성능 개선을 뛰어 넘는 것이다.
테슬라 V100 GPU 가속기는 딥 러닝 성능에서 마의 벽이었던 100테라플롭을 무너뜨리고 있다. V100은 210억 개의 트랜지스터로 구성되었고, 640개의 텐서 코어(Tensor Core)가 포함되어 있으며, 120테라플롭의 딥 러닝 성능, NV링크(NVLink) 초고속 인터커넥트 및 초당 900GB 속도의 HBM2 DRAM을 갖춰 이전 세대 GPU보다 50% 더 빠른 메모리 대역폭을 자랑한다. 또한 CUDA, cuDNN 및 텐서RT(TensorRT) 등 프레임워크와 애플리케이션에서 인공지능 및 다양한 연구의 가속화 작업에 손쉽게 활용할 수 있는 모든 볼타 최적화된 소프트웨어의 지원을 받는다.
테슬라 V100 GPU를 증정 받은 스탠포드대학 컴퓨터 공학과 부교수 겸 교내 스탠포드 인공지능 연구소(SAIL)-AI 연구를 위한 도요타(Toyota) 센터 책임자인 실비오 사바레제(Silvio Savarese) 부교수는 “딥 러닝을 기반으로 종전에는 불가능했던 것들이 가능해지고 있다”며, “테슬라 V100은 여러 분야 중에서도 특히 자율주행 및 가상현실(VR) 분야의 새로운 연구에 활용될 것”이라 소감을 전했다.
엔비디아 젠슨 황 CEO는 “엔비디아는 인공지능 분야의 도전 과제에 대해 인식하고 있으며 이를 기반으로 인공지능에 더욱 접합한 형태로 엔비디아 GPU를 개발하는 작업도 진행하고 있다”고 말했다.