엔비디아가 대만에서 진행되는 기술박람회 컴퓨텍스(Computex)에서 세계적인 ODM 업체들과의 파트너 프로그램인 엔비디아 HGX 파트너 프로그램(NVIDIA HGX Partner Program)을 발표했다. 인공지능 클라우드 컴퓨팅에 관한 수요에 보다 빠르게 대응하기 위해 마련된 본 신규 파트너 프로그램을 통해 엔비디아는 폭스콘(Foxconn), 인벤텍(Inventec), 콴타(Quanta), 위스트론(Wistron)과 긴밀한 협력을 진행할 예정이다.
먼저 엔비디아는 각 ODM 업체에 엔비디아 HGX 레퍼런스 아키텍처, 엔비디아 GPU 컴퓨팅 기술, 디자인 가이드라인을 미리 공개할 예정이다. HGX는 마이크로소프트의 ‘프로젝트 올림푸스(Project Olympus)’, 페이스북의 ‘빅 베이슨(Big Basin)’ 시스템 및 엔비디아 DGX-1 인공지능 슈퍼컴퓨터에 사용된 것과 동일한 데이터센터 디자인이다.
지난 해 인공지능 컴퓨팅 리소스에 대한 전반적인 수요가 급속히 증가하면서, 엔비디아의 GPU 컴퓨팅 플랫폼의 성능 및 시장 도입 또한 급격하게 증가한 바 있다. 현재, 전 세계 상위 10대 하이퍼스케일 기업체들 모두 엔비디아 GPU 가속기를 자사 데이터센터에 활용하고 있다.
폭스콘·인벤텍·콴타·위스트론 등 서버 제조사
엔비디아 HGX 활용 하이퍼스케일 데이터센터용 인공지능 시스템 구축 예정
엔비디아가 대만에서 진행되는 기술박람회 컴퓨텍스(Computex)에서 세계적인 ODM 업체들과의 파트너 프로그램인 엔비디아 HGX 파트너 프로그램(NVIDIA HGX Partner Program)을 발표했다. 인공지능 클라우드 컴퓨팅에 관한 수요에 보다 빠르게 대응하기 위해 마련된 본 신규 파트너 프로그램을 통해 엔비디아는 폭스콘(Foxconn), 인벤텍(Inventec), 콴타(Quanta), 위스트론(Wistron)과 긴밀한 협력을 진행할 예정이다.
먼저 엔비디아는 각 ODM 업체에 엔비디아 HGX 레퍼런스 아키텍처, 엔비디아 GPU 컴퓨팅 기술, 디자인 가이드라인을 미리 공개할 예정이다. HGX는 마이크로소프트의 ‘프로젝트 올림푸스(Project Olympus)’, 페이스북의 ‘빅 베이슨(Big Basin)’ 시스템 및 엔비디아 DGX-1 인공지능 슈퍼컴퓨터에 사용된 것과 동일한 데이터센터 디자인이다.
지난 해 인공지능 컴퓨팅 리소스에 대한 전반적인 수요가 급속히 증가하면서, 엔비디아의 GPU 컴퓨팅 플랫폼의 성능 및 시장 도입 또한 급격하게 증가한 바 있다. 현재, 전 세계 상위 10대 하이퍼스케일 기업체들 모두 엔비디아 GPU 가속기를 자사 데이터센터에 활용하고 있다.
기존 제품 대비 성능이 3배 가량 향상된 새로운 엔비디아 볼타(Volta) 아키텍처 기반 GPU를 활용해, ODM 업체들은 최신 엔비디아 기술 기반의 새로운 제품으로 시장 수요에 대응할 수 있다.
엔비디아는 하이퍼스케일 클라우드 환경에 필수적으로 요구되는 고성능, 효율성, 대규모 확장성을 제공하기 위해 HGX 레퍼런스 디자인을 구성했다. HGX는 워크로드 니즈에 맞춰 쉽게 구성을 변경할 수 있어, 고성능 컴퓨팅, 딥 러닝 트레이닝 및 추론에 요구되는 다양한 방식에 따라 손쉽게 GPU 및 CPU를 조합할 수 있다.
표준 HGX 디자인 아키텍처에는 SXM2 폼팩터에 8대의 엔비디아 테슬라 GPU 가속기(NVIDIA Tesla GPU accelerators)가 포함되어 있으며, 엔비디아 NV링크(NVIDIA NVLink) 고속 인터커넥트와 최적화된 PCIe 토폴로지(topologies)를 이용해 큐브 메쉬(cube mesh)에 연결된다. 모듈형 디자인을 채택해, 전 세계 어느 데이터센터 랙에도 구축이 가능하며 필요한 경우 하이퍼스케일 CPU 노드를 활용할 수 있다.
엔비디아 테슬라 P100(Tesla P100) 및 V100 GPU 가속기 모두 HGX와 호환 가능하다. 따라서 올해 하반기 V100 GPU가 출시되면, 모든 HGX 기반 제품은 그 즉시 업그레이드가 가능하다.
엔비디아 GPU 클라우드 플랫폼은 카페2(Caffe2), 코그니티브 툴킷(Cognitive Toolkit), MXNet, 텐서플로우(TensorFlow) 등 엔비디아 GPU 클라우드 플랫폼에 최적화된 완전 통합형 딥 러닝 프레임워크 컨테이너들을 관리 할 수 있다.
각 업체의 관계자들은 “인공지능 기반 클라우드 환경으로 효율적인 업무가 가능해지고 컴퓨팅 요구사항에 획기적인 솔루션을 제공할 수 있을 것”이라며 기대를 표현했다.
마이크로소프트의 애저 하드웨어 인프라스트럭처 담당 제너럴 매니저 겸 수석 엔지니어인 쿠샤그라 바이드(Kushagra Vaid)는 “마이크로소프트의 프로젝트 올림푸스의 한 요소로서 개발된 HGX 인공지능 가속기는 최대 32개의 GPU를 연결할 수 있는 고대역폭 상호연결성 옵션을 통해 궁극의 성능 확장성을 달성한다”고 말했다.