▲AI 서버 출하량 표 (출처=트렌드포스)
챗GPT 기술 가속화...AI 서버·HBM 수요↑
4대 클라우드 기업, 전체 66.2% 차지
자율주행차, 챗GPT 등 AI 기술 발전이 가속화되는 가운데, 기업들의 대규모 고속 데이터 처리를 위한 AI 서버 도입 수가 확대될 것으로 분석된다.
지난 8일 발표된 트렌드포스에 따르면, 클라우드 서비스 제공업체(CSP)들은 AI 서버 개발에 대규모 투자를 단행함에 따라 AI 서버 출하량은 2022년부터 2026년까지 연평균 10.8%가 증가할 것으로 나타났다.
지난해 글로벌 연간 서버 출하량에서 범용 GPU를 탑재한 AI 서버가 차지하는 비중은 1%에 육박할 것으로 추산됐다. 올해는 생성 AI 등의 수요 증가로, AI 서버 출하량이 전년 동기 대비 8% 증가할 것으로 예상된다.
특히 4대 클라우드 기업인 구글, AWS, 메타, 마이크로소프트 등의 2022년 연간 전체 AI 서버 수요는 총 66.2%를 차지하는 것으로 나타났다. 중국에서는 바이트댄스가 2022년 6.2%, 이어 텐센트, 알리바바, 바이두가 각각 2.3%, 1.5%, 1.5%를 차지했다.
현재 서버 GPU의 시장 점유율에서 엔비디아는 현재 약 80%, AMD는 약 20%를 점유하고 있다. AI 관련 컴퓨팅에 사용되는 서버 GPU 시장에서 주류 제품은 엔비디아의 H100, A100, A800과 AMD의 MI250, MI250X 시리즈다.
이중 챗GPT는 주로 엔비디아의 A100을 채택하고, 마이크로소프트 애저의 클라우드를 활용하고 있다. 이에 따라 2023년 마이크로소프트의 AI 서버 수요를 집계하면 총 2만5000여대에 이를 것으로 전망된다. 바이두는 총 2,000대 수준이 될 것으로 전망된다.
또한 트렌드포스에 따르면, MS가 투자한 오픈 AI의 챗GPT의 확대는 HBM의 수요를 견인하고 있다. 초거대 AI가 대용량 데이터를 처리하기 위해 고성능의 하드웨어를 필요로 하게 됨에 따라, HBM의 수요도 증가될 것으로 예상된다.
조사에 따르면, 현재 HBM이 전체 D램 시장의 약 1.5%를 차지하고 있다. HBM 솔루션의 주요 공급업체는 삼성, SK 하이닉스, 마이크론이다. 이 가운데 SK하이닉스는 엔비디아가 채택한 HBM3 솔루션을 대량 생산할 수 있는 유일한 업체여서 HBM3 솔루션의 지배적 공급업체가 될 전망이다.
코로나 팬데믹으로 인한 공급망 부족 우려에 따라 재고를 올려 HBM 솔루션 수요가 크게 증가했지만, 2023년에는 이 수요 증가폭이 둔화될 것으로 예상된다. 트렌드포스는 현재 2025년까지 HBM 솔루션 시장이 40~45% 대를 웃돌며 확대될 것으로 전망하고 있다.
한편 AI 서버는 높은 수준의 데이터 처리 성능을 위해 고성능 컴퓨팅 리소스 및 대규모 스토리지 공간을 필요로 한다. 이에 따라 AI 서버를 운영하기 위해서는 대규모의 데이터센터의 중요성이 강조되고 있다. 데이터센터는 서버, 스토리지, 네트워크 장비 등을 포함한 컴퓨팅 환경을 제공하므로, 데이터센터 투자 또한 가속화될 것으로 전망된다.