AMD는 미국 캘리포니아 산호세에서 현지 시간으로 12일 ‘2025 어드밴싱 AI(2025 Advancing AI)’를 개최하고 자사의 차세대 통합 AI 플랫폼과 솔루션 포트폴리오를 공개했다. 이번 행사에서 AMD는 데이터 센터 및 HPC(고성능 컴퓨팅) 시장을 겨냥한 최신 Instinct GPU 제품군과 더불어, 인공지능 학습 및 추론 전반의 성능과 에너지 효율을 대폭 향상시킬 통합 솔루션을 발표했다.

▲AMD의 리사 수(Lisa Su) CEO가 AMD의 차세대 통합 AI 플랫폼과 솔루션 포트폴리오를 소개하고 있다.
Helios·MI350·ROCm 통합, 퍼포먼스·효율성·경제성 모두 만족
Oracle·Dell·HPE·Supermicro 등 글로벌 OEM과 긴밀한 협업
“AMD만의 독점적인 기술로 AI 시장을 선도하는 GPU와 CPU, 네트워킹, 개방형 소프트웨어를 통합, AI 전체 스펙트럼을 아우르는 탁월한 유연성과 성능을 제공할 것이다”
AMD는 미국 캘리포니아 산호세에서 현지 시간으로 12일 ‘2025 어드밴싱 AI(2025 Advancing AI)’를 개최하고 자사의 차세대 통합 AI 플랫폼과 솔루션 포트폴리오를 공개했다.
이번 행사에서 AMD는 데이터 센터 및 HPC(고성능 컴퓨팅) 시장을 겨냥한 최신 Instinct GPU 제품군과 더불어, 인공지능 학습 및 추론 전반의 성능과 에너지 효율을 대폭 향상시킬 통합 솔루션을 발표했다.
AMD의 핵심 전략은 단순한 개별 부품의 경쟁을 넘어 CPU, GPU, 네트워킹 컨트롤러(NIC) 등 모든 컴퓨팅 요소를 하나의 최적화된 플랫폼으로 결합해, AI 인프라 전반에서 혁신적인 가격 대비 성능을 실현하는 데 있다.
AMD의 리사 수(Lisa Su) CEO는 “AMD는 전례 없는 속도로 AI 혁신을 주도하고 있으며, 이는 AMD 인스팅트 MI350 시리즈 가속기 출시, 차세대 AMD ‘헬리오스’ 랙-스케일 솔루션의 발전, 그리고 ROCm 개방형 소프트웨어 스택의 성장 모멘텀을 통해 더욱 부각되고 있다”며 “AMD는 개방형 표준, 공동 혁신, 그리고 AI의 미래를 정의하고자 협력하는 광범위한 하드웨어 및 소프트웨어 파트너 생태계 전반에 걸쳐 AMD의 리더십을 확대하고 있으며, 이를 통해 AI의 다음 단계로 진입하고 있다”고 밝혔다.

▲AMD의 최신 Instinct MI350 시리즈
이번 행사에서 발표된 AMD의 최신 Instinct MI350 시리즈는 CDNA 4 아키텍처를 기반으로 한 데이터 센터 GPU로, 288GB의 고대역폭 HBM3E 메모리를 탑재해, 이전 세대 대비 최대 2.6배에서 4.2배에 이르는 AI 연산 능력 향상을 이뤘다.
MI350 시리즈는 공랭과 액체 냉각 시스템에 따라 MI350X와 MI355X 두 모델로 구분되며, 각각 에너지 효율과 집적도를 최적화해 다양한 데이터 센터 환경에 적용할 수 있도록 설계됐다.
이를 통해 AMD는 인공지능 추론 처리 시 토큰 처리량을 달러당 최대 40% 이상 개선, 비용 효율적인 AI 시스템 구축을 목표로 하고 있다.
특히 AMD는 차세대 AI 가속기인 Instinct MI400 시리즈와 이를 통합한 ‘Helios’ 랙 시스템을 예고하며, 올해 말부터 내년 초 도입될 완전 통합 솔루션으로 주목받고 있다.
MI400 GPU는 432GB HBM4 메모리와 300GB/s 이상의 메모리 대역폭을 통해 거대 모델 학습 및 고부하 AI 작업 환경에 최적화돼 있다.
Helios 랙은 MI400 GPU 외에도 최신 EPYC CPU, Pensando의 고성능 AI NIC를 결합해, UALink 등 차세대 인터커넥트 기술을 적용함으로써 최대 72개의 GPU가 하나의 시스템 내에서 원활하게 협업할 수 있도록 설계됐다.
이를 통해 대규모 AI 모델의 병렬 연산과 분산 학습 환경에서 우수한 확장성을 구현할 수 있을 것으로 기대된다.
또한 AMD는 자사의 개방형 소프트웨어 플랫폼인 ROCm 7.0을 통해 AI 개발자와 연구자들이 GPU의 성능을 극대화할 수 있도록 지원하고 있다.
ROCm 7.0은 AI 인퍼런싱과 트레이닝 작업의 효율성을 높이기 위해 FP4, FP6, FP8 등 다양한 혼합 정밀도 연산 방식을 지원하며, 오픈 소스 프레임워크(SGLang, vLLM 등)와 긴밀하게 연동돼 개발 생산성을 크게 향상시키는 데 초점을 맞췄다.
또한 AMD Developer Cloud를 통한 생태계 협력 강화와 OEM, 클라우드 서비스 제공업체와의 파트너십이 본격화됨에 따라, 향후 AI 전용 서버 및 통합 인프라의 빠른 상용화가 기대되고 있다.
AMD는 “미래 AI 시대는 단일 기업의 독주가 아닌, 개방형 협력 생태계를 통해 혁신이 이루어질 것”이라며 “Helios와 신규 Instinct GPU 제품군, ROCm 소프트웨어 스택 등을 통해 퍼포먼스와 효율성, 그리고 경제성을 모두 만족시키는 통합 AI 플랫폼을 구축하고자 한다”고 밝혔다.
특히 Oracle Cloud Infrastructure와의 협력을 비롯해 Dell, HPE, Supermicro 등 글로벌 OEM과의 긴밀한 협업이 이루어지면서, AMD의 솔루션이 향후 전 세계 데이터 센터 및 AI 연구 환경에 큰 변화를 가져올 것으로 예상된다.
이와 함께 AMD는 2030년까지 약 20단계 이상의 확장성을 갖춘 AI 인프라 로드맵을 공개하며, 최대 100대급 클러스터 구성을 통한 초대규모 AI 학습 및 추론 시스템 구축을 목표로 하고 있다.
이와 같은 미래 비전은 기존의 CPU 중심 컴퓨팅 아키텍처를 탈피해, CPU, GPU, 네트워킹, 스토리지 등 모든 요소가 유기적으로 결합된 통합 솔루션으로 자리 잡게 될 것으로 전망된다.
업계 전문가들은 “AI 전용 칩 시장의 경쟁이 치열해지는 가운데, AMD의 개방형 플랫폼 전략과 통합 솔루션은 Nvidia 등 기존 강자에 도전할 새로운 돌파구가 될 것”이라고 평가했다.
이번 행사에서 발표된 내용은 AMD가 지난 몇 년간 연구 개발에 집중해 온 기술적 집약체이자, 차세대 AI 시대의 혁신을 선도할 모범 사례로 평가받고 있다. 데이터 센터 인프라의 핵심 부품인 CPU, GPU, NIC의 완벽한 결합과 소프트웨어 생태계의 협업 강화는, AI 학습 및 추론의 새로운 패러다임을 제시하며 전 세계 AI 시장의 판도를 재편할 것으로 기대된다.
AMD의 이번 발표는 단순한 기술 혁신을 넘어, AI 산업 전반에 걸친 생태계 변화의 서막을 알리는 신호탄으로 평가받고 있다. 앞으로 AMD가 제시할 통합 AI 플랫폼은 대기업뿐만 아니라 중소기업, 스타트업 등 다양한 고객층에게 안정적이고 확장 가능한 AI 인프라 솔루션을 제공함으로써, 전 세계 AI 혁신을 가속화할 전망이다.