Physical AI HBM Smart Factory SDV AIoT Power Semicon 특수 가스 정정·반론보도 모음 e4ds plus

인텔·구글, CPU·IPU 결합한 대규모 AI 시스템 구축 가속

기사입력2026.04.10 15:30


 
시스템 복잡도 높이지 않으면서 확장성 강화

인텔과 구글이 차세대 AI 인프라 고도화를 위한 장기 협력 확대를 공식 발표했다.

인텔은 10일 구글과 함께 AI 도입이 빠르게 확산되는 상황에서, 복잡해지는 클라우드 환경을 효율적으로 운영하기 위해 CPU와 주문형 IPU(인프라 처리 장치)의 역할을 더욱 강화하는 전략적 파트너십을 추진한다고 밝혔다.

AI 기술이 대규모로 활용되면서 데이터 처리 구조는 점점 이기종화되고 있다.

이에 따라 시스템 전체를 조율하고 안정적인 성능을 유지하기 위해 CPU의 중요성이 다시 부각되고 있다.

인텔과 구글은 이러한 흐름에 맞춰 인텔 제온(Xeon) 프로세서 기반의 인프라 최적화 작업을 여러 세대에 걸쳐 지속적으로 진행하며, 성능·전력 효율·총소유비용(TCO) 개선을 목표로 협력을 강화한다.

구글 클라우드는 이미 최신 인텔 제온 6 프로세서를 탑재한 C4·N4 인스턴스를 포함해 다양한 워크로드에 최적화된 인스턴스를 운영 중이다.

이들 인스턴스는 대규모 AI 학습 조정, 지연 시간에 민감한 추론, 범용 컴퓨팅 등 폭넓은 작업을 지원하며, 인텔 CPU의 활용 범위를 지속적으로 확장하고 있다.

양사는 ASIC 기반 IPU 공동 개발도 확대하고 있다.

IPU는 네트워킹·스토리지·보안 등 기존에 CPU가 담당하던 인프라 기능을 분리해 처리하는 가속기로, 하이퍼스케일 환경에서 성능 예측 가능성과 효율성을 높이는 핵심 요소로 평가된다.

이를 통해 클라우드 사업자는 시스템 복잡도를 높이지 않으면서도 확장성을 강화할 수 있다.

인텔 제온 CPU와 IPU는 상호 보완적인 구조로 통합돼, 범용 컴퓨팅과 특화된 인프라 가속 기능을 균형 있게 제공하는 플랫폼을 구성한다.

이러한 구조는 AI 학습·추론·배포 등 다양한 단계에서 요구되는 성능과 유연성을 충족시키는 데 중요한 역할을 한다.

립-부 탄 인텔 CEO는 “AI 확산은 인프라 설계 방식 자체를 바꾸고 있다”며, 단순 가속기 중심이 아닌 균형 잡힌 시스템 구성의 중요성을 강조했다.

그는 CPU와 IPU가 최신 AI 워크로드의 요구를 충족시키는 핵심 축이라고 설명했다.

구글 AI 인프라 부문 아민 바흐다트 수석 부사장 역시 “CPU와 인프라 가속 기술은 AI 시스템의 전 과정에서 필수적인 요소”라며, 20년 가까이 이어진 인텔과의 협력 관계가 구글의 성능·효율성 요구를 충족시키는 기반이 되어 왔다고 평가했다.