x

이메일로 만나보는 스타트업 가이드

투자, 행사, 정부사업 등 스타트업 생태계 소식을 이메일로 편하게 받아보세요.

퀄컴이 데이터센터용 차세대 AI 추론 최적화 솔루션으로 AI 가속기 카드를 포함한 랙 솔루션인 퀄컴 AI200과 퀄컴 AI250을 발표했다. 이들 제품은 랙 규모 성능과 우수한 메모리 용량을 제공하며 AI 추론에서 업계 최고 수준의 낮은 총소유비용을 실현한다.

AI200과 AI250 모두 칩 단독이 아니라 냉각 장치와 전원을 모두 랙 하나에 통합한 랙 솔루션 형태로 발표됐다. 열효율을 위한 직접 액체 냉각, 스케일업을 위한 PCIe, 스케일아웃을 위한 이더넷, 안전한 AI 워크로드를 위한 기밀 컴퓨팅을 특징으로 하며 랙당 소비 전력은 160kW다.

AI200은 대규모 언어 모델과 멀티모달 모델 등 AI 워크로드에 최적화된 성능을 제공하고 낮은 총소유비용을 실현하도록 설계된 특수 목적형 랙 레벨 AI 추론 솔루션이다. 카드당 LPDDR 768GB를 지원하며 높은 메모리 용량과 저비용을 실현해 AI 추론에서 우수한 확장성과 유연성을 제공한다. AI200은 2026년 상용 출시될 예정이다.

AI250은 니어메모리 컴퓨팅 기반 혁신 메모리 아키텍처를 채택해 AI 추론 워크로드에 대해 유효 메모리 대역폭을 10배 이상 높이고 소비 전력을 대폭 절감해 효율성과 성능에 획기적인 진전을 가져온다고 한다. 이를 통해 효율적인 하드웨어 활용을 가능하게 하는 분리형 AI 추론(disaggregated AI inferencing)을 실현하며 고객 성능과 비용 요구를 충족시킨다고 퀄컴은 강조하고 있다. AI250은 2027년 초 상용 출시될 예정이다.

퀄컴 AI 프로세서는 엔비디아나 AMD GPU와 마찬가지로 칩 최대 72개가 단일 컴퓨터로 작동할 수 있는 랙 내에서 동작할 수 있다. 이들 AI 프로세서는 모바일 기기와 노트북용 칩에 탑재된 퀄컴 헥사곤 NPU를 기반으로 개발됐다고 한다.

AI200과 AI250은 주로 휴대폰, 노트북, 태블릿, 통신 장비용 프로세서를 제조해온 퀄컴에게 새로운 도전이며 엔비디아와 AMD 같은 경쟁사가 치열하게 경쟁하는 데이터센터용 AI 칩 시장으로의 새로운 진출을 의미하기도 한다.

퀄컴은 이미 사우디아라비아 정부 계열 펀드가 출자한 AI 기업 휴메인(Humain)이 AI200 및 AI250 랙 솔루션을 200메가와트 규모로 구매했다고 밝혔다.

https://platform.twitter.com/widgets.js

퀄컴 테크놀로지스의 기술 기획·엣지 솔루션·데이터센터 담당 수석 부사장 겸 총괄 매니저인 두르가 말라디는 AI200과 AI250을 통해 퀄컴은 랙 규모 AI 추론에서 가능한 걸 재정의하고 있다며 혁신적인 새로운 AI 인프라 솔루션은 전례 없는 총소유비용으로 생성형 AI를 배포할 수 있게 하는 동시에 현대 데이터센터가 요구하는 유연성과 보안성을 유지한다고 말했다.

그는 또 퀄컴이 보유한 풍부한 소프트웨어 스택과 개방형 생태계 지원으로 최적화된 AI 추론 솔루션 위에서 이미 학습된 AI 모델을 개발자와 기업이 통합, 관리, 확장하는 게 그 어느 때보다 쉬워졌다며 주요 AI 프레임워크와의 원활한 호환성과 원클릭 모델 배포를 통해 퀄컴 AI200과 AI250은 마찰 없는 도입과 신속한 혁신을 위해 설계됐다고 덧붙였다. 관련 내용은 이곳에서 확인할 수 있다.

뉴스 레터 구독하기

Related Posts

No Content Available
Next Post