[박찬 기자]
네오 클라우드 기업 코어위브가 엔비디아의 최신 고성능 AI 칩 '블랙웰 울트라(Blackwell Ultra)' 기반 서버를 세계 최초로 도입하며 주목받았다.
코어위브는 3일(현지시간) 엔비디아의 차세대 AI 칩 '블랙웰 울트라'가 탑재된 신형 서버 시스템 GB300 NVL72를 세계 최초로 도입했다고 발표했다. 이번 시스템은 델 테크놀로지스가 제작했으며, 미국 내 데이터센터에서 조립 및 배치됐다.
코어위브는 앞으로 이 시스템을 차례로 추가 배치할 예정이라고 밝혔다.
네오 클라우드 기업 코어위브가 엔비디아의 최신 고성능 AI 칩 '블랙웰 울트라(Blackwell Ultra)' 기반 서버를 세계 최초로 도입하며 주목받았다.
코어위브는 3일(현지시간) 엔비디아의 차세대 AI 칩 '블랙웰 울트라'가 탑재된 신형 서버 시스템 GB300 NVL72를 세계 최초로 도입했다고 발표했다. 이번 시스템은 델 테크놀로지스가 제작했으며, 미국 내 데이터센터에서 조립 및 배치됐다.
코어위브는 앞으로 이 시스템을 차례로 추가 배치할 예정이라고 밝혔다.
블랙웰 울트라는 2024년 3월에 공개된 엔비디아의 최신 고성능 AI GPU로, 기존 블랙웰 대비 최대 50배 더 많은 AI 콘텐츠 생성 능력을 갖춘 것으로 알려졌다.
코어위브가 도입한 'GB300 NVL72' 랙 하나에는 72개의 블랙웰 울트라 GPU와 36개의 72코어 ARM 기반 그레이스(Grace) CPU, 그리고 36개의 블루필드(BlueField) DPU가 포함돼 있다.
FP4 기준 1.1 엑사플롭스(EFLOPS)의 추론 성능과 FP8 기준 0.36 엑사플롭스의 학습 성능을 제공하며, 이는 기존 'GB200 NVL' 대비 50% 향상된 수치다.
GPU당 최대 1400와트(W)에 달하는 전력을 소모하기 때문에, 액체 냉각 시스템을 채택했다. 또 20TB의 'HBM3E' 고대역폭 메모리와 총 40TB의 RAM, 그리고 엔비디아의 '퀀텀-X800 인피니밴드(Infiniband)' 스위치와 '커넥트X-8 슈퍼NIC'를 통해 이전보다 두배 빠른 초당 14.4GB 속도의 확장 네트워크를 지원한다.
코어위브는 오픈AI를 비롯한 다양한 AI 기업에 GPU 클라우드 인프라를 제공하는 서비스형 인프라(IaaS) 기업으로, 이번 도입을 통해 대언어모델(LLM) 학습 및 추론, 연산 능력을 확장할 계획이다.
특히 이번 사례는 델과 협력으로 하드웨어, 소프트웨어, 서비스가 통합된 일체형을 신속하게 구축한 것으로 꼽힌다. 따라서 앞으로 빠른 속도로 고성능 AI 인프라를 제공할 수 있는 기반이 마련됐다는 평이다.
피터 살란키 코어위브 CTO는 "우리는 항상 AI 개발의 한계를 넓히기 위해 노력해 왔으며, 이번 도입은 차세대 AI 모델 훈련을 위한 최첨단 클라우드 인프라의 일환"이라고 강조했다.
델은 이번 배치가 "단순한 마일스톤이 아니라, 고객과 파트너가 델의 통합 엔지니어링과 빠른 구축 능력을 신뢰하고 있다는 증거"라고 밝혔다. 델은 지난해에도 코어위브와 협력해 GB200 NVL72 시스템을 업계 최초로 도입한 전례가 있으며, 이번 GB300는 경쟁사보다 앞서 실제 환경에 적용된 두번째 사례다.
참고로 이전까지는 엔비디아의 최신 시스템은 주요 고객사인 마이크로소프트(MS)가 처음으로 상용 배치해 왔다.
그러나 이번에는 엔비디아의 투자를 받은 코어위브가 가장 먼저 도입했다. 마이크로소프트나 아마존, 구글과 같은 대형 클라우드 기업에 비해 규모는 작지만, 엔비디아와의 관계로 인해 가장 먼저 최신 GPU를 확보해 서비스할 수 있게 됐다.
한편, GB200 출시 이후 7개월 만에 GB300 시스템이 상용화됨에 따라, 초기 블랙웰 플랫폼의 수명이 짧아질 수 있다는 관측도 나왔다. 이는 최신 고성능 칩에 대한 잠재 수요가 이미 상당하다는 것을 보여주는 것으로, 엔비디아의 하반기 매출 증가에 긍정적인 영향을 줄 것으로 전망됐다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>




























































