![]() |
29일 파네시아는 이러한 AI 인프라 설계 비전을 담은 기술 백서를 공개했다. 회사는 백서에서 현대 AI 모델의 트렌드와 이에 대한 한계를 소개하고, CXL과 XLink(NV링크, UA링크), 고대역폭메모리(HBM) 등을 활용해 AI 인프라를 개선하는 방안에 대해 다뤘다.
최근 AI 데이터센터는 매개변수(Parameter)와 토큰 입력수가 확대되는 초거대언어모델(LLM)의 용량 증가와 GPU 등 고정적 구조의 낮은 자원 활용도로 병목 현상이 발생하는 한계가 두드러지고 있다. 특히 메모리 자원 요구치가 테라바이트(TB)급으로 치솟으면서 100~200GB 수준의 HBM-GPU 구성 시스템이 더욱 확장돼야 하고, 이에 따른 비용 발생이 커지는 등의 부담도 확대되는 추세다.
파네시아는 백서를 통해 이러한 데이터 통신 오버헤드, 유연성 부족 문제 해결을 위해 CXL 3.0 기반의 컴포저블 구조의 솔루션을 소개하는 한편, 파네시아의 프로토타입을 활용한 실제 AI 응용 사례를 제시했다.
이와 함께 CXL을 넘어 현존하는 GPU 간 통신 표준, 랙 간 통신 네트워크 표준을 함께 아우르는 하이브리드 링크 아키텍처 기술도 소개했다. 높은 대역폭과 고속 연결·GPU 확장성을 갖춘 표준과 메모리 풀을 활용한 유연성 확보, 캐시 일관성 지원을 통한 성능 개선을 제공하는 CXL을 결합하겠다는 것이 주된 골자다. 이에 포함된 표준은 엔비디아의 GPU 간 통신 표준인 NV링크·NV링크 퓨전과 클러스터 간 네트워크를 지원하는 인피니밴드, UA 진영의 UA링크와 클러스터 간 이더넷 네트워크(울트라 이더넷 등)다.
정명수 파네시아 대표는 "작년 8월 키노트 발표를 준비하며 정리한 AI 인프라에 대한 의견을 보다 정제된 형태로, 많은 사람들에게 공유하기 위해 이 기술리포트를 작성하게 됐다"며 "AI를 잘 모르는 독자분들도 AI와 LLM을 이해할 수 있도록 최대한 쉽게 설명하고, 이러한 AI 서비스의 특성을 고려했을 때 미래의 AI 인프라가 어떻게 바뀔 것인가에 대한 논의를 다루었다. 관심 있는 분들에게 도움이 되면 좋을 것 같다"고 말했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -