컨텐츠로 건너뛰기
뉴스
서울
맑음 / -3.9 °
서울경제 언론사 이미지

네이버, 블랙웰 4000장 클러스터 구축···AI 개발 속도 12배 향상

서울경제 김성태 기자
원문보기
국내 최대 AI 컴퓨팅 인프라 확보
학습 기간 18개월→1.5개월
최수연 대표 "AI 자립·주권 뒷받침"


네이버가 엔비디아의 인공지능(AI) 가속기 ‘B200’ 4000장을 기반으로 국내 최대 규모의 인공지능(AI) 컴퓨팅 클러스터를 구축했다. B200은 엔비디아의 최신 설계 구조 ‘블랙웰’ 기반의 AI 가속기다. B200은 전작인 H100 대비 AI 학습 성능은 3배, 추론 모델 가동 성능은 15배 뛰어나다. 네이버는 이번 ‘B200 4K 클러스트’가 글로벌 상위 500위 수준의 슈퍼컴퓨터와 비교할 수 있는 수준의 컴퓨팅 규모라고 설명했다. 네이버는 AI 인프라를 기반으로 독자 파운데이션 모델 성능을 글로벌 수준으로 끌어올리고 이를 산업 현장에 투입한다는 계획이다.

8일 네이버에 따르면 이번 AI 컴퓨팅 클러스트를 통해 AI 모델 개발 전반의 속도와 유연성이 한층 강화됐다. 네이버가 내부 시뮬레이션을 진행한 결과 720억 개 매개변수(파라미터) 규모 모델을 학습할 때 기존 A100 기반 주력 인프라(2048장)로는 약 18개월이 걸렸지만 이번 클러스터에서는 약 한달 반 수준으로 단축됐다. 네이버는 학습 효율이 12배 이상 향상되면서 더 많은 실험과 반복 학습을 통해 모델의 완성도를 높일 수 있게 됐다고 설명했다. 다만 내부 시뮬레이션 결과이기 때문에 실제 학습 과제와 설정에 따라 소요 기간이 달라질 수 있다.

네이버는 이번 클러스트에 냉각과 전력, 네트워크 최적화 기술을 집약했다고도 강조했다. 2019년 엔비디아의 슈퍼컴퓨팅 인프라인 '슈퍼팟'을 세계에서 가장 빠르게 상용화한 데 이어 초고성능 GPU 클러스터를 직접 설계·운영하는 등 실증 경험을 축적한 바 있다. 네이버는 신속한 인프라 확장을 위해 서울 지역 임대 데이터센터에 ‘B200 4K 클러스터’를 구축했다.

네이버는 이번 클러스트를 바탕으로 현재 진행 중인 독자 파운데이션 모델 고도화에 속도를 낼 계획이다. 텍스트뿐만 아니라 이미지·비디오·음성을 동시에 처리하는 옴니모델 학습을 대규모로 확장해 성능을 글로벌 수준으로 끌어올리고 이를 다양한 서비스와 산업 현장에 단계적으로 적용할 예정이다.

최수연 네이버 대표는 “이번 AI 인프라 구축은 단순 기술 투자를 넘어 국가 차원의 AI 경쟁력 기반과 AI 자립·주권을 뒷받침하는 핵심 자산을 확보한 것”이라며 “네이버는 빠른 학습과 반복 실험이 가능한 인프라를 바탕으로 AI 기술을 서비스와 산업 현장에 유연하게 적용할 계획”이라고 말했다.

김성태 기자 kim@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1이서진 비서진 아이브
    이서진 비서진 아이브
  2. 2안세영 천위페이 기권
    안세영 천위페이 기권
  3. 3빅리거 대표팀 합류
    빅리거 대표팀 합류
  4. 4트럼프 그린란드 확보
    트럼프 그린란드 확보
  5. 5장우진 8강 진출
    장우진 8강 진출

서울경제 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD