HPE의 LLM용 그린레이크는 HPE의 인공지능(AI) 소프트웨어(SW)와 고성능컴퓨팅(HPC)을 함께 활용할 수 있는 슈퍼컴퓨팅 플랫폼이다. HPE는 전 세계 1위 슈퍼컴퓨터 ‘프론티어’를 구축했다. 10위권 슈퍼컴퓨터 중 1, 3, 8위를 HPE가 구축했다.
HPE는 기업들이 LLM용 그린레이크를 도입함으로써 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있다고 강조했다. 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공한다. 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원한다는 방침이다.
향후 HPE는 기후모델, 헬스케어, 생명과학, 금융서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션(앱) 시리즈를 출시할 예정이다. 이번에 선보인 LLM용 그린레이크는 해당 시리즈의 시작을 알리는 제품이다.
안토니오 네리(Antonio Neri) HPE 회장 겸 최고경영자(CEO)는 “오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 앱을 제공함으로써 HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다”고 말했다.
이어서 “이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 됐다”고 부연했다.
HPE는 병렬 구조로 여러 워크로드를 동시에 처리하는 다른 범용 클라우드 서비스와는 달리, HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다고 전했다.
해당 제품은 수백에서 수천개의 중앙처리장치(CPU) 또는 그래픽처리장치(GPU)에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. 기업들은 이를 통해 개념검증(PoC)단계에서 생산에 이르기까지 모든 과정을 더욱 가속화해 기업이 직면한 문제를 더욱 빠르게 처리할 수 있다는 것이 HPE의 설명이다.
조나스 안드룰리스(Jonas Andrulis) 알레프 알파 설립자 겸 CEO는 “HPE의 슈퍼컴퓨터 및 AI SW를 활용해서 알레프 알파는 더욱 효율적이고 신속하게 루미너스를 훈련할 수 있었다. 루미너스는 은행, 병원 및 로펌과 같은 주요 비즈니스들이 의사결정을 더욱 빠르게 내리고 시간과 자원을 절약할 수 있도록 도와주는 디지털 어시스턴트다. 파트너로서 HPE LLM용 그린레이크의 출시를 함께할 수 있어 매우 자랑스럽다”고 말했다.
이어서 “향후 HPE와의 협력 확대를 통해 루미너스를 클라우드로 확장하고 고객들에게 이를 서비스형(As-a-service)으로 제공함으로써 최종 고객들이 비즈니스와 연구 목표를 위한 새로운 애플리케이션 활용에 박차를 가할 수 있기를 기대하고 있다”고 피력했다.
- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -




























































