[AI리포터]
[디지털투데이 AI리포터] 엔비디아가 자체 개발한 인공지능(AI) 모델 '라마 네모트론 슈퍼 49B v1.5'(Llama Nemotron Super 49B v1.5)를 공개했다.
30일(현지시간) 온라인 매체 기가진이 전한 바에 따르면, 이 모델은 중국의 AI 모델 '큐원3 235B'(Qwen3 235B)와 '딥시크 R1 671B 0528'(DeepSeek R1 671B 0528)의 데이터를 활용해 추가 학습을 진행했으며, 490억개의 파라미터로 구성됐다.
엔비디아는 2600만개 이상의 데이터셋을 활용해 함수 호출, 명령 추적, 추론, 챗봇, 수학, 코드 데이터 등 다양한 영역에서 모델을 학습시켰으며, 벤치마크 테스트 결과, '라마 네모트론 슈퍼 49B v1.5'는 이전작과 '큐원3-32B'(Qwen3-32B) 모델을 뛰어넘었으며, '라마 네모트론 울트라 253B v1'(Llama Nemotron Ultra 253B v1)과도 유사한 성능을 보였다.
![]() |
엔비디아가 '라마 네모트론 슈퍼 49B v1.5'를 공개했다 [사진: 엔비디아 블로그] |
[디지털투데이 AI리포터] 엔비디아가 자체 개발한 인공지능(AI) 모델 '라마 네모트론 슈퍼 49B v1.5'(Llama Nemotron Super 49B v1.5)를 공개했다.
30일(현지시간) 온라인 매체 기가진이 전한 바에 따르면, 이 모델은 중국의 AI 모델 '큐원3 235B'(Qwen3 235B)와 '딥시크 R1 671B 0528'(DeepSeek R1 671B 0528)의 데이터를 활용해 추가 학습을 진행했으며, 490억개의 파라미터로 구성됐다.
엔비디아는 2600만개 이상의 데이터셋을 활용해 함수 호출, 명령 추적, 추론, 챗봇, 수학, 코드 데이터 등 다양한 영역에서 모델을 학습시켰으며, 벤치마크 테스트 결과, '라마 네모트론 슈퍼 49B v1.5'는 이전작과 '큐원3-32B'(Qwen3-32B) 모델을 뛰어넘었으며, '라마 네모트론 울트라 253B v1'(Llama Nemotron Ultra 253B v1)과도 유사한 성능을 보였다.
AI 성능 분석 사이트 '아티피셜 애널리시스'(Artificial Analysis)도 해당 모델이 큐원3 235B, '키미K2'(KimiK2), '마지스트랄 스몰'(Magistral Small) 등의 오픈 모델보다 뛰어난 성능을 보였다고 평가했다.
라마 네모트론 슈퍼 49B v1.5는 현재 공개돼 있는 상태이며, 추가 학습에 사용된 데이터셋도 수주 내로 공개될 예정이다.
<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>