LLM 수학 추론성능 높이는 학습기법 개발 및 적용모델 3종 오픈소스 공개
게임 AI 고도화를 위한 한국형 LLM 개발 본격화
SK텔레콤이 28일 크래프톤과 공동으로 개발한 7B(70억개 파라미터) 규모의 추론 특화 언어 모델(Language Model) 3종을 공개했다. /더팩트 DB |
[더팩트ㅣ조소현 기자] SK텔레콤이 28일 크래프톤과 공동으로 개발한 7B(70억개 파라미터) 규모의 추론 특화 언어 모델(Language Model) 3종을 공개했다.
이번에 공개한 모델은 수학 문제 해결과 코드 개발에 특화된 소형 언어 모델로, 크래프톤이 독자적으로 개발한 학습 기법을 적용했다. 이 기법을 바탕으로, 해당 모델은 수학 추론 벤치마크 AIME 25에서 뚜렷한 성능 향상을 기록, 그 효과를 입증했다. 수학은 공간지각과 논리 추론 역량이 요구되는 영역으로, 게임을 포함한 고난도 추론 분야와 기술적으로 밀접한 연관성을 갖는다. 이같은 역량 덕분에, 크래프톤은 해당 모델을 기반으로 한 게임 중심의 AI 기술 확장 가능성도 기대하고 있다.
SK텔레콤과 크래프톤은 언어 모델을 공동 개발하며, 각각 인프라 구축 및 학습 기법 개선을 통해 모델의 품질과 성능 고도화에 기여했다. 이번 협력은 도메인 특화 AI 모델 개발 역량을 입증한 사례로 평가받고 있다.
크래프톤은 기존 모델의 취약점을 분석해 이를 개선하는 오답 복기 학습 기법을 자체 개발했다. 해당 기법은 틀린 문제의 정답을 찾아 오답과 비교해 학습하며, 추론 정확도와 효율성을 동시에 확보하는 전략적 학습 방식이다.
SK텔레콤은 데이터 검증과 모델 학습의 인프라 구축을 담당하여, 모델의 품질과 안정성을 확보하는 데 기여했다.
앞으로 크래프톤은 이번 언어 모델에 적용한 학습 기법을 게임 플레이 분석, 전략 판단 등 게임 특화형 AI 응용 기술 고도화에 활용할 계획이다. 나아가 다양한 규모의 LLM을 개발해, 한국형 AI 기술 생태계의 독립성과 주도권을 확보하는 데 기여할 방침이다.
언어 모델은 글로벌 오픈소스 플랫폼인 허깅페이스(Hugging Face)를 통해 공개돼 누구나 자유롭게 활용할 수 있다.
sohyun@tf.co.kr
발로 뛰는 더팩트는 24시간 여러분의 제보를 기다립니다.
▶카카오톡: '더팩트제보' 검색
▶이메일: jebo@tf.co.kr
▶뉴스 홈페이지: http://talk.tf.co.kr/bbs/report/write




























































