컨텐츠로 건너뛰기
뉴스
서울
맑음 / -3.9 °
아시아경제 언론사 이미지

[독자AI발표]연산량 줄였는데 챗GPT 넘는 성능…LG AI연구원 'K-엑사원'

아시아경제 박유진
원문보기
독자 AI 파운데이션 모델 1차 발표회
중저가 GPU에서도 구동 가능한 K-엑사원 공개
최정규 LG AI연구원 AI에이전트 그룹장이 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 발표하고 있다. 사진=박유진 기자

최정규 LG AI연구원 AI에이전트 그룹장이 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 발표하고 있다. 사진=박유진 기자


LG AI연구원은 학습 연산량을 기존 대비 3분의 1 수준으로 낮추면서도 미국의 챗GPT와 중국의 큐웬 등 글로벌 프론티어 모델을 웃도는 성능을 확보한 인공지능(AI) 모델 'K-엑사원'을 공개했다.

최정규 LG AI연구원 AI에이전트 그룹장은 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 "성능은 유지하면서도 학습에 필요한 연산량을 기존 대비 약 30% 수준으로 낮췄다"며 "효율적인 구조를 통해 비용 부담을 줄이는 데 초점을 맞췄다"고 말했다.

최 그룹장은 기존 대규모 언어모델(LLM)의 한계로 '연산 비용'을 꼽았다. 문장 속 모든 단어 간 관계를 계산하는 방식은 성능은 뛰어나지만, 학습과 운영에 많은 비용이 든다는 설명이다. 그는 "모든 정보를 다 계산하지 않아도 필요한 정보만 선택적으로 활용할 수 있다"며 "이를 위해 하이브리드 어텐션 구조를 효율적으로 설계했다"고 설명했다.

이 모델은 중저가급 GPU 환경에서도 구동이 가능하다. 최 그룹장은 "고가의 인프라가 아니어도 모델을 운영할 수 있어 초기 구축 비용과 운영 부담이 상대적으로 적다"며 "스타트업이나 중소기업도 바로 활용할 수 있는 AI 모델"이라고 말했다.

학습 방식은 단계적으로 구성됐다. 일반적인 기본 지식을 먼저 학습한 뒤, 사고력을 강화하는 학습을 거쳐, 마지막으로 특정 분야의 전문 지식을 학습하는 구조다. 최 그룹장은 "이전 단계에서 쌓은 지식을 바탕으로 다음 단계 성능을 끌어올리는 방식"이라며 "이런 학습 전략을 통해 가용 인프라를 효율적으로 활용할 수 있었다"고 설명했다. 실제 GPU 인프라 활용 효율은 평균 89.4%를 기록했다.

성능 평가 결과도 공개됐다. LG AI연구원이 주요 벤치마크 13개 항목을 자체 평가한 결과, 평균 성능은 목표치 대비 104%를 기록했다. 300B(3000억개) 파라미터 이하 모델 기준으로는 오픈AI의 GPT-OSS(120B)와 중국 큐웬3(235B) 등 글로벌 모델과 비교해도 상위권 성능을 확보했다고 설명했다.


안전성과 신뢰성도 강조했다. LG AI연구원은 학습 데이터 전반에 대해 컴플라이언스 검토를 진행하고, 문제가 될 소지가 있는 데이터는 다른 데이터로 대체하는 절차를 운영하고 있다. 또 인류 보편적 가치, 사회 안전, 한국적 특수성, 미래 위험 대응 등 여러 영역을 기준으로 모델을 점검하고 있다고 밝혔다.

박유진 기자 genie@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1탁재훈 추성훈 신스틸러상
    탁재훈 추성훈 신스틸러상
  2. 2백악관 황금열쇠
    백악관 황금열쇠
  3. 3당일배송 우리집
    당일배송 우리집
  4. 4강태오 김세정 베스트 커플상
    강태오 김세정 베스트 커플상
  5. 5김남희 조연상 수상소감
    김남희 조연상 수상소감

아시아경제 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD