컨텐츠로 건너뛰기
뉴스
서울
맑음 / 1.0 °
디지털데일리 언론사 이미지

"집고양이보다 모자란 AI" 글로벌 AI 심포지엄 화두는 'LLM 한계와 민주화'

디지털데일리 이건한 기자
원문보기
[현장] 글로벌 AI 프론티어 심포지엄 2025... 한미 AI 공동연구 성과 공유
[디지털데일리 이건한 기자] 27일 서울 용산 드래곤시티에서 '글로벌 AI 프론티어 심포지엄 2025'가 열렸다. 과학기술정보통신부와 정보통신기획평가원(IITP)가 주최한 이번 심포지엄은 국가적 인공지능(AI) 연구역량을 결집한 '국가AI연구거점'과 글로벌 협력 거점인 '글로벌 AI 프론티어랩' 소속 국내외 연구진이 한자리에 모이는 교류의 장이었다. 약 500명이 참석했으며 주요 연구 성과를 공유하고 AI 안전·신뢰 등을 주제로 논의를 진행했다.




이날 행사의 이목은 AI 분야 4대 석학으로 꼽히는 얀 르쿤 뉴욕대 교수, 스탠퍼드대 최예진 교수 키노트 발표로 집중됐다. 먼저 르쿤 교수는 현세대 거대언어모델(LLM) 근본적 결함을 지적하며 '월드 모델(World Model)'이라는 새로운 아키텍처로의 전환을 촉구했다. 최 교수는 현재 LLM 아키텍처 내에서 AI 학습 방식 혁신을 통한 'AI 민주화' 또한 중요하다고 강조했다.

◆ 얀 르쿤 "모라벡 역설 속 AI... 월드 모델이 해법"

이어진 기조연설에서 얀 르쿤 교수는 현세대 AI 기술의 핵심인 LLM이 "어떤 면에서는 정말 형편없다(really suck)"고 직설적으로 비판했다.

그는 "물리적 세계에 대한 이해도 측면에서 지금의 AI 시스템은 집고양이보다 똑똑하지 않다"고 지적했다. 현세대 AI가 체스처럼 인간에게 복잡한 규칙을 잘 처리하지만, AI가 동물에게 쉬운 물리적 세계의 탐색과 상호작용을 어려워하는 '모라벡 역설'을 화두에 올렸다.

이를 통해 르쿤 교수가 지적한 LLM 한계는 두 가지다. 첫째는 '텍스트에 갇힌 학습'이다. LLM은 방대한 텍스트로 훈련되지만 이는 고작 4살짜리 인간 아이가 시각·청각 등 감각으로 경험한 세상 데이터에 비해서도 극히 일부라는 주장이다. 그는 "텍스트 학습만으로는 AI가 인간 지능에 도달할 수 없다"며 영상을 포함한 '감각 데이터' 학습이 중요한 시점이라고 설명했다.

둘째는 '추론 능력의 부재'다. 현재 LLM은 주어진 입력 데이터로 다음에 출력할 단어를 예측하는 자기회귀(autoregressive) 방식으로 작동한다. 그러나 진정한 의미의 추론이나 계획 과정이 아니라고 봤다. 특히 이 과정을 반복할수록 AI의 추론에 오류가 누적될 수밖에 없는 구조적 결함이 따른다. 르쿤 교수는 "LLM은 지금 산업계에서 즉각적인 가치를 창출하고 있다. 하지만 이 같은 근본적 한계를 고려하면 향후 5년 내에 구식이 될 것"이라고 예측했다.





그는 대안으로 월드 모델을 제시했다. AI 내부에 세상이 어떻게 작동하는지에 대한 '시뮬레이터'를 구축하는 개념이다. 르쿤의 생각은 이를 통해 AI가 특정 행동에 따를 수 있는 여러 현실적인 결과들을 미리 예측하고 최적의 목표 달성을 위한 행동 순서를 계획할 수 있게 된다. 이는 다음 출력의 합리성을 확률적으로만 계산하는 LLM과 달리 인간의 사고 방식에 더 가깝다. 인간이 어떤 행동에 대한 현실 세계의 결과물을 미리 감각적으로 예상하고 최적의 대안을 선택하는 것과 유사하다는 뜻이다.

월드 모델을 구현할 핵심 아키텍처로 르쿤 교수는 자신이 연구 중인 'JEPA(합동 임베딩 예측 아키텍처)'를 제시했다. JEPA는 비생성형(non-generative) 접근법을 취한다. 비디오의 다음 프레임을 픽셀(디지털 이미지의 가장 작은 단위) 단위로 예측하는 대신 데이터의 '추상적 표현'을 학습하고 해당 표현 공간 내에서 예측을 수행한다.

르쿤 교수는 JEPA에 대해 "인간이 확산 중인 가스에 대해 모든 입자의 위치를 추적하는 대신 '압력, 부피, 온도' 같은 추상적 변수의 계산을 활용하는 것과 같다"고 설명했다. 이어 실제로 비디오 데이터 중심으로 학습된 'V-JEPA 모델'은 물체가 갑자기 사라지는 등 물리적으로 불가능한 장면을 볼 때 내부의 '예측 오류'가 급증하는 현상을 보였다.


이는 JEPA 기반 AI 모델이 세상의 상식적 원리를 습득했다는 증거 중 하나다. 인간이 초현실적인 현상을 마주했을 때 당황하는 반응과 비슷하다. 기존 AI 모델은 이런 인지가 부족하기 때문에 때때로 영상 생성형 AI에서 물리적 상식에 반하는 결과물이 생성되기도 한다.

최예진 "거대 모델 시대의 종말... 'AI 민주화' 이뤄야"

최예진 스탠퍼드대 교수는 르쿤 교수와 달리 현세대 LLM 혜택을 모두가 누릴 수 있는 'AI 민주화'가 중요하다는 메시지를 전했다. 그 근거로 "무작정 모델 규모를 키워야 성능이 좋아진다고 생각하는 무차별 대입 스케일링(brute-force scaling) 시대는 끝났다"고 주장했다.

그는 현재의 AI 모델 규모 경쟁이 데이터와 자본이 충분한 소수 거대 기업들만의 이야기라는 사실을 지적했다. 하지만 동시에 AI 학습 방식에 따라 작은 모델로도 충분히 빅테크의 대형 모델만큼 좋은 성능을 낼 수 있다는 생각이다.


이어 거대 AI 기업의 독점을 깨고 '다윗이 골리앗을 이기는' 해법으로 몇 가지 고정관념 혁파를 제안했다. 첫째는 '정성을 들인 강화학습(Effortful RL)'이다. 이를 증명하기 위해 최 교수 연구팀은 불과 15억(1.5B)개의 파라미터를 지닌 초소형 AI 모델을 대상으로 장기간 세심한 강화학습을 진행했다. 특히 이 과정은 모델의 창의성을 최적의 '골디락스 존'에서 유지하는 정교한 작업으로 소개됐다.

원래 골디락스 존은 천문 분야에서 '생명체 거주가 가능한 수준의 절묘한 균형'을 말한다. 이를 최 교수 설명에 대입하면 AI 모델이 논리적 추론 능력을 유지하면서 새로운 문제를 해결하고 복잡한 맥락 이해에 필요한 유연성까지 갖춘 '가장 최적의 세팅'을 말한다.




최 교수는 소형 모델도 사실 추론과 창의적 추론 역량의 균형을 잘 조합하면 지금보다 훨씬 높은 수준의 잠재능력이 개방된다고 봤다. 실제로 최 교수 연구팀의 실험 결과, 1.5B 모델은 복잡한 수학 문제 해결 능력에서 70억(7B) 파라미터 모델을 능가하는 성과를 거뒀다. 이는 모델의 크기보다 훈련 과정의 '질'이 중요함을 시사한다.

'사전학습 단계의 강화학습(RFT)'이라는 새로운 패러다임도 제시했다. 이는 기존 모델처럼 사전학습을 거쳐 완성된 기본 모델을 추가 조정하는 '파인튜닝(미세조정)' 방식이 아니다. 그는 파인튜닝 전 모델의 사전학습 단계부터 강화학습을 도입해 모델이 스스로 생각하는 법을 배우게 할 수 있다고 설명했다. 그 결과 AI 파운데이션(기초) 모델의 추론 능력이 향상됐으며 이어진 후속 파인튜닝에서도 향상된 성능이 유지됐다고 밝혔다.

이러한 소형 AI 모델의 잠재능력 해방 연구는 최 교수가 그리는 'AI 민주화'의 밑바탕이 된다. 그는 "AI는 매우 강력하기에 소수 기업, 권력자들의 몫이 되어서는 안 된다"며 "인간에 의한, 인간을 위한, 인간의 AI를 실현해야 한다"고 거듭 강조했다.

- Copyright ⓒ 디지털데일리. 무단전재 및 재배포 금지 -

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1남산 곤돌라 사업 제동
    남산 곤돌라 사업 제동
  2. 2대전 충남 통합
    대전 충남 통합
  3. 3통일교 금품 의혹
    통일교 금품 의혹
  4. 4삼성화재 10연패 김상우 감독 사퇴
    삼성화재 10연패 김상우 감독 사퇴
  5. 5장동혁 책임론
    장동혁 책임론

디지털데일리 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD