[박찬 기자]
얀 르쿤 메타 수석 과학자가 인간 수준의 지능을 갖춘 인공지능(AI)의 핵심 조건을 밝히며, 현재의 대형언어모델(LLM)은 이 기준에 도달하지 못했다고 지적했다. 인공일반지능(AGI) 달성을 위해서는 월드 모델(WM) 개발이 왜 필수적인지를 자세하게 설명했다.
비즈니스 인사이더에 따르면, 르쿤 수석은 올해 초 프랑스 파리에서 열린 'AI 액션 서밋'의 세션에 등장, '지능'이라는 개념에 대해 설명했다.
그는 "모든 동물, 특히 인간이 보여주는 지능적 행동에는 네가지 핵심 요소가 있다"라고 말했다. 이는 물리적 세계에 대한 이해 지속 가능한 기억 논리적 추론 계층적인 행동 계획 수립 능력 등이다.
얀 르쿤 메타 수석 과학자가 인간 수준의 지능을 갖춘 인공지능(AI)의 핵심 조건을 밝히며, 현재의 대형언어모델(LLM)은 이 기준에 도달하지 못했다고 지적했다. 인공일반지능(AGI) 달성을 위해서는 월드 모델(WM) 개발이 왜 필수적인지를 자세하게 설명했다.
비즈니스 인사이더에 따르면, 르쿤 수석은 올해 초 프랑스 파리에서 열린 'AI 액션 서밋'의 세션에 등장, '지능'이라는 개념에 대해 설명했다.
그는 "모든 동물, 특히 인간이 보여주는 지능적 행동에는 네가지 핵심 요소가 있다"라고 말했다. 이는 물리적 세계에 대한 이해 지속 가능한 기억 논리적 추론 계층적인 행동 계획 수립 능력 등이다.
현재의 LLM은 이 네가지 요소를 제대로 구현하지 못하고 있다고 지적했다. 예를 들어, 인간의 시각을 흉내 내기 위해 비전 모델을 덧붙이거나, 기억을 보완하기 위해 검색 증강 생성(RAG)이나 연상 기억 시스템을 탑재한다는 것이다. RAG는 메타가 개발한 기술이다.
하지만 "이런 방식은 결국 '편법(hack)'에 불과하다"라고 말했다. 그리고 현실 세계를 모델링할 수 있는 '월드 모델(WM)'이 진정한 대안이라고 강조했다.
그리고 왜 WM이 대안인지를 설명했다. 그는 "WM은 특정 시점에서의 현실 세계 상태를 파악하고, 특정 행동을 상상할 수 있다는 것이 핵심"이라며 "그 행동이 일어난 뒤 세계 상태가 어떻게 변할지를 예측한다"라고 밝혔다.
또 세계는 무한하고 예측 불가능한 방식으로 진화하기 때문에, 이를 제대로 예측하려면 '추상화(abstraction)' 능력이라고 전했다.
르쿤 수석은 이런 방식을 지난해 2월 공개한 'V-제파(V-JEPA)'로 선보였다. 이는 비생성(non-generative) 모델로, 영상의 뒷부분을 숨기고 나머지 정보를 바탕으로 이를 예측하는 방식으로 학습한다.
"기존 동영상 모델처럼 픽셀 수준에서 예측하는 것이 아니라, 추상적 표현을 떠올리고 그 안에서 표현을 출력하도록 만든다"라고 설명했다. 즉, 기존 AI 모델은 이미지를 연결하는 것에 불과하지만, V-제파는 무엇이 일어날지를 예측하는 데 초점을 맞췄다는 것이다.
이 개념을 화학에서 물질을 구성하는 계층 구조에 비유했다. "우리는 입자 위에 원자, 그 위에 분자, 또 그 위에 재료를 쌓아가는 식으로 추상화를 진행했다"라고밝혔다.
또 이 방식을 통해 예측할 수 없는 세부 사항은 제거된다고 덧붙였다. 이는 "한 계층을 올라갈 때마다, 이전 계층의 불필요한 정보는 걸러내는 셈"이라고 설명했다.
그의 설명은 결국 인간이 세계를 이해하는 방식, 즉 계층적 추상화를 통해 복잡한 세상을 단순화하는 과정이 AI에도 적용되어야 한다는 것이다. 이런 방향이야말로 진정한 '지능형' AI 개발의 길이라고 강조했다.
한편, 르쿤 수석은 지난 4월에도 현재의 LLM 구조를 비판했다. "대부분은 확장성이 매우 나쁘다. 단순히 더 많은 데이터와 연산 자원을 투입한다고 해서 더 똑똑한 AI가 되는 것은 아니다"라며 스케일링 법칙(scaling laws)에 기댄 방식으로 더 높은 수준에 도달하려는 시도를 꼬집었다.
핵심 주장은 방대한 양의 자료를 학습한다고 해서 초지능(Superintelligence)이 탄생하는 것은 아니라는 것이다. 진정으로 '똑똑한' AI는 전혀 다른 방식으로 접근해야 한다는 것이다.
박찬 기자 cpark@aitimes.com
<저작권자 Copyright ⓒ AI타임스 무단전재 및 재배포 금지>




























































