컨텐츠로 건너뛰기
뉴스
서울
맑음 / -3.9 °
서울경제 언론사 이미지

[기자의눈] 국가대표 AI는 딥페이크 안 만들까

서울경제 김윤수 기자
원문보기
김윤수 테크성장부

국가대표 인공지능(AI) 타이틀을 두고 경합하는 ‘독자 AI 파운데이션 모델’ 개발사가 15일 1차 평가를 거쳐 다섯 팀에서 세 팀으로 압축됐다. 정부는 이를 시작으로 최종 두 팀을 추려 그래픽처리장치(GPU)와 데이터 지원을 집중함으로써 글로벌 빅테크에 맞먹는 모델 확보를 꾀한다.

이번 경합에 업계 관심이 집중되는 동안 해외에서는 그록과 관련된 논란이 불거졌다. AI 서비스 그록이 아동을 성적 대상으로 한 딥페이크 이미지를 생성하면서 각국에서 제재 움직임이 확대되고 있다. 1년 전 기술 혁신으로 글로벌 빅테크에 충격을 줬던 딥시크도 안전성 우려로 주요국에서 외면당했고 현재 중국 외 미국·유럽·인도·한국 등에서는 시장점유율이 5%에 못 미친다. 딥페이크 범죄나 정보 유출, 심지어 불법 무기 개발 같은 부작용을 통제하는 안전성이 시장에서 성능 못지않은 핵심 경쟁력이 된 것이다.

독자 AI 파운데이션 모델도 고성능 AI 모델로서 안전성 우려에서 자유로울 수 없다. 누구나 쓸 수 있는 오픈소스(개방형) 모델이라서 특히 그렇다. 오픈소스 모델은 “민간의 다양한 서비스 출시를 유도하고 국내 AI 산업 생태계의 활력을 제고한다”는 정부 취지대로 개방성을 앞세워 생태계를 빠르게 넓히는 데 유리하지만 외부 개발자가 모델을 임의로 변형할 수 있어 통제력은 더 낮다. 이에 최근 미국 미래생명연구소(FLI)의 ‘AI 안전성지수’에서 xAI·메타·딥시크·즈푸AI·알리바바 등 오픈소스 진영에서 내로라하는 5대 개발사 모두 1점 안팎의 낙제점을 받기도 했다.

독자 AI 파운데이션 모델 2차 평가부터는 성능뿐 아니라 안전성 전용 벤치마크(평가지표) 도입 등 관련 평가 비중을 확대할 필요가 있다. 이번 1차 평가는 13가지 공통 벤치마크를 통해 다각도로 이뤄졌지만 대부분 성능 평가 위주였다. 전문가 평가에서도 ‘안전하고 신뢰성 있는 AI 모델 개발 기술력’이 35점 만점 중 10점짜리 ‘개발 전략 및 기술’ 항목에 함께 반영된 정도다. 위험한 AI에 대한 규제 기준도 필요하다. ‘고영향 AI’ 규제 조항을 담은 ‘AI 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)’이 22일 시행을 앞뒀지만 여전히 기준이 추상적이라 실효성이 부족하다는 지적이 나온다.

김윤수 기자 sookim@sedaily.com
[ⓒ 서울경제, 무단 전재 및 재배포 금지]

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1장윤정 고현정 기싸움
    장윤정 고현정 기싸움
  2. 2김병기 금고 행방
    김병기 금고 행방
  3. 3울산 웨일즈 변상권 김도규
    울산 웨일즈 변상권 김도규
  4. 4워니 더블더블
    워니 더블더블
  5. 5안세영 인도 오픈 8강
    안세영 인도 오픈 8강

서울경제 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD