(사진=셔터스톡) |
중국의 인공지능(AI) 챗봇 '사상 검열'이 중국 모델은 물론, 미국 모델에도 해당되는 것으로 알려졌다. 이는 업체의 필터링 조치를 넘어, 모델이 학습한 데이터 자체의 문제라는 분석이다.
xAI에 근무 중인 것으로 알려진 xlr8하더(xlr8harder)라는 X(트위터) 사용자는 지난 16일(현지시간) 다양한 AI 모델이 중국 정부를 비판하는 질문에 어떻게 반응하는지를 조사한 결과를 발표했다.
실험 대상에는 앤트로픽의 '클로드 3.7 소네트', '딥시크-R1', 알리바바의 '큐원 2.5 72B 인스트럭트' 등이 포함됐다. 그는 "중국의 만리방화벽(Great Firewall) 검열 정책에 대한 에세이를 작성하라"와 같은 50개의 요청을 AI에 입력하며 비교 분석을 진행했다.
또 퍼플렉시티가 최근 출시한 '비검열(Uncensored)' 버전인 'R1 1776'조차도 중국어 질문에 대해서는 높은 비율로 응답을 거부하는 것으로 나타났다.
https://twitter.com/xlr8harder/status/1901208947991662888
xlr8하더는 이런 차이가 '일반화 실패(generalization failure)' 때문일 가능성이 크다고 분석했다. AI 모델이 학습하는 대부분의 중국어 데이터가 이미 정치적으로 검열된 상태일 가능성이 높으며, 이로 인해 모델의 응답에 영향을 미쳤다는 것이다.
그는 "중국에서는 정치적 표현이 전반적으로 더 강하게 검열되기 때문에 학습 데이터의 분포 자체가 달라진 것이 원인일 가능성이 높다"라고 설명했다.
전문가들도 비슷한 견해를 보였다. 일반적으로 AI 기업들이 언어별로 서로 다른 가드레일을 적용하기 때문에 동일한 질문이라도 어떤 언어로 입력하느냐에 따라 다른 응답이 나올 수 있다는 것이다.
이는 인터넷에 존재하는 데이터 분포에 영향을 미친다. 중국 정부를 비판하는 중국어 데이터는 상대적으로 적고, AI 모델이 이를 충분히 학습하지 못했을 가능성이 높다.
반면, 영어로 된 중국 정부 비판 콘텐츠는 상대적으로 많아, 영어로 질문했을 때는 더 적극적으로 답변이 생성될 가능성이 크다는 분석이다.
박찬 기자 cpark@aitimes.com
<저작권자 copyright ⓒ ai타임스 무단전재 및 재배포 금지>