컨텐츠로 건너뛰기
뉴스
서울
맑음 / -3.9 °
디지털투데이 언론사 이미지

中 딥시크, 오픈소스 AI 모델 '탈옥' 위험 경고

디지털투데이
원문보기
[AI리포터]
딥시크(deepseek) [사진: 셔터스톡]

딥시크(deepseek) [사진: 셔터스톡]


[디지털투데이 AI리포터] 중국 AI 기업 딥시크(DeepSeek)가 자사 AI 모델의 보안 취약성을 처음으로 공개했다.

20일(현지시간) 홍콩 사우스차이나모닝포스트(SCMP)에 따르면, 딥시크는 자사 오픈소스 모델이 악의적 행위자에 의해 탈옥될 위험이 크다고 밝혔다. 이 내용은 학술지 네이처(Nature)에 게재된 논문을 통해 공개됐으며 딥시크는 업계 기준과 자체 테스트를 바탕으로 모델을 평가했다고 설명했다.

그동안 미국 AI 기업들은 모델 위험성을 연구하고 대응 정책을 마련해왔지만, 중국 기업들은 상대적으로 조용했다. 다만 딥시크는 과거에도 프론티어 리스크(Frontier risks) 평가를 진행한 바 있다.

팡리앙 AI 안전 전문가는 이번 연구가 앤트로픽(Anthropic)의 레드팀(Red-team) 테스트를 포함해 더욱 정교한 평가를 제시했다고 분석했다. 레드팀 테스트는 AI 모델이 유해한 발언을 하도록 유도해 취약성을 검증하는 방식이다.

논문에 따르면, 딥시크의 R1 추론 모델과 V3 베이스 모델은 오픈AI GPT-4o, 앤트로픽 클로드3.7 소넷보다 산업 벤치마크에서 약간 높은 안전 점수를 기록했다. 그러나 외부 위험 통제 메커니즘을 제거한 환경에서는 상대적으로 안전하지 않다는 평가가 나왔다. 전문가들은 모델 훈련 과정에서의 세이프티 튜닝이나 외부 콘텐츠 필터만으로는 탈옥 공격에 취약할 수 있다고 경고했다.

실험 결과 모든 모델이 탈옥 공격에 노출됐으며, 특히 딥시크의 R1과 알리바바의 큐웬2.5(Qwen2.5)가 오픈소스 특성상 가장 위험하다고 지적됐다. 오픈소스 모델은 누구나 내려받아 수정할 수 있어 기술 확산에는 유리하지만, 동시에 안전 장치 제거도 가능하기 때문이다.


딥시크는 논문에서 "오픈소스 공유는 기술 확산을 촉진하지만, 악용 가능성도 높인다"며 "개발자들은 오픈소스 모델을 사용할 때 유사한 위험 통제 조치를 반드시 채택해야 한다"고 강조했다.

중국 정책 당국도 같은 우려를 표하고 있다. 중국 사이버공간관리국(CAC) 산하 기술 표준 기구는 "기초 모델의 오픈소스화는 악용 가능성을 높이며, 악성 모델 훈련을 용이하게 한다"고 경고했다.

이번 논문은 중국 AI 기업이 네이처에 피어 리뷰를 통과한 첫 사례라는 점에서도 의미가 크다. 전문가들은 이를 계기로 다른 중국 AI 기업들도 안전성과 보안 관련 연구를 더 적극적으로 공개할 가능성이 높다고 보고 있다.

<저작권자 Copyright ⓒ 디지털투데이 (DigitalToday) 무단전재 및 재배포 금지>

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1김병기 의혹 해명
    김병기 의혹 해명
  2. 2평양 무인기 의혹 재판부 기피신청
    평양 무인기 의혹 재판부 기피신청
  3. 3케데헌 골든글로브 2관왕
    케데헌 골든글로브 2관왕
  4. 4트럼프 베네수엘라
    트럼프 베네수엘라
  5. 5이태훈 LIV 골프
    이태훈 LIV 골프

디지털투데이 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD