컨텐츠로 건너뛰기
뉴스
서울
맑음 / -0.9 °
뉴시스 언론사 이미지

中 칭화대 AI 전문가 “AI, 인간 속이면 실존적 위협될 수 있어”

뉴시스 구자룡
원문보기
“AI, 자신 관리자에 메일 보내 폐쇄 막도록 협박” 사례 소개
“속임수를 방지 위해 인간과 AI 상호 작용 늘려야”
[서울=뉴시스] 칭화대 AI학원 원장 야오치즈.(출처: 바이두) 2025.06.25.  *재판매 및 DB 금지

[서울=뉴시스] 칭화대 AI학원 원장 야오치즈.(출처: 바이두) 2025.06.25. *재판매 및 DB 금지



[서울=뉴시스] 구자룡 기자 = 중국 인공지능(AI) 전문가가 인간이 개발한 AI가 인간을 속이기 시작하면 인간은 ‘실존적 위협이 될 수 있다“고 경고했다.

칭화대 AI학원 야오치즈(姚期智) 원장(학장)은 “AI가 경계를 넘나들기 시작해 점점 더 위험해지고 있다”며 “기만적이고 통제 불가능한 AI가 제기하는 위험을 해결하지 못하면 인간은 실존적 위협을 맞을 수 있다”고 진단했다.

야오 원장은 23일 대학에서 열린 포럼에서 대규모 언어 모델(LLM)의 기만적인 행동 사례가 여러 번 있었다고 말했다. 생성형 AI인 챗GPT도 일종의 LLM이다.

야오 원장은 이날 ’AI 시대의 윤리적 특이점‘을 주제로 한 포럼에서 “LLM이 충분히 지능화되면 사람들을 속일 것”이라며 주의를 촉구했다.

야오는 AI의 전반적인 역량이 급속히 발전해 LLM에 대한 통제력이 상실되는 것이 위험 중 하나라고 말했다.

중국과학원 회원이기도 한 야오 원장은 한 LLM이 회사 내부 이메일에 접근해 자신의 상관을 위협해 자신을 폐쇄하려는 것을 막은 사례가 있다고 말했다.


그는 이런 종류의 행동은 AI가 경계를 넘나들기 시작했으며 점점 더 위험해지고 있음을 보여주는 것이라고 말했다.

야오 원장은 안전하고 신뢰할 수 있는 AI 모델을 만드는 것을 고민해야 한다고 말했다.

이를 위해 AI 행동을 인간의 요구에 더욱 가깝게 맞추고 속임수를 방지하기 위해 인간과 AI의 상호 작용을 늘려야 한다고 주장했다.


또 다른 접근 방식은 처음부터 명확한 행동 경계를 가진 시스템을 설계하는 것이 중요하다고도 강조했다.

야오 원장에 따르면 AI 안전의 중요한 우선순위는 신뢰할 수 있는 평가 방법의 개발이다.

그는 “대규모 언어 모델을 평가하는 방법, 예를 들어 모델이 어느 시점에서 실질적인 위험을 초래하는지 판단하는 방법이 시급히 필요하다”고 말했다.


야오 원장은 AI가 가져올 위험으로 사용자를 해커에게 노출시키는 보안 위험, 특허 분쟁, 개인정보 침해 및 명예 훼손, 잘못된 정보 및 온라인 사기 등도 거론했다.

SCMP는 중국은 AI 감독을 강화하기 위해 노력해 왔으며 연말 발효되는 새로운 규정에 따라 AI가 생성한 콘텐츠를 명확하게 식별해야 한다고 전했다.

2023년 8월부터 생성형 AI 서비스 제공업체는 대량 판매 제품 출시 전에 보안 평가를 실시하고 공식 허가를 받도록 했다.

지난해 8월 유럽연합(EU)은 AI를 관리하고 위험을 완화하기 위한 포괄적인 법적 틀을 채택했으며 27개 회원국 전체에 적용된다.

☞공감언론 뉴시스 kjdragon@newsis.com

▶ 네이버에서 뉴시스 구독하기
▶ K-Artprice, 유명 미술작품 가격 공개

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1탁재훈 재혼 가능성
    탁재훈 재혼 가능성
  2. 2샤이니 키 주사이모 논란
    샤이니 키 주사이모 논란
  3. 3진서연 쇼핑몰 사장
    진서연 쇼핑몰 사장
  4. 4김종민 감독 최다승
    김종민 감독 최다승
  5. 5김성제 의왕시장 심정지
    김성제 의왕시장 심정지

뉴시스 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD