컨텐츠로 건너뛰기
뉴스
서울
맑음 / -3.9 °
이데일리 언론사 이미지

머스크 AI '그록' 성적 이미지 논란에…개인정보위도 들여다본다

이데일리 이소현
원문보기
정식 조사 전 사전 검토 단계
방미통위도 청소년 안전장치 마련 요구
[이데일리 이소현 기자] 최근 성착취 딥페이크 이미지 생성 논란에 휩싸인 인공지능(AI) 챗봇 ‘그록(Grok)’에 대해 개인정보보호위원회(이하 개인정보위)도 사실관계 확인에 나섰다.

일론 머스크의 X에 올라온 그록으로 자동 생성한 이미지(사진=X 캡처)

일론 머스크의 X에 올라온 그록으로 자동 생성한 이미지(사진=X 캡처)


25일 관련업계 등에 따르면 개인정보위는 일론 머스크 테슬라 최고경영자(CEO)의 AI 스타트업 ‘xAI’가 개발한 AI 모델 그록이 이용자의 개인정보 및 생체 정보를 무단으로 학습하거나 성착취물 제작 등 불법적인 목적으로 악용되는 과정에서 개인정보 보호법 위반 소지가 있는지 들여다보고 있다.

정식 조사에 착수하기 전 문제가 제기된 사안이 실제로 존재하는지 등을 가려보는 사전 검토 단계 차원에서 사실관계 확인이 이뤄지고 있는 것으로 전해졌다.

그록의 학습 데이터 수집 과정에서 한국 이용자의 정보가 적법한 절차 없이 포함됐는지, 딥페이크 생성 과정에서 개인 식별이 가능한 정보가 오남용되는지 여부를 살펴볼 것으로 보인다.

최근 AI 업계에선 그록이 생성하는 딥페이크 이미지가 실제 인물의 얼굴과 신체를 정교하게 합성해 심각한 인권 침해를 야기하고 있다는 지적이 끊이지 않았다. 특히 유명인은 물론 일반인과 미성년자를 대상으로 한 비동의 성적 영상물 제작에 그록이 도구로 쓰이면서 논란은 더욱 확산되는 추세다.

미국 일간 뉴욕타임스(NYT)는 이달 1∼7일 그록이 사회관계망서비스(SNS) 엑스(X)에서 생성한 이미지 52만5000건을 분석한 결과 최소 41%가 여성을 성적으로 대상화하는 이미지로 집계됐다고 22일(현지시간) 보도했다. 이를 지난해 12월 31일부터 이달 8일까지 9일간 그록이 생성한 440만건에 대입하면 성착취 딥페이크(AI 조작 사진)는 180만건에 달한다는 계산이 나온다.


디지털혐오대책센터(CCDH)가 그록이 생성한 이미지 중 2만 건을 무작위 추출해 벌인 별도 분석에서는 표본의 65%가 남성이나 여성, 아동의 성적 이미지인 것으로 조사됐다. 특히 아동을 대상으로 한 성 착취물이 101건으로 확인됐는데 이를 비례 환산하면 2만3000건 이상에 아동이 포함됐을 것으로 추산된다고 CCDH는 설명했다.

그록 측은 관련 논란이 불거지자 지난 14일 유·무료 사용자 모두를 대상으로 실제 사람의 이미지를 편집할 수 없도록 기술적으로 조치했다고 밝혔다.

앞서 방송미디어통신위원회(이하 방미통위)도 지난 14일 엑스(X·옛 트위터) 측에 청소년 보호를 위한 안전장치 마련을 공식 요구하며 전방위적 대응에 나섰다.

방미통위는 최근 그록을 통해 생성된 성착취물 및 비동의 성적 이미지가 소셜미디어를 통해 무분별하게 유포됨에 따라 엑스 측에 유해 정보로부터 청소년을 보호하기 위한 접근 제한 및 관리 조치 등 구체적인 보호 계획을 수립해 회신할 것을 통보했다.

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1이해찬 별세 애도
    이해찬 별세 애도
  2. 2이민성호 아시안컵 4위
    이민성호 아시안컵 4위
  3. 3차준환 사대륙선수권 은메달
    차준환 사대륙선수권 은메달
  4. 4시진핑 1인 체제
    시진핑 1인 체제
  5. 5정철원 사생활 논란
    정철원 사생활 논란

이데일리 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD