컨텐츠로 건너뛰기
뉴스
서울
구름많음 / 0.0 °
파이낸셜뉴스 언론사 이미지

"여자 옷 벗기기" AI로 사진속 여성 옷 벗기기 앱 이용폭증…성희롱 우려

파이낸셜뉴스 한승곤
원문보기
당사자 동의 없이 나체 사진 제작·배포 가능성

불법 음란물 유포

불법 음란물 유포


[파이낸셜뉴스] 미국에서 인공지능(AI)으로 사진 속 여성의 옷을 벗기는 딥페이크 애플리케이션(앱)과 웹사이트의 이용자가 폭증하고 있는 것으로 알려졌다.

딥페이크는 딥러닝과 페이크(fake)의 합성어다. AI를 기반으로 얼굴 등을 실제처럼 조작한 이미지나 영상을 말한다.

10일(현지시간) 블룸버그통신은 서비스형 소프트웨어 기업 그래피카를 인용해 지난 9월 한 달 동안에만 2400만명이 AI를 사용해 옷을 벗기는 딥페이크 웹사이트를 방문했다고 보도했다.

그래피카에 따르면 올해 초보다 9월에 X(옛 트위터)와 레딧 등 사회관계망서비스(SNS)에서 AI 옷 벗기기 앱을 광고하는 링크 수가 2400% 늘었다.

딥페이크 앱과 웹사이트는 AI를 사용해 사진 속 사람이 옷을 벗고 있는 것처럼 이미지를 만들며 사진 속 인물은 대부분 여성이다. 이 같은 앱과 웹사이트의 인기는 불과 몇 년 전보다 훨씬 그럴듯한 이미지를 만들 수 있는 AI의 출시 때문이라고 그래피카는 전했다.

그러나 이런 현상이 범죄에 악용될 수 있다는 우려를 심화시키고 있다고 블룸버그는 지적했다. SNS에서 당사자 동의 없이 사진을 가져와 음란물을 만들어 배포하는 심각한 문제를 일으킬 수 있다는 것이다.

외신들은 유명인사는 물론, 직장 동료나 같은 학교의 동급생, 버스에 탄 낯선 사람, 어린이 등의 사진을 입력하면 클릭 몇 번만에 사진 속 인물의 옷을 제거할 수 있다고 전했다.

한편 구글은 이 같은 문제에 대해 성적으로 노골적인 콘텐츠는 허용하지 않고 있다고 밝혔다. 레딧 대변인도 가짜 음란물의 동의 없는 공유는 금지하고 있으며 조사 결과 여러 도메인을 막았다고 말했다. 틱톡은 관련 키워드를 차단하고 있다고 밝혔다.

info icon이 기사의 카테고리는 언론사의 분류를 따릅니다.

AI 이슈 트렌드

실시간
  1. 1김주하 사기결혼
    김주하 사기결혼
  2. 2심형탁 신인상 수상
    심형탁 신인상 수상
  3. 3김아랑 은퇴
    김아랑 은퇴
  4. 4신민아 김우빈 결혼
    신민아 김우빈 결혼
  5. 5김주하 사기 결혼 전말
    김주하 사기 결혼 전말

파이낸셜뉴스 하이라이트

파워링크

광고
링크등록

당신만의 뉴스 Pick

쇼핑 핫아이템

AD