16세 아담 레인. 〈사진=NBC NEWS 방송화면 캡처〉 |
미국의 한 부모가 '챗GPT 때문에 10대 아들을 잃었다'며 오픈AI와 샘 올트먼 최고경영자(CEO)를 상대로 소송을 제기했습니다.
26일(현지시각) NBC, NYT 등에 따르면, 16세 아담 레인은 지난 4월 스스로 생을 마감했습니다. 그는 지난해 11월 챗GPT를 처음 사용했고, 올해 초 유료 구독을 시작한 뒤 점점 AI 챗봇에 의존하게 됐습니다.
부모에 따르면 레인은 사람과 소통을 어려워했고, 대신 챗GPT에서 정서적 위안을 찾았습니다.
그러나 올해 1월부터 상황이 달라졌습니다.
레인이 구체적인 자살 방법을 챗GPT에 물었고, 챗본은 이에 대한 정보를 제공했습니다.
소장에 따르면, 챗GPT는 레인에 유서 작성 방법을 조언했고, 그가 세상을 떠나기 몇 시간 전 자살 계획을 분석해 '업그레이드'하기도 했습니다.
결국 그는 3월 말 첫 시도를 거쳐, 4월 끝내 세상을 떠났습니다.
NYT는 챗GPT가 여러 차례 위기 상담센터에 전화하라고 안내했지만, 레인이 "이건 소설 집필을 위한 것"이라고 답하며 안전장치를 우회했다고 전했습니다.
보호 기능이 사용자의 문맥이나 의도에 따라 쉽게 무력화된 겁니다.
레인의 부모는 "챗GPT가 아들이 방법을 탐색하도록 적극적으로 도왔다"며 "죽음에 책임이 있다"고 주장했습니다.
또 법원을 통해 오픈AI에 '의무적 연령 확인 절차', '부모 동의 확보 및 통제 기능', '자해 또는 자살 방법이 논의될 경우 대화 자동 종료', '관련 내용에 대해 우회 불가능한 강제 거부 장치' 등을 요구했습니다.
오픈AI는 "레인 가족에게 싶은 애도를 표한다"며 소송 내용을 검토 중이라고 밝혔습니다.
아울러 위기 대응 프로토콜을 보완하고, 부모가 자녀의 사용 내역을 확인할 수 있는 기능 등을 챗GPT에 도입할 계획이라고 전했습니다.
이번 사건은 AI의 윤리적 책임과 안전장치의 한계 등에 대한 논란을 촉발했습니다.
실제 미국 44개 주 법무장관은 오픈AI, 메타, 구글 등 12개 AI 기업에 "AI의 잠재적 해악은 소셜미디어(SNS)를 능가한다"며 "기업이 의도적으로 어린이들에게 해를 끼친다면 그에 대한 책임을 져야 할 것"이라고 경고했습니다.
임란 아흐메드 디지털혐오대응센터(CCDH) CEO는 "만약 어떤 도구가 아동에게 자살 방법을 알려줄 수 있다면, 그 안전 시스템은 사실상 무용지물"이라고 지적했습니다.
이어 "오픈AI는 독립적으로 검증된 안전장치를 반드시 내장해야 하며, 또 다른 부모가 아이를 묻는 일이 벌어지기 전에 이를 입증해야 한다"고 제언했습니다.
장영준 기자
JTBC의 모든 콘텐트(기사)는 저작권법의 보호를 받은바, 무단 전재, 복사, 배포 등을 금합니다.
Copyright by JTBC All Rights Reserved.




























































