AI 면접관/게티이미지코리아 |
대학에서 ‘GPT 킬러’ 같은 인공지능(AI) 글 탐지 프로그램이 확산되고 있다. 이 프로그램은 대규모 언어 모델(LLM)이 생성한 텍스트를 학습한 후 문장의 구조나 어휘 사용 패턴을 분석해 AI의 글을 역추적한다. 개발사는 약 95%의 탐지 정확도를 내세운다. 하지만 실제로는 챗GPT 등장 이전의 인간 작성 글을 넣어도 AI 생성 확률이 80% 이상으로 판정되는 등 오류가 잦다. 논리적으로 잘 정리된 글마저 AI가 썼다는 평가를 받기 쉽다. 최근 자기소개서를 AI에게 대필시켰다는 이유로 면접에서 탈락하는 사례까지 등장하며 탐지 결과가 개인 진로 평가에 영향을 미치는 문제가 드러나고 있다.
이런 상황에서 교육기관의 ‘GPT 킬러’ 같은 프로그램 사용은 재고돼야 한다. 생성형 AI 모델 자체가 인간이 쓴 방대한 텍스트를 학습하여 인간과 유사한 글을 쓰도록 설계됐음을 고려하면 AI의 글과 인간의 글을 구분하는 것은 불가능할 수 있다. 실제로 미국에서는 이런 프로그램의 탐지를 피하려고 일부러 문법에 어긋나게 문장을 살짝 바꿔주는 ‘역탐지 회피’ AI 프로그램까지 등장했다. 이런 상황에서는 AI 글쓰기의 윤리적 기준과 교육적 활용 원칙을 먼저 논의하고 합의하는 것이 기술적 탐지보다 앞서야 한다.
또 다른 문제는 현재 널리 사용되는 ‘AI 면접’이다. 한국의 젊은 세대 절반 이상이 사람보다 AI 면접을 선호한다. 사람에 대한 신뢰가 약화된 사회일수록 AI를 믿는 정도가 커진다. 기업과 공공기관의 면접에서 얼마나 정실주의가 만연했으면 이런 현상이 나타났을까 생각도 된다. 그런데 현행 AI 면접 프로그램은 어떤 모델을 기반으로 어떤 데이터로 훈련됐는지 공개되지 않았다. 이런 불투명한 상황에서는 시민이 신뢰할 수 있는 공공기관이 AI를 평가·검증한 뒤 사용해야 한다. AI 사용 자체가 능사가 아니다. 믿을 수 있는 AI를 사용해야 한다. 이것이 확실치 않을 때는 사용을 유보해야 한다.
매일 조선일보에 실린 칼럼 5개가 담긴 뉴스레터를 받아보세요. 세상에 대한 통찰을 얻을 수 있습니다.
'5분 칼럼' 더보기
[홍성욱 서울대 과학학과 교수]
- Copyrights ⓒ 조선일보 & chosun.com, 무단 전재 및 재배포 금지 -




























































