AI 레드팀 테스팅 표준 연구 |
(대전=연합뉴스) 박주영 기자 = 한국전자통신연구원(ETRI)은 인공지능(AI)의 안전성과 신뢰성을 확보하기 위한 국제표준 개발에 착수했다고 19일 밝혔다.
ETRI는 AI 시스템의 위험을 미리 찾아내는 'AI 레드팀 테스팅' 표준과 소비자가 AI의 신뢰 수준을 쉽게 이해할 수 있는 '신뢰성 사실 라벨(TFL)' 표준을 국제표준화기구·국제전기기술위원회(ISO·IEC)에 제안했다.
AI 레드팀 테스팅은 생성형 AI가 잘못된 정보를 내놓거나 사용자 보호장치를 피해 악용되는 상황을 찾아내기 위해 시스템이 얼마나 안전한지를 공격적으로 탐색하며 테스트하는 방법이다.
연구원은 이 분야의 국제표준인 'ISO·IEC 42119-7'의 에디터 역할을 맡아 의료·금융·국방 등 분야에 공통으로 적용할 수 있는 국제 공통 시험 절차와 방법을 만들고 있다.
STA·네이버·업스테이지·셀렉트스타·KT·LG AI연구원 등 주요 기업과 협의체를 구성해 AI 레드팀 국제표준화 협력도 강화하고 있다.
신뢰성 사실 라벨은 AI 시스템이 얼마나 신뢰할 수 있는지를 한눈에 알 수 있도록 시각화한 것으로, ETRI는 'ISO·IEC 42117' 시리즈 표준 개발을 주도하고 있다.
이승윤 표준연구본부장은 "AI 안전과 신뢰성 분야의 국제표준화를 통해 단순한 기술력 확보를 넘어 AI 시대 규칙을 만드는 선도자 역할을 해 나가겠다"고 말했다.
한편 ETRI는 식품의약품안전처와 공동으로 내달 4∼5일 노보텔 앰배서더 서울 동대문호텔에서 '첨단 AI 디지털의료제품 레드팀 챌린지와 기술 워크숍'을 연다. 인공지능 의료기기 분야에서는 국내 최초로 열리는 행사로, 의료인·보안전문가 등이 참여해 AI의 편향, 위험성 등을 점검한다.
디지털의료제품 레드팀 챌린지 포스터 |
▶제보는 카카오톡 okjebo
▶연합뉴스 앱 지금 바로 다운받기~
▶네이버 연합뉴스 채널 구독하기
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>




























































