금융보안원의 금융권 AI 보안 강화 계획/그래픽=이지혜 |
금융권이 인공지능(AI)을 앞세운 전면적인 AX(AI 전환)에 나서고 있는 가운데 이를 뒷받침할 금융보안 체계 역시 빠르게 발전하고 있다. 기술의 발전 만큼 보안 위협도 커지면서 금융보안원의 역할이 금융권의 안전한 AX를 뒷받침하는 방향으로 확대되고 있다.
12일 금융권에 따르면 금융보안원은 올해 AI 전담 조직을 2배 이상 확대하며 AI 중심으로 금융보안 전략을 재편했다. 기존 2개팀 9명 규모였던 AI 관련 조직은 올해부터 4개 팀 20명 수준으로 커진다.
특히 AI 보안 위협에 전문적으로 대응하기 위해 AI 레드팀을 별도 조직으로 신설했다. 레드팀이란 공격자의 관점에서 AI 시스템 고유의 결함과 취약점을 직접 탐색하는 조직이다. AI 레드팀은 금융권 AI 해킹 시나리오를 가정한 모의 공격으로 보안성을 검증하는 역할을 맡는다.
금융사들이 일제히 AI 대전환을 주요 경영목표로 세우면서 AI를 겨냥한 공격 가능성 역시 높아지고 있다. 특히 지난해 롯데카드와 신한카드에서 발생한 정보유출 사고와 SGI서울보증 랜섬웨어 사태 등으로 금융 보안에 대한 경각심이 높아졌다. 금융권의 AI는 이제 막 초기 단계라 새로운 취약점으로 노출될 수 있는 상태다.
실제 금융보안원이 지난해 하반기 실시한 AI 레드티밍(Red-teaming·적대적 공격 테스트) 결과에 따르면 금융권의 AI들은 단순한 우회 문구나 자동화된 공격에는 비교적 잘 대응했지만 RAG(검색증강생성) 기반 공격이나 인지적 조작, AI 에이전트를 활용한 고도화된 최신 공격에는 취약했다. AI 보안 책임 소재도 명확하지 않았다.
예컨대 챗봇이 욕설을 출력하거나 조작된 정보를 입력하는 사례가 발생했고 AI 모델 설정 정보가 외부로 노출될 수 있는 가능성도 확인됐다. AI가 대고객 서비스로 확산되는 상황에서 이러한 취약점은 단순한 기술 문제가 아닌 금융소비자보호 실패로 직결되는 리스크로 이어질 수 있다.
이에 최근 각 금융사가 금융 보안을 주요 경영 리스크로 다룰 수 있도록 '금융보안 관련 이사회 보고사항 안내서'도 발간했다. 개별 금융사가 개발자나 실무 부서 중심의 대응을 넘어 이사회 차원에서 조직 전반을 아우르는 대응 체계를 갖춰야 한다는 제안의 성격이다.
금융보안원은 특히 안전한 AI 에이전트 사용을 핵심으로 꼽았다. AI 에이전트는 생성형 AI의 한 분야로 스스로 추론하고 의사결정하는 AI다. 금융보안원이 인용한 연구자료에 따르면 금융권 AI 에이전트 시장 규모는 2024년 4억9000만달러에서 2030년 45억달러 가까이 성장할 것으로 예상된다.
금융보안원은 금융사가 자체적으로 AI 에이전트 보안 역량을 높일 수 있도록 AI 보안 평가지표, AI 통제(가드레일) 모델, AI 자동점검 도구를 배포하고 식별·모니터링 체계 점검을 지원할 방침이다. 동시에 취약점·보이스피싱 탐지와 대응에 AI를 적용해 AI를 방어 수단으로도 활용할 계획이다.
박상원 금융보안원장은 "올해는 AI 기술 활용이 본격적으로 대중화되고 AI 기반의 금융서비스가 폭발적으로 증가할 것으로 예상된다"라며 " 금융회사가 안전하게 AI를 활용할 수 있도록 전담 조직을 통해 선제적인 보안 점검과 자체 검증 체계를 지원해 나가겠다"고 말했다.
이병권 기자 bk223@mt.co.kr
Copyright ⓒ 머니투데이 & mt.co.kr. 무단 전재 및 재배포, AI학습 이용 금지.































































