[김민철 기자] [포인트경제] 인공지능(AI)이 금융 서비스의 핵심으로 자리 잡은 가운데 정부가 AI 활용에 따른 부작용을 막고 금융 소비자 신뢰를 높이기 위한 범정부 차원의 관리 체계를 마련했다.
15일 금융감독원은 금융회사가 AI 시스템의 도입부터 폐기까지 전 과정에 걸쳐 발생할 수 있는 잠재적 위험을 스스로 관리할 수 있도록 지원하는 '금융분야 AI 위험관리 프레임워크(AI RMF, AI Risk Management Framework)'를 도입한다고 밝혔다.
금융권 AI 활용 급증… '신뢰'와 '안전' 확보가 관건
15일 금융감독원은 금융회사가 AI 시스템의 도입부터 폐기까지 전 과정에 걸쳐 발생할 수 있는 잠재적 위험을 스스로 관리할 수 있도록 지원하는 '금융분야 AI 위험관리 프레임워크(AI RMF, AI Risk Management Framework)'를 도입한다고 밝혔다.
금융권 AI 활용 급증… '신뢰'와 '안전' 확보가 관건
금융권은 최근 AI 기반 대고객 서비스 출시와 내부 업무 혁신을 가속화하고 있다. 조사에 따르면 2025년 4월 말 기준 국내 118개 금융사가 총 653개의 AI 서비스를 준비하거나 운영 중인 것으로 나타났다.
그러나 AI의 데이터 의존성과 불투명성으로 인해 소비자 권익 침해나 금융시장 안정 훼손에 대한 우려도 커지고 있다. 특히 금융시장에서는 AI 오류가 실시간으로 전파되어 급격한 시장 변동을 유발하는 '플래시 크래시(Flash Crash)'가 발생할 가능성도 상존한다. 그럼에도 불구하고 국내 금융사 중 약 85%는 아직 AI 윤리원칙이나 위험관리 기준을 마련하지 못한 실정이다.
3대 핵심 프로세스: 거버넌스·위험평가·위험통제
금융회사는 AI 위험관리를 위한 의사결정기구(AI 윤리위원회 등)와 전담 조직을 구성해야 한다. 특히 CEO가 AI 관련 위험을 명확히 인식할 수 있도록 정기 보고 체계를 갖추고, 개발 부서와 독립된 전담 조직을 통해 통제력을 확보해야 한다.
위험 기반 접근방법(Risk-based approach)에 따라 AI 서비스별 위험을 분류한다. 법 준수 여부, 신뢰성, 보안성 등을 점검해 위험 등급을 산정하며, 특히 '대출 심사'와 같이 개인의 권리에 중대한 영향을 미치는 '고영향 AI'는 점수와 관계없이 고위험 서비스로 분류해 집중 관리한다.
위험 수준에 따라 통제 강도를 차등화한다. 저위험 서비스는 승인 절차를 축소하는 반면, 고위험 서비스는 출시 전 검증과 제3자 평가를 의무화한다. 금융안정성을 훼손할 우려가 있는 '초고위험 AI'의 경우 출시 여부 자체를 재검토해야 한다.
올해 1분기 시행… "자율적 관리 기반 마련"
이번 AI RMF는 법적 강제력이 없는 자발적 지침으로, 각 금융회사의 규모와 활용 범위에 따라 선택적으로 적용할 수 있다. 금융감독원은 업권별 의견 수렴을 거쳐 2026년 1분기 중 최종안을 확정하고 시행할 계획이다.
금융감독원 관계자는 "이번 프레임워크는 금융권이 혁신과 책임의 균형 아래 건전하게 AI를 활용할 수 있는 구조적 기반을 제시한 것"이라며, "앞으로 실태 점검 등을 통해 금융회사의 내부통제 체계에 AI 위험관리가 안착할 수 있도록 지원하겠다"고 밝혔다.
<저작권자 Copyright ⓒ 포인트경제 무단전재 및 재배포 금지>




























































