[IT동아 김예지 기자] 2026년 1월 22일, 대한민국 인공지능(AI) 산업의 이정표가 될 ‘AI 기본법’이 시행된다. 이는 AI의 건전한 발전과 신뢰 기반 조성을 위한 국가 차원의 기본 규칙을 담은 법이다. 유럽연합(EU)의 AI법(AI Act)이 2026년 8월 전면 발효를 앞둔 점을 감안하면 사실상 세계에서 가장 먼저 전면적인 AI 법 체계를 가동하는 셈이다.
과기정통부는 지난해 9월 시행령 초안과 고시 및 가이드라인을 공개한 데 이어, 11월 AI 시행령 제정안을 마련했다. 지난 12월 30일 공공 부문 AI 도입 촉진을 위한 개정안까지 국회 본회의를 통과시키며 행정적 준비를 마쳤다. 정부는 법 시행 시점에 맞춰 세부 고시와 가이드라인을 발표하고, 향후에도 국민 의견을 지속 수렴해 제도를 보완해 나갈 방침이다. 전체 하위법령 및 가이드라인은 한국지능정보사회진흥원(NIA)에서 공개 중이며, 2026년 1월 21일까지 의견서를 제출할 수 있다.
2026년 1월 22일 AI 산업의 이정표가 될 ‘AI 기본법’이 시행된다 / 출처=AI 생성 이미지 |
과기정통부는 지난해 9월 시행령 초안과 고시 및 가이드라인을 공개한 데 이어, 11월 AI 시행령 제정안을 마련했다. 지난 12월 30일 공공 부문 AI 도입 촉진을 위한 개정안까지 국회 본회의를 통과시키며 행정적 준비를 마쳤다. 정부는 법 시행 시점에 맞춰 세부 고시와 가이드라인을 발표하고, 향후에도 국민 의견을 지속 수렴해 제도를 보완해 나갈 방침이다. 전체 하위법령 및 가이드라인은 한국지능정보사회진흥원(NIA)에서 공개 중이며, 2026년 1월 21일까지 의견서를 제출할 수 있다.
AI 기본법 주요 내용은?
AI 기본법은 AI 산업 진흥과 안전성 확보라는 두 마리 토끼를 쫓는다. 단순한 규제법이라기보다 AI 산업 성장을 위한 체계와 안전·신뢰 최소요건을 동시에 정립했다. 특히 국민의 안전과 인권에 직결되는 영역은 ‘고영향 AI’로 분류해 집중 관리한다. 에너지, 의료, 범죄 수사, 채용·대출 심사, 교통, 교육 등 사람의 생명, 신체, 기본권에 중대한 영향을 미치는 10개 영역이 이에 해당한다. 고영향 AI 사업자는 사전 검토와 고지, 안전성 확보 조치, 영향평가 등 엄격한 의무를 이행해야 한다.생성형 AI 서비스 이용관계도 / 출처=과기정통부 |
가장 강조되는 대목은 투명성과 안전성 확보다. 고영향 AI나 생성형 AI 제품·서비스를 제공할 때는 이용자에게 AI 사용 사실을 사전에 알려야 한다. 로고, 텍스트 등 가시적 워터마크를 표시하거나, 특정 기술을 활용한 비가시적 방법도 허용된다. 관련 문구, 약관, 설명서 등을 활용해 고지해야 한다. 특히 딥페이크처럼 실제와 혼동하기 쉬운 결과물에는 가시적 워터마크가 필수다. 이를 어기면 최대 3000만 원의 과태료가 부과되지만, 정부는 준비 기간을 고려해 과태료 계도기간을 최소 1년 이상 운영할 계획이라고 밝혔다.
다만 AI 기본법은 AI 개발사업자와 이용사업자에게 투명성 확보 의무를 부과하며, 단순히 AI 제품·서비스를 이용한 결과물을 서비스 등에 활용하는 경우는 의무 대상이 아니다. 예컨대, AI를 활용해 CG를 생성해 영화에 삽입한 영화 제작자는 AI 기본법 상 사업자가 아니며 이용자에 해당한다.
안전성 확보 의무도 중요하다. 학습에 사용된 누적 연산량이 10의 26승 부동소수점 연산(FLOPs) 이상인 고성능 AI 사업자에게도 책임이 따른다. 영업비밀 사항은 제외하되, 위험 식별과 평가, 완화 조치 이행 결과를 과기정통부에 제출해야 하며, 인간의 관리·감독 체계도 갖춰야 한다. 또한 정부는 AI 제품·서비스가 사람에게 미치는 영향을 자율적으로 평가하고 부작용을 완화할 수 있도록 AI 영향평가에 포함될 사항을 시행령에 구체화해 규정했다. 과기정통부가 수행하는 고영향 AI 확인 절차는 기본 30일이 소요되며, 한 차례만 기간을 30일 연장할 수 있다.
이에 정부는 기업에 대한 영향평가 비용 지원도 병행한다. 과기정통부는 “법 시행 후 기업 지원 예산 확보를 통해 AI 검·인증, 영향평가 수행 비용을 지원하고, 가이드라인도 개선해 나갈 것”이라고 밝혔다. 더불어 투명성 확보 의무 등에 대한 전문가 컨설팅도 병행할 계획이다. 한편, 국내 매출 100억 원 이상의 해외 빅테크 기업은 국내 대리인을 지정해야 하는 등 조항도 마련됐다.
원칙은 섰지만 기준은 현재진행형
최종 결과물에 워터마크 표시를 적용한 이미지 / 출처=과기정통부 |
법 시행이 코앞으로 다가오면서 기업은 단순한 규제 대응을 넘어, 서비스 특성에 맞는 실용적인 관리 체계를 구축해야 하는 상황에 놓였다. 그러나 업계의 체감 속도는 더디고, 준비는 갈 길이 멀다. 명확하지 않은 의무 이행 방법과 규제 준수를 위한 개발 리소스, 법무 비용 등에 대한 부담으로 인해 대비가 부족하다는 우려의 목소리가 높다.
AI 기본법은 원칙 중심의 틀을 제시했다는 점에서 의미가 크지만, 실제 적용 단계에서는 여러 모호한 지점이 존재한다. 특히 고영향 AI의 경우, 법적 정의는 있으나, 해당 여부를 판단하는 중대성이나 빈도, 특수성 등의 기준이 여전히 정성적 표현에 머물러 있다. 때문에 많은 기업이 자사 서비스의 규제 대상 여부를 높고 여전히 내부 검토를 반복하는 실정이다.
생성형 AI 표시·고지 의무 제도 역시 마찬가지다. 일상 서비스 깊숙이 AI가 들어오면서 관여 정도에 따른 적용 범위를 확정하기 어렵기 때문이다. 특히 ‘AI 사용이 명백한 경우나 사업자가 내부 업무를 처리하기 위해 AI를 활용하는 경우’와 같이 고지 의무가 완화되는 예외 조항은 기준의 불확실성을 키운다.
AI 투명성 확보 가이드라인 / 출처=과기정통부 |
AI 기본법은 기술 변화에 유연하게 대응하고자 세부 기준을 하위 법령과 가이드라인에 위임했다. 그러나 그 과정에서 발생하는 불확실성은 기업과 실무자에게 상당 부분 전가되고 있다. 구체적인 실무 답안지는 시행 이후의 행정 해석과 사례가 쌓여야 채워질 수밖에 없으며, 이 간극을 어떻게 줄여 나가느냐가 제도 안착의 핵심 과제가 될 전망이다.
한편, 기업들은 전략, 운영, 컴플라이언스를 통합한 ‘AI 거버넌스’ 도입에 속도를 내고 있다. AI를 책임 있게 활용하기 위한 전사적 관리 체계를 수립함으로써 안전성, 투명성, 공정성을 확보하려는 취지다. 이는 규제에 안정적으로 대응하면서 고객의 신뢰를 얻고 장기적인 성장 동력을 확보하는 전략적 선택이기도 하다.
AI 기본법의 원칙은 세워졌지만, 기준은 아직 현재진행형이다. AI 기본법은 기업에 부담인 동시에 기회다. 기준이 정립되어가는 과정 속에서 체계적인 관리 역량을 선제적으로 갖춘 기업만이 규제 리스크를 해소하고, 신뢰 기반의 AI 경쟁력을 선점할 수 있을 것이다.
IT동아 김예지 기자 (yj@itdonga.com)
사용자 중심의 IT 저널 - IT동아 (it.donga.com)




























































