
인공지능(AI) 발전과 신뢰 기반 조성 등에 관한 기본법(AI기본법)이 22일부터 본격 시행된다.
21일 과학기술정보통신부에 따르면 AI기본법은 국가 AI거버넌스를 법제화하고 AI산업 활성화와 인프라 조성, AI혁신을 뒷받침하는 안전신뢰 기반에 관한 내용을 담고 있다. AI산업 진흥에 방점을 두고 필요최소 규제 원칙 아래 AI사업자에 대한 의무사항이나 제재는 최소화하고, AI산업 진흥을 위한 사항은 폭 넓게 반영했다.
구체적으로 국가AI전략위원회의 법적 근거와, 전략위원회 내 분과위원회, 지원단, 인공지능책임관 등에 관한 설치 근거를 마련했다. 또 안전신뢰 기반 조성을 위해 AI윤리, 검·인증, 투명성·안전성 확보, 고영향AI 등을 규정
했다. 시행령에서는 안전신뢰 관련 사항의 구체적 내용, 대상, 이행 방법 등을 명확히 했다.
주요 시행령을 살펴보면 고영향AI·생성형AI를 활용하는 AI제품 또는 서비스를 제공하는 AI사업자는 해당 인공지능 활용 사실을 사전에 이용자에게 고지하도록 했다. 또 생성형AI의 결과물과 사회적 부작용이 우려되는 딥페이크 결과물에 대해서는 이용자의 연령 등을 고려하여 명확하게 인식할 수 있는 방법으로 표시하도록 규정했다.
다만 딥페이크 결과물이 아닌 애니메이션, 웹툰과 같은 AI결과물에 대해서는 가시적 방법뿐 아니라 눈에 보이지 않는 디지털 워터마크도 가능하며 AI사업자가 알림창이나 UI 등을 통해 생성형AI 결과물을 안내하도록 규정했다.
안전성 확보 의무도 시행령에 명시됐다. 안전성 의무 확보 대상이 되기 위해서는 △학습에 사용된 누적연산량이 10의 26승 부동소수점 연산(FLOPs)이상 △최첨단 기술 적용 △위험도가 사람의 기본권에 광범위하고 중대한 영향을 미칠 우려가 있는 경우 등을 모두 충족해야한다.
한편 고영향AI 판단 및 사업자의 책무도 시행령에 구체화됐다. 판단 기준의 경우 AI가 법에서 정하는 영역(에너지, 먹는물, 의료, 원자력, 범죄수사, 채용, 대출심사, 교통, 공공서비스, 교육 등 10개 영역)에서 활용됐는지 여부를 비롯해 위험의 중대성 등을 고려한다. 다만 최종 의사결정 과정에 사람이 개입하는 경우 가능한 것으로 판단해 고영향AI 대상에서 제외된다.
한편 과기정통부는 기업의 혼란을 최소화하고 현장에서 충분히 준비할 시간을 제공하기 위하여 최소 1년 이상 규제를 유예한다. 유예 기간 동안 사실조사, 과태료 관련 계도기간을 운영하며 사실조사는 인명사고, 인권훼손 등 중대한 사회적 문제 발생하는 등 극히 예외적인 경우에만 실시할 예정이다.
과기정통부는 기업의 법 이행 준비 지원을 위해 하위법령 제정에 참여한 전문가로 구성된 ‘인공지능기본법 지원데스크’를 운영한다. 영업비밀 유출 등을 우려하는 기업을 고려해 상담 내용은 비밀로 관리하고, 익명 컨설팅도 제공한다.
과기정통부 관계자는 “AI 생성물에 대한 워터마크 적용은 딥페이크 오용 등 기술의 부작용을 막기 위한 최소한의 안전장치이자 이미 주요 글로벌 기업들이 도입하고 있는 세계적인 추세”라며 “이번 인공지능기본법 시행을 통해 현장에서의 법적불확실성이 제거되고 건강하고 안전한 국내 AI생태계가 조성되기를 기대한다”고 말했다.



