article detail
인공지능 시스템의 분류 및 적합성 평가 원칙.
2026. 5. 7. 오후 10:41

AI 요약
본 시행령은 공급업체가 인공지능법 및 본 시행령에서 규정한 위험 수준에 근거해 인공지능 시스템을 배포하기 전에 자체적으로 분류해야 하며 분류 결과의 정확성과 진실성에 대해 법적 책임을 지고, 구현자는 기능·목적 변경으로 새로운 위험이 발생하면 공급업체와 협력해 시스템을 검토·재분류해야 한다고 규정합니다. 공급업체와 구현자는 고위험 인공지능 시스템에 대한 적합성 평가를 수행해야 하고, 평가 결과가 특정 위험 관리 요건을 완전히 충족하지 못할 경우에는 미충족 부분에 대해서만 추가 평가를 제공하면 되며 이미 관련 법규에 따라 실시된 시험·검사·적합성 평가는 유효하게 사용할 수 있고 과학기술부는 분류·자체평가를 위한 전자 지원 도구를 보조적으로 제공하되 이는 의무가 아니라고 규정합니다. 인공지능 시스템의 위험 수준은 고위험(인공지능법 제13조 4항에 따라 총리가 발표한 목록), 중간위험(법령 제9조 해당), 저위험으로 구분되며 과학기술부가 인공지능 원스톱 온라인 포털 및 국가 인공지능 시스템 데이터베이스를 관리해 정보 수집·공개·활용을 하되 사이버보안·국가기밀·영업비밀·개인데이터 보호 규정을 준수하고 내부 운영용 시스템·국가기밀 등은 포털 신고·등록·공개 의무에서 제외된다고 규정합니다.


![[시론] ‘AI 학습비용’ 균형 잡힌 이해를](https://img.etoday.co.kr/pto_db/2026/04/20260427193514_2326966_210_275.jpg)






![[과학1열] AI 시대 커지는 보안 우려…대비는 어떻게?](https://imgscience.ytn.co.kr/sciencetv/jpg/vod0082/2026/202604091600388779_h.jpg)