article detail
“정부 승인 받아야 공개?”… 미국, 초거대 AI 사전검증 체계 확대
2026. 5. 7. 오전 8:55

AI 요약
미국 상무부 산하 CAISI는 5월 5일 구글 딥마인드, 마이크로소프트, xAI와 협약을 체결해 일반 공개 전 AI 모델에 대해 사전 배치 평가를 수행하고 사이버 공격 가능성, 생화학·화학무기 악용 위험, 보안 우회 능력 등 국가안보·보안 위험성을 검증할 수 있게 됐으며 이는 오픈AI·앤트로픽에 이어 주요 프런티어 AI 기업 대부분이 정부 검증 체계에 참여하게 된 조치입니다. 현재 미국의 사전검증은 법적 강제력이 없는 자발적 협약 방식으로 운영되지만 일정 수준 이상의 초거대 AI 모델에 대해 의무적 사전검토 도입 논의가 이어지고 있고 업계는 안전성 검증 필요성에는 공감하면서도 과도한 규제가 기술 혁신 속도를 떨어뜨릴 수 있다는 우려를 제기하고 있습니다. 한국은 과기정통부가 ETRI 산하 AI안전연구소(AISI)를 설립해 AI 안전성 평가·정책 연구·국제 협력을 추진하고 있으며 2026년 4분기까지 전주기 상시 평가체계를 마련하겠다고 발표했고 K-AISI는 규제가 글로벌 AI 안전 담론의 핵심으로 부상했다고 분석했습니다.



