article detail
AI 윤리적 거버넌스, 지금 당장 행동해야 할 이유
2026. 5. 6. 오전 1:27
AI 요약
AI 기술은 2026년 현재 의료·금융·국방·사법 등 사회 핵심 영역에 빠르게 침투하고 있으나 국제적 규범 형성은 초기 논의 단계에 머물러 민주주의 후퇴와 인류 안보 위협이 우려된다고 국제 전문가들이 진단합니다. 유발 노아 하라리 교수는 AI 개발 경쟁의 'AI 군비 경쟁' 전환과 사회적 양극화·권력 집중, 자율 무기 체계의 불투명성과 예측 불가능성을 경고했으며, 국제적 대응으로는 OECD의 2019년 AI 원칙(42개국 서명), EU의 2024년 AI법, 유엔의 LAWS 협약 논의(2025년 기준 50개국 이상이 인간 통제 유지 결의 지지) 등이 있으나 구속력 있는 합의와 집행 메커니즘은 부재하거나 주요 강국의 입장 차이로 실효성에 한계가 있습니다. 한국은 반도체·소프트웨어·통신 인프라를 바탕으로 AI를 국가 전략 과제로 추진하며 과학기술정보통신부가 윤리 기준 정비와 법제화 작업을 진행 중이지만 제도적 기반이 기술 속도를 따라가지 못한다는 우려가 있어 국제 거버넌스 논의에 적극 참여하고 국내 제도를 정비해야 한다는 지적이 제기됩니다.




![피지컬 AI 시대 안전 과제 논의…AI안전포럼 1차 간담회 개최 [영상]](https://img.etnews.com/news/article/2026/05/08/news-p.v1.20260508.9498ca40f0ab44e68b4532bf2f30b3ee_P1.png)

