article detail
최재식 “설명 못 하는 AI? 결국 아무도 안 쓴다” [SFF 인터뷰]
2026. 5. 6. 오전 10:00
AI 요약
인공지능의 판단 근거를 알 수 없으면 사회적 수용성이 떨어지고, AI는 오작동이나 환각 현상을 보일 수 있어 이를 규명하는 기술인 설명가능 인공지능 XAI가 필요합니다. 최재식 KAIST AI대학원 교수는 국내에서 XAI를 가장 오래·깊게 연구해 왔고 구글코리아 책임감 있는 AI포럼 의장을 맡아 글로벌 빅테크와 정책 논의를 이어가며 XAI 스타트업 인이지를 창업해 현장 적용을 추진하고 있습니다. EU의 인공지능법과 한국의 관련 법령은 고위험 AI의 설명을 요구하고 있으며, 한국은 설명성·안전성 분야에서 리딩 국가 중 하나로 국제 표준 제정에도 참여했고 B2C 검색 시장이 글로벌 LLM에 잠식되는 상황에서 공공(B2G) 분야에서는 자국 엔진 활용을 통해 역량과 통제권을 지켜야 한다고 지적했습니다.



![[기고] 딥페이크 영상을 올린 유튜버는 AI 기본법을 위반한 것인가](https://cdn.aitimes.com/news/photo/202605/210249_212875_4557.png)
