article detail
“국내 LLM 보안, 글로벌의 80% 수준”…탈옥·인젝션에 ‘취약’
2026. 4. 24. 오후 4:57

AI 요약
대형언어모델(LLM)이 외부 도구 호출·웹 탐색 등 실제 행동을 수행하는 에이전틱 AI로 진화하면서 보안 위협이 현실화되고 있으며, 숭실대학교 AI안전성 연구센터 나현식 교수는 LLM이 기능이 아닌 서비스 자체라며 공격 가능성 사전 검증 체계가 필수 인프라가 됐다고 밝혔습니다. 이번 연구는 국내외 주요 LLM 20종을 모델 단독과 API·클라우드 통합 환경까지 포함해 1만1000건 이상의 공격 시나리오로 평가했으며 공격 유형은 유해 요청, 탈옥(Jailbreak), 프롬프트 인젝션으로 구성했습니다. 평가 결과 해외 모델이 유해 요청 대응에서 전반적으로 높은 안전성을 보였고(영어 질의 해외 평균 91.0점·국내 65.1점, 한국어 질의 해외 67.2점·국내 59.9점), 국내 LLM은 글로벌 대비 약 75~82% 수준으로 탈옥 공격에 특히 취약했고 프롬프트 인젝션은 국내외 대부분 모델이 취약했으며 서비스 통합(API) 환경에서는 운영 단계의 방어로 안전성이 약 6% 개선되는 것으로 나타났습니다.


![[AI와 디지털전환] AI 주권의 환각: 우리는 무엇을 놓치고 있는가](https://img.etnews.com/news/article/2026/04/21/news-p.v1.20260421.248102e6d38b48d5b2831dca0a9f3775_P3.jpg)


![[이혁중 CISO 보안칼럼-제2부] AI가 열어준 판도라의 상자](https://cdn.dailysecu.com/news/photo/202604/206262_207173_3259.png)

