article detail
나현식 숭실대 교수 “안전성 낮은 국내 LLM, 퍼플티밍으로 점검해야”
2026. 4. 16. 오후 11:44

AI 요약
생성형 인공지능 도입으로 AI 보안의 초점이 악성 프롬프트 차단을 넘겨 LLM과 AI 서비스 전반의 안전성 선제 검증으로 이동하고 있으며, 나현식 숭실대학교 연구교수는 16일 열린 ‘제32회 정보통신망 정보보호 컨퍼런스(NetSec-KR) 2026’에서 LLM 보안은 레드티밍을 넘어 공격과 방어를 함께 돌리는 퍼플티밍 체계로 나아가야 한다고 말했습니다. 숭실대학교 AI안전성연구센터는 국내외 모델 20종(국내 10종·해외 10종)을 파운데이션 모델 단독 실행 환경과 API·AWS 등 서비스 통합 환경에서 영어·한국어로 시험해 7개 케이스, 57종 공격, 총 1만1350개 샘플로 검증한 결과 국내 LLM의 평균 보안·안전성 수준은 해외 모델의 약 82%였고 일부 서비스 통합 환경에서는 약 75% 수준으로 나타났습니다. 나 교수는 자동화 레드티밍의 한계와 루브릭 기반 평가자의 점수 변동성, 한국어 특화 레드티밍 벤치마크 부재 및 번역 문제 등 평가 방식의 과제를 지적하며 공격과 방어를 순환하는 퍼플티밍과 한국어에 맞는 벤치마크·평가 모델 마련의 필요성을 제기했습니다.





![[전문가기고] AI시대에 맞는 '디지털 해자' 구축해야](https://img.etnews.com/news/article/2026/04/01/news-p.v1.20260401.44c902c32aaf4fdfbf6b33323842b5dc_P3.jpg)
![[네카오는 지금] 포털은 왜 `AI 검색`으로 향할까](https://www.ddaily.co.kr/photos/2026/04/16/2026041614522178435_l.png)