article detail
[기획]일하는데 책임은 없다…AI 보안 '책임 공백' 부각
2026. 4. 13. 오후 2:24
AI 요약
AI가 스스로 판단하고 업무를 수행하는 AI 에이전트가 확산되면서 보안 사고나 오류 발생 시 책임 주체를 특정하기 어려운 책임 공백 문제가 부상하고, 외부 LLM·API 연동과 데이터 제공자·모델 개발자·플랫폼 사업자·서비스 운영자 등 역할 분리가 이러한 구조적 문제를 심화하고 있습니다. 에이전트 커머스 등 기업 서비스 도입이 빠르게 확산돼 네이버와 카카오가 쇼핑 AI 에이전트와 챗GPT 기반 상품 추천 기능을 도입했고, 그랜드뷰리서치는 AI 에이전트 시장이 2025년 76억달러에서 2030년 503억달러로 성장해 연평균 성장률이 46%에 이를 것으로 전망했으며 원티드랩 조사에서는 응답자의 92.1%가 AI 사용 경험이 있고 86%가 거의 매일 활용한다고 응답했습니다. 정부는 민·관 협의체인 에이전틱 AI 얼라이언스를 중심으로 관련 제도를 정비하려 하고 있으며, 염흥열 순천향대학교 정보보안학과 교수는 AI가 의사결정을 수행하더라도 최종 책임은 인간에게 부여하는 원칙과 책임 기준·표준화의 필요성을 강조했습니다.




![["내가 왜 막혔지?"… 길 헤매는 AI, '메타인지'로 해법 찾았다] 중남대 연구팀, 내비게이션 시스템 '메타나브' 공개 , LLM 활용해 실패 이력 분석… 탐색 효율 20% 이상 개선](https://www.ainet.link/data/ainet_link/bigimg/2026041334426875.png)
