article detail
[동아광장/정소연]인간 전문가가 AI 답변의 검증 기계가 된 현실
2026. 5. 1. 오후 11:12
![[동아광장/정소연]인간 전문가가 AI 답변의 검증 기계가 된 현실](https://dimg.donga.com/wps/NEWS/IMAGE/2026/05/01/133850141.1.png)
AI 요약
대규모언어모델(LLM) 기반 챗GPT, 클로드, 제미나이 등 AI의 접근성이 높아지면서 이용자들이 AI가 준 답변을 그대로 법적 분쟁 서면·탄원서로 제출하거나 이용하는 사례가 늘고, AI가 허위 판례·존재하지 않는 사건·잘못된 근거를 그럴듯하게 제시하는 환각 현상으로 잘못된 문서가 만들어지고 있습니다. 그 결과 없는 사건번호·잘못된 링크·허위 논문 등을 검증하느라 전문가들은 단순 검증에 많은 시간을 소진하고 갈등 해결 비용이 높아졌으며, 당사자들은 AI와의 대화로 이미 편향된 확신을 가져 설득이 매우 어려워졌습니다. 이를 해결하려면 언어모델의 한계와 환각을 줄일 수 있도록 정확하고 구체적인 질문·검증 방법에 대한 교육, 인터넷과 스마트폰 보급 때 수준의 전 사회적 재사회화, 그리고 잘못된 AI 답변 사용으로 증가한 검증 책임과 비용 부담에 대한 제도적 논의가 필요합니다.

![AI 거짓말에 뒤통수 제대로 맞았다? [강양구의 ‘사이언스 인사이트’]](https://wimg.mk.co.kr/news/cms/202605/08/news-p.v1.20260508.26510082acbf4f7988ee06e29969fd61_P3.jpg)
![[과학에세이] AI가 만든 정보, 어디까지 믿어야 하는가](https://db.kookje.co.kr/news2000/photo/2026/0505/L20260505.22018000730i1.jpg?39)

