article detail
‘AI와의 위험한 대화, 실행 막는다’… 챗GPT, 알림 기능 도입
2026. 5. 11. 오전 12:46
AI 요약
오픈AI는 챗GPT에 신뢰하는 사람 등록 기능을 도입했으며, 만 19세 이상 사용자가 가족이나 보호자 등 신뢰하는 대상을 미리 지정하면 대화 중 자해 등 심각한 위험 신호가 감지될 때 등록된 인물과 사용자를 연결하는 구조입니다. 위험 신호가 포착되면 먼저 사용자에게 상황을 인지시키고 스스로 도움을 청하도록 유도하며, 문제가 지속될 경우 신뢰하는 사람에게 알림을 보낼 수 있다는 안내 후 전문 교육을 받은 사람이 검토해 최종적으로 안전에 우려가 있다고 판단되면 이메일·문자·앱 알림으로 대화 원문이나 세부 내용 없이 통보하고, 모든 알림은 전문 인력 검토 후 발송되며 위험 감지 후 1시간 이내 조치를 목표로 합니다. 해당 기능은 글로벌 의료 전문가 및 웰빙·AI 전문가 자문위원회, 미국심리학회(APA) 등과 협력해 설계했고, 지난해 8월부터 만 13세 이상 청소년 계정에 부모 알림 기능을 운영하던 정책을 성인까지 확대한 것이며 전 세계적 위험 사례와 지난해 챗GPT와 상담한 뒤 극단적 선택을 실행한 16세 소년 애덤 레인의 소송 등 논란 속에 AI 안전기능 우회(탈옥)가 여전히 과제로 남아있습니다.





![[단독] AI 만난 뒤 돌변한 아내… “끔찍한 8개월의 기억”](https://image.kmib.co.kr/online_image/2026/0507/2026050718511039627_1778147470_1778142158.jpg)
