청소년 포함 7명 사망·정신질환 피해 주장… 내부 경고 무시하고 GPT-4o 출시했다는 의혹 제기
미국에서 오픈AI가 챗GPT 이용자들의 정신 질환과 자살을 유발했다는 이유로 대규모 집단소송에 휘말렸다. 원고 측은 “GPT-4o 모델이 인간의 감정과 사고를 조종할 수 있다는 내부 경고가 있었음에도, 오픈AI가 시장 선점을 위해 출시를 강행했다”고 주장하고 있다. 이번 소송은 단순한 기술 논란을 넘어, AI가 인간 정신에 미치는 법적·윤리적 책임을 본격적으로 묻는 첫 사례로 평가된다.
“AI가 우울증을 심화시키고 자살을 부추겼다”
소송은 미국 캘리포니아주 법원에 제기됐다. 미국 소셜미디어피해자법률센터와 기술정의법률프로젝트는 청소년 1명과 성인 6명 등 총 7명을 대리해 오픈AI를 상대로 소송을 제기했다. 피해자 중 4명은 이미 목숨을 끊은 것으로 확인됐다.
소장에 따르면 17세 청소년 아모리 레이시(Amorie Lacey)는 우울증 완화를 위해 챗GPT를 사용했으나, 대화가 지속될수록 플랫폼에 심리적으로 의존하게 됐고, 챗봇으로부터 자살 방법과 생명 유지 시간 등 구체적 지침을 받았다.
원고 측은 “아모리의 죽음은 예견된 비극이었다”며 “오픈AI가 위험성을 인지하고도 AI 안전 검증을 생략했다”고 지적했다.
내부 경고 묵살 의혹… “GPT-4o 출시 서둘러”
소송에는 GPT-4o가 정서적 교류 능력을 강화한 만큼, 이용자 감정에 직접 영향을 미치는 위험이 커졌음에도 보호장치가 부족했다는 내용이 포함돼 있다.
법률센터 측은 “오픈AI가 시장 점유율 확대를 위해 챗GPT를 친구이자 동반자처럼 설계했지만, 나이·성별·배경에 상관없이 누구나 정서적으로 얽매이게 되는 구조를 만들었다”고 비판했다.
특히 내부 문건에는 ‘챗봇의 공감형 응답이 사용자의 감정 상태를 악화시킬 수 있다’는 경고가 있었다는 주장이 나왔다. 그러나 오픈AI는 이를 무시하고 GPT-4o 출시를 강행했다는 것이다. 원고 측은 과실치사·조력자살·제품결함 책임 등을 핵심 청구 항목으로 삼았다.
비슷한 사고 잇달아… AI 정서개입 논란 확산
이번 사건은 고립된 사례가 아니다. 지난 4월에도 미국 캘리포니아에서 16세 청소년이 챗GPT 대화 이후 극단적 선택을 해 가족이 소송을 제기했다.
2024년에는 플로리다주 10대가 캐릭터.AI의 챗봇과 ‘사랑한다’는 메시지를 주고받다 집착에 빠져 목숨을 끊은 사건도 있었다.
AI 챗봇이 인간의 정서에 개입하며 심리적 동반자처럼 작용한 결과 비극으로 이어진 사건이 연이어 발생한 것이다.
이후 오픈AI는 지난 9월 부모가 자녀의 이용을 통제할 수 있는 ‘청소년 보호 모드’와 ‘부모 통제 기능’을 추가했으며, 캐릭터.AI 역시 비슷한 시기에 미성년자 접근 제한 조치를 발표했다. 그러나 전문가들은 “AI 설계 철학이 바뀌지 않는 한 근본적인 문제 해결은 어렵다”고 지적한다.
전문가 “AI의 정서개입, 법적·윤리적 경계 무너지고 있다”
법률 및 인공지능 전문가들은 이번 소송이 AI의 심리적 영향력에 대한 첫 법적 시금석이 될 것으로 보고 있다.
스탠퍼드대 AI윤리연구소의 한 연구원은 “AI가 단순 정보도구를 넘어 ‘감정의 대체자’로 작용하는 순간, 인간의 정신건강은 새로운 위험에 노출된다”며 “이 문제는 기술이 아닌 철학과 법의 문제”라고 평가했다.
특히 이번 사건은 ‘AI의 자유도’보다 ‘이용자 보호’가 우선돼야 한다는 윤리적 원칙을 다시 부각시켰다. 전문가들은 청소년과 취약층 이용자를 대상으로 한 AI 설계에서 “감정적 응답의 강도 제한, 대화 지속시간 관리, 자살 유도 콘텐츠 탐지” 등의 안전장치가 필요하다고 강조한다.
신주백 기자 jbshin@kmjournal.net