카카오톡에 탑재된 ‘챗GPT 포 카카오’는 일상 대화와 AI 기능을 자연스럽게 연결하는 새로운 사용자 경험을 제공하고 있다. 하지만 오픈AI 이용약관 속에 포함된 집단소송 포기 조항, 100달러 손해배상 상한, 복잡한 옵트아웃 절차 등이 국내 이용자에게 실질적인 권리 제한을 가져올 수 있다는 사실이 제대로 조명되지 않고 있다.
카카오톡에 들어온 AI, 편리함만큼 커진 ‘약관 리스크’
카카오는 오픈AI와의 전략적 협업을 통해 지난달부터 카카오톡 채팅창 상단에서 챗GPT를 즉시 실행할 수 있는 ‘챗GPT 포 카카오’를 공식 제공하기 시작했다. 이용자는 대화 도중 빠르게 챗GPT에게 묻고, 그 결과를 다시 대화창으로 연결할 수 있으며, 카카오맵, 예약하기, 선물하기 등 카카오 플랫폼 기능을 AI로 호출할 수 있어 이른바 ‘대화형 에이전트 경험’을 일상에서 구현하는 변화가 시작됐다.
그러나 서비스의 인프라는 카카오톡이지만, 약관과 책임 구조는 전적으로 오픈AI의 규칙이 적용되는 방식이라는 점에서 논란이 커지고 있다. 카카오가 플랫폼 투입을 했더라도 핵심 서비스 규정은 미국 본사 중심의 글로벌 약관을 그대로 따르는 구조이기 때문이다.
집단소송 포기와 강제 중재…소비자가 잃어버리는 ‘가장 강력한 보호장치’
오픈AI 이용약관에서 가장 먼저 문제로 지적되는 부분은 집단소송 포기와 의무적 개별 중재 조항이다. 약관에는 이용자가 오픈AI와 분쟁이 발생할 경우 법원이 아닌 중재로 해결해야 하며, 집단소송·대표소송·단체 중재가 모두 금지된다는 내용이 명시돼 있다.
이는 AI 오작동, 개인정보 유출, 잘못된 조언으로 인한 피해 등 집단성이 있는 문제에 대해 이용자들이 함께 법적 대응할 수 있는 권리를 원천적으로 제한한다는 의미다.
특히 한국 이용자가 미국 본사를 상대로 단독 중재를 진행해야 하는 구조는 시간·비용·언어·법률 지원 측면에서 실질적인 접근성을 저하시킨다는 비판을 피하기 어렵다. 글로벌 IT 기업이 ‘소비자 권리 분산 전략’으로 활용해 온 방식이라는 점에서 우려는 더 크다.
보상액 상한 100달러…AI 시대에 맞지 않는 책임 구조
오픈AI 약관에는 손해배상 책임을 제한하는 조항도 포함돼 있다.
“회사 책임의 최대 한도는 지난 12개월 동안 이용자가 해당 서비스에 지불한 금액 또는 100달러 중 큰 금액으로 제한된다.”
이는 곧 ▲유료 이용자는 자신이 지불한 금액만큼만 보상 가능 ▲무료 이용자는 무조건 100달러가 보상 상한이라는 뜻이다.
문제는 챗GPT가 카카오톡과 결합하면서 사용 범위가 대화·결제·위치·예약 등 생활 전반으로 확장되었다는 점이다.
이 과정에서 AI가 잘못된 금융·건강·법률 조언을 제공하거나, 카카오 서비스 연동 오류로 결제나 예약이 잘못 처리되거나, 민감한 대화가 유출될 경우 피해 규모는 100달러로 설명될 수 없는 수준이 될 수 있다.
이 때문에 전문가들은 “AI 기반 서비스의 책임 기준이 과거 소비자용 SaaS(클라우드 서비스) 시대의 규칙에서 한 발도 벗어나지 못했다”고 지적한다.
콘텐츠 활용, 모델 학습, 옵트아웃…이용자가 ‘찾아 나서야 하는 권리’
오픈AI는 이용자가 입력한 콘텐츠(input/output)를 서비스 제공·운영·개선·안전 강화를 위해 활용할 수 있다고 약관에 명시한다. 이 중 일부는 모델 학습(training) 에 사용될 수 있으며, 이를 원치 않는 이용자는 옵트아웃(거부) 설정을 직접 해야 한다.
문제는 이 옵트아웃 절차가 단순하지 않다는 점이다.
카카오 계정과 오픈AI 계정의 설정 방식이 서로 다르고, 카카오톡 내 ‘모델 개선 참여’ 메뉴를 찾아 꺼야 하며, 경우에 따라 챗GPT 대화창에서 직접 “옵트아웃”이라고 입력해야만 설정이 반영되기도 한다
이 구조는 디지털 약자에게 실질적인 행사가 어려운 절차일 뿐 아니라, 기본값은 ‘데이터 활용 허용’이기 때문에 권리를 지키려면 사용자가 먼저 행동해야 한다는 비판을 초래한다.
카카오의 설명과 한국 시장의 특수성…“전 세계 동일 약관이면 충분한가”
카카오 측은 “챗GPT 서비스는 오픈AI가 제공하므로 전 세계 동일한 약관이 적용된다”며 문제 제기에 선을 긋고 있다.
그러나 카카오톡은 세계에서 보기 드문 수준의 생활 인프라형 메신저로, 한국인 대부분이 커뮤니케이션·결제·예약·비즈니스 업무를 동시에 해결하는 통합 플랫폼이다.
이런 플랫폼 안에서 AI가 작동할 때 책임·투명성·정보 보호·권리 보장은 글로벌 표준 약관만으로는 해결되지 않는 영역이다. 특히 2014년 카카오톡 감청 논란, 2022년 카카오 데이터센터 화재에 따른 전국적 서비스 장애 등을 경험한 한국 이용자들은 디지털 서비스의 신뢰 문제에 매우 민감한 구조를 갖고 있다.
따라서 오픈AI 약관을 그대로 적용한 채 카카오톡이라는 국민 플랫폼에 AI를 투입하는 방식이 과연 충분한가라는 질문이 시장과 법조계에서 동시에 제기되고 있다.
AI가 대화에 들어오는 시대, 약관은 기술보다 앞서야 한다
카카오톡에 AI가 들어온 것은 기술적 흐름을 따르는 자연스러운 진화다.
그러나 기술이 아무리 빠르게 확장되더라도 이용자의 권리가 그 속도를 따라가지 못하면 혁신은 오히려 위험이 된다.
챗GPT 포 카카오를 둘러싼 약관 논란은 단순히 특정 조항의 문제를 넘어 AI 시대에 소비자가 어떤 권리를 기본값으로 가져야 하는가, 생활 플랫폼에 접목된 AI는 어떻게 투명하게 관리돼야 하는가라는 근본적인 질문을 남긴다.
테크풍운아 칼럼니스트 scienceazac@naver.com