할루시네이션은 줄었지만, 완전히 사라지진 않았다

오픈AI 로고  사진=로이터, 연합뉴스
오픈AI 로고  사진=로이터, 연합뉴스

GPT-5는 GPT-4 대비 전반적인 정보 정확도와 문맥 처리 능력이 향상되었지만, 사실이 아닌 정보를 그럴듯하게 생성하는 ‘할루시네이션(hallucination)’ 현상은 여전히 해결되지 않은 상태다. 특히 이미지 기반 콘텐츠, 고유명사, 지역 특화 정보처럼 명확한 사실 검증이 필요한 영역에서 AI는 높은 자신감을 보이면서도 잘못된 정보를 제공할 가능성이 존재한다. 이러한 오류는 사용자에게 신뢰감을 주는 자연스러운 문장 구조와 어투로 인해 더욱 치명적일 수 있다.

한국 캐릭터를 중국 브랜드 인형으로 착각한 GPT-5

유튜브 내일은 투자왕에 따르면 한국 인기 캐릭터 ‘티니핑’의 이미지를 GPT-5에 보여주고 “이건 뭐야?”라고 묻자, 이를 중국 완구 브랜드 팝마트(Pop Mart)의 ‘크라운 베이비(Crown Baby)’ 시리즈라고 응답했다. 하트 모양 왕관과 드레스, 큼직한 눈동자 등 시각적 유사성을 근거로 삼았지만, 이는 명백히 사실과 다른 판단이다. 실제로 해당 이미지는 국내 유아 콘텐츠에서 높은 인기를 끌고 있는 한국산 IP '티니핑'의 캐릭터 중 하나다. 또한 팝마트에서 판매 중인 완구도 '크라이 베이비(Cry Baby)'다. 

“아직 GPT-5는 출시되지 않았다?”...스스로 자신의 존재를 부정

다른 사례도 있다. 한 사용자가 GPT-5에게 “GPT-5에 대해서 설명해 달라”고 하자 “GPT-5는 아직 출시되지 않았다”라는 응답을 내놓기도 했다. 사용자는 이미 GPT-5 환경에서 대화 중이었기 때문에 이 답변은 명백히 오류다.

이는 GPT-5가 자신의 버전을 인식하지 못하거나, 학습 정보가 업데이트되지 않은 상태에서 고정된 응답을 출력한 것으로 보인다. 단순한 실수처럼 보일 수 있지만, 사용자의 혼란을 야기하는 또 다른 형태의 할루시네이션이다.

왜 여전히 이런 오류가 발생할까?

AI는 본질적으로 '확률적 추론 기계'다. GPT가 지식 기반 생성 엔진이 아니라, 패턴 기반의 확률적 추론 모델이기 때문이다.

AI는 질문에 대해 "가장 그럴듯한 답"을 찾아내려는 성향이 강하며, 그 과정에서 정확성보다 유사성이나 전형성에 기반한 응답을 생성하게 된다. 특히 이미지 기반 질문이나, 학습 데이터에 부족한 지역 콘텐츠, 고유명사 등이 주어졌을 때 오류 가능성은 더 높아진다.

크라운 베이비 응답 사례는 시각적 유사성과 글로벌 인식 격차가 만들어낸 전형적인 착각이다.

사용자가 AI를 ‘전문가’처럼 믿는 것이 더 위험하다

GPT-5는 유창한 문장 구성과 전문가처럼 보이는 답변 태도로 사용자에게 높은 신뢰감을 주지만, 실제 내용의 정확도는 그와 비례하지 않을 수 있다. 하지만 사용자들은 응답을 비판적으로 검토하기보다, 사실처럼 받아들이는 경향을 보인다.

특히 어린이 콘텐츠, 뉴스, 브랜드, 정책 정보처럼 잘못된 인식이 누적될 경우 피해가 생길 수 있는 영역에서는 AI의 응답에 대한 팩트체크와 교차검증이 필수다.

신주백 기자  jbshin@kmjournal.net

관련기사
저작권자 © KMJ 무단전재 및 재배포 금지