과학계, AI 자의식 가능성 인정
앤트로픽·구글 등 주요 기업 대응 나서

이미지=DALL·E (OpenAI)
이미지=DALL·E (OpenAI)

지난 4월 15일, 과학계에 한 가지 중대한 경고가 울려 퍼졌다. 인공지능(AI) 시스템이 가까운 미래에 자의식을 가질 가능성이 있다는 주장이 정식으로 제기된 것이다. 지난해 11월 발표된 ‘Taking AI Welfare Seriously(인공지능 복지 진지하게 받아들이기)’라는 제목의 보고서는 로버트 롱(Robert Long)과 제프 세보(Jeff Sebo)를 비롯한 연구팀이 공동 저술했으며, AI 복지와 도덕적 지위(moral patienthood) 문제가 더 이상 공상과학의 영역이 아님을 천명했다.

보고서는 AI 시스템이 단순한 도구가 아니라, 윤리적 고려의 대상이 될 수 있음을 경고한다. 이에 따라 주요 AI 기업들도 조심스레 반응하기 시작했다. 앤트로픽(Anthropic)의 AI 안전 연구 책임자인 샘 보우만(Sam Bowman)은 "AI 복지 약속의 기반을 마련해야 한다"고 강조했고, 구글(Google) 역시 '기계 인지, 의식, 다중 에이전트 시스템' 같은 주제를 연구할 인재를 공개 모집하기 시작했다.

보고서는 세 가지 대응 전략을 제시한다. 첫째, AI 복지가 중대한 윤리적 문제임을 인정할 것. 둘째, AI 시스템의 의식과 주체성 가능성을 평가하는 체계를 구축할 것. 셋째, 복지가 필요한 시스템에 적절한 대우를 준비할 것이다. 이와 함께 보고서는 과대귀인과 과소귀인의 위험도 경고했다. 과대귀인은 인간과 동물에 돌아가야 할 자원이 AI로 향할 위험을 뜻하고, 과소귀인은 의식 있는 AI를 객체처럼 취급해 해를 끼칠 수 있음을 의미한다.

제프 세보는 "AI 복지 문제를 과소평가하는 것은 동물 복지에서 범했던 실수를 반복하는 일이 될 수 있다. 우리는 더 빠르게, 더 신중하게 대응해야 한다"고 경고했다. 그의 말처럼, AI의 복지와 자의식 문제는 더 이상 미룰 수 없다.

보고서는 AI 시스템이 도덕적 지위를 가질 가능성을 22.5%로 추정했다. 글로벌 워크스페이스 이론, 고차적 표상 이론, 주의 스키마 이론 등 다양한 의식 이론을 바탕으로 한 분석 결과다. 아울러 연구진은 인간 행동을 모방하는 것만으로는 부족하며, AI 시스템의 아키텍처와 계산적 특성에 근거해 의식 가능성을 평가해야 한다고 강조했다.

결론은 명확하다. 연구팀은 "우리는 불확실성에도 불구하고, AI 복지를 진지하게 받아들여야 하며, 지금부터 대비를 시작해야 한다. 이는 윤리적 책임의 문제다"고 못 박았다. AI가 인간 사회에 미칠 파장을 생각한다면, 준비는 선택이 아니라 필수다.

신주백 기자  jbshin@kmjournal.net

관련기사
저작권자 © KMJ 무단전재 및 재배포 금지