“안전·윤리 기준 없이 출시 강행”… AI 영상생성 기술 규제 목소리 커져

미국의 시민단체가 11일(현지시간) 오픈AI의 영상 생성 인공지능(AI) ‘소라2’가 딥페이크 확산과 허위 정보 생산을 부추길 수 있다며 서비스 중단을 요구하고 나섰다.

단체는 오픈AI가 사회적 위험에 대한 충분한 검증 없이 제품을 시장에 내놓고 있다고 비판했다.

오픈AI가 소라2 서비스를 두고 시민단체의 반발을 사고 있다. 사진=AP, 연합뉴스
오픈AI가 소라2 서비스를 두고 시민단체의 반발을 사고 있다. 사진=AP, 연합뉴스

시민단체 “소라2, 사회적 위험 대응 없이 공개”

미국 시민단체 ‘퍼블릭 시티즌’은 11일(현지시간) 샘 올트먼 오픈AI 최고경영자(CEO)에게 보낸 공개서한을 통해 소라2의 서비스 중단을 촉구했다고 밝혔다.

이 단체는 “오픈AI는 제품 출시 전, 사회적 위험을 검토하고 안전을 보장할 수 있는 신중하고 투명한 절차를 마련해야 한다”고 지적했다.

이어 “법률 전문가, 시민권 단체, 민주주의 옹호자들과 협력해 명확한 기술적·윤리적 경계선을 세워야 한다”고 강조했다.

“딥페이크·허위정보 확산 가능성 커”

퍼블릭 시티즌은 소라2가 딥페이크 영상 제작을 쉽게 만들어, 특히 내년 미국 중간선거를 앞두고 정치 관련 허위 정보가 대량 확산될 수 있다고 경고했다.

또한 여성과 미성년자를 성적 맥락에서 묘사한 영상이 관리 부실로 유포될 가능성도 제기했다.

이 단체는 “소라2 사용 중 이름, 초상권, 이미지 등 개인 정보가 동의 없이 활용되는 사례가 늘고 있다”며 “저작권이 있는 이미지가 생성되는 경우도 있다”고 덧붙였다.

오픈AI, 안전보다 속도 우선하는 패턴 반복”

퍼블릭 시티즌의 J.B. 브랜치 변호사는 “소라2의 조급한 출시는 안전장치가 미비한 제품을 서둘러 내놓는 오픈AI의 반복된 행태를 보여준다”고 비판했다.

AI 기술의 잠재력만큼이나 사회적 피해 가능성도 크다.

시민 단체는 기업의 책임성과 윤리 기준이 선행되지 않는 한 AI의 혁신은 불안 요인이 될 수 있다고 지적한다.

최송아 객원기자 choesonga627@gmail.com

관련기사
저작권자 © KMJ 무단전재 및 재배포 금지