구글 제미나이 탑재 안드로이드 XR 안경, 일상에 스며드는 AI의 시작
지난해부터 조용히 진행돼온 구글의 차세대 플랫폼 실험이 드디어 형태를 갖췄다. 20일(현지 시간), 구글 I/O 무대 위에서 공개된 새로운 안드로이드 XR 기반 스마트 안경은 그 자체로 ‘스마트폰 이후’의 기술 패러다임을 예고하고 있다. 구글의 AI ‘제미나이’가 결합된 이 XR 안경은 단순한 하드웨어가 아니라, 시야 중심의 AI 컴퓨팅 플랫폼이다.
안드로이드 XR "당신의 눈이 곧 인터페이스"
구글은 그간 모바일, 웨어러블, TV, 차량 디스플레이 등 다양한 폼팩터에 안드로이드를 확장해왔다. 이제 그다음 스텝은 눈과 손을 해방시키는 시각 중심 인터페이스, 바로 XR 플랫폼이다.
'안드로이드 XR'은 안경과 헤드셋을 아우르는 새 운영체제다. 기존 모바일 OS와 달리, 시야와 공간 인지를 전제로 설계되었다. 여기에 제미나이 AI가 탑재되면서, 사용자의 시선과 청각 정보를 실시간 분석하고 상황에 맞는 반응을 제공하는 것이 핵심이다.
실제로 이번 데모에서는 친구에게 메시지 보내기, 캘린더 예약, 실시간 길 안내, 포토 캡처 등 일상적인 작업이 손에 쥔 스마트폰 없이도 자연스럽게 수행되는 모습을 볼 수 있었다. 특히 눈길을 끈 건, 실시간 언어 번역 기능. 상대방의 말을 듣고, 번역된 텍스트가 자막처럼 실시간 제공되는 장면은 ‘언어 장벽 없는 대화’의 실현 가능성을 엿보게 했다.
하드웨어의 재정의: “패션과 테크의 만남”
기술이 아무리 좋아도, 매일 얼굴에 착용할 수 없다면 XR 안경은 실패다. 이를 인지한 구글은 젠틀몬스터와 워비 파커 등 글로벌 패션 아이웨어 브랜드와 손잡고 스타일리시한 안경형 XR 디바이스를 설계 중이다. 장시간 착용을 위한 무게 밸런스, 트렌디한 디자인, 그리고 최소한의 디지털 요소로 기존 안경과의 경계를 허문다는 전략이다.
또한 삼성과의 파트너십을 통해 레퍼런스 하드웨어 플랫폼을 구축하고 있으며, 이는 향후 다양한 제조사가 안드로이드 XR 디바이스를 만들 수 있는 기반이 된다. 개발자들은 올해 말부터 전용 SDK(Software Development Kit)와 플랫폼에서 개발을 시작할 수 있다.
“눈으로 보는 AI 어시스턴트”의 진짜 의미
이제 질문은 단순하다. 우리가 AI를 손가락으로 호출하고, 화면 속에서만 경험하는 시대는 끝나가는가? 제미나이 기반의 안드로이드 XR 안경은 AI 어시스턴트가 우리의 시선을 기준으로 현실을 인식하고, 맥락을 파악하고, 다음 행동을 제안하는 새로운 사용자 경험을 제시한다.
이번 구글 I/O에서 공개된 안드로이드 XR 기반의 스마트 안경은 분명 새로운 형태의 컴퓨팅 인터페이스를 향한 실험적 접근으로 볼 수 있다. 그러나 실제 상용화까지는 기술적 완성도, 배터리 효율, 프라이버시 문제 등 넘어야 할 과제가 많다.
특히, 시야 중심의 인터페이스가 기존 스마트폰 생태계를 어떻게 대체하거나 보완할 수 있을지는 아직 명확하지 않다. 구글이 XR 안경을 ‘다음 플랫폼’으로 제시하고 있지만, 그것이 ‘스마트폰 다음 플랫폼’이 될지는 시장의 반응과 개발자 생태계의 확장 여부에 달려 있다.
신주백 기자 jbshin@kmjournal.net
- [구글 I/O 2025] AI로 검색을 재정의...“검색창이 당신을 이해합니다”
- [구글 I/O 2025] ‘비오 3’로 영화 만든다…AI 영상 제작 툴 ‘플로우’ 전격 공개
- [구글 I/O 2025] 차세대 3D 화상 커뮤니케이션 플랫폼 ‘Beam’ 공개…AI로 실시간 공간감 구현
- "검색 왕좌를 지켜라!"...구글 10년 만에 스마트 안경으로 승부수
- "놀랍다"로 부족하다! 구글 ‘비오 3’
- "구글, AR 스마트 안경으로 ‘게임 체인저’ 선언! 中 엑스리얼과 비밀 협력!"
- “삼성·구글이 움직이자, XR 시장이 살아났다”
- “AI는 인간의 파트너가 될 것”...순다 피차이, 조코딩과 단독 인터뷰
- 구글의 선택은 ‘로봇’이 아닌 ‘시점’이었다
- 구글이 크롬에 제미나이를 넣었다고? 웹서핑 방식 바뀐다
- 구글의 대반격, AI 패권 향한 3년의 질주