스마트 안경형 AI 비서로 본 Google의 피지컬 AI 전략
Google I/O 2025 무대에 오른 CEO 선다 피차이는 AI의 다음 단계를 다음과 같이 정의했다.
“우리는 물리적 세계를 이해하고, 행동할 수 있는 AI를 준비하고 있습니다.
로봇공학은 다음 세대의 컴퓨팅 플랫폼이 될 겁니다.”
‘로봇’이라는 단어가 직접 언급되었지만, 이날 구글이 내놓은 실제 제품은 휴머노이드 로봇이 아닌, 안경 형태의 스마트 인터페이스였다.
카메라와 마이크가 장착된 이 멀티모달 AI 비서형 스마트 안경은, 사용자의 시야와 음성을 동시에 분석하며 실시간으로 통역하고, 사물을 인식하며, 맥락 기반으로 상황을 해석한다.
구글의 전략: 손보다 ‘시선’을 선택하다
이번 I/O에서 드러난 구글의 방향은 명확하다.
구글은 AI가 현실을 이해하고 대응하는 방식으로 ‘사람의 감각을 확장하는 인터페이스’를 선택했다. 이는 로봇을 움직이게 하려는 것이 아니라, 사용자의 눈과 귀, 언어를 대체하거나 증강하는 방식이다.
이러한 전략은 구글이 오랫동안 구축해온 멀티모달 검색(MUM), 구글 렌즈, Assistant, ARCore 등과의 기술적 연속성 위에 서 있다.
즉, 구글은 ‘움직이는 기계’가 아니라, ‘이해하고 안내하는 동반자’를 지향하는 피지컬 AI를 만들고 있는 셈이다.
엔비디아 vs구글, ‘피지컬 AI’를 향한 서로 다른 경로
같은 주에 열린 엔비디아의 컴퓨텍스 2025 발표와 비교해보면, 구글과 엔비디아는 같은 목적지를 향하면서도 전혀 다른 길을 택하고 있다는 점이 뚜렷하게 드러난다.
엔비디아는 GR00T, Isaac Lab, 그리고 Omniverse라는 세 축을 중심으로, 로봇이 스스로 환경과 상호작용하며 학습할 수 있는 피지컬 AI 인프라를 구축하고 있다. 즉, AI에 ‘손과 발’을 부여해 현실 세계를 직접 작동하게 하려는 전략이다. 이 접근은 산업용 로봇 생태계와 시뮬레이션 기반 훈련을 결합한 수직 통합형 구조를 통해 구현된다.
반면 구글은 카메라와 마이크가 탑재된 스마트 안경형 멀티모달 비서를 통해, AI가 사용자의 시점에서 현실을 인식하고 해석하는 역할을 수행하도록 한다. 여기서 구글의 초점은 AI가 인간의 ‘눈과 귀’를 대신하거나 보완해, 감각 기반의 정보 처리 능력을 강화하는 데 있다. 이는 로봇 제어보다는 일상적 맥락에서 인간의 행동을 도와주는 스마트 인터페이스 전략에 가깝다.
즉, 엔비디아는 물리적 작동을 통해 세상을 움직이게 하고자 하고, 구글은 감각적 해석을 통해 세상을 이해하게 하려 한다.
한쪽은 행동(Act)을, 다른 한쪽은 인식(Perceive)을 중심에 둔다.
결과적으로 두 기업 모두 “현실 세계와 상호작용할 수 있는 AI”라는 피지컬 AI의 본질적 목표를 공유하고 있지만, 하나는 로봇을 통한 능동적 실현을, 다른 하나는 스마트 인터페이스를 통한 수동적 해석을 택했다는 점에서 기술적 경로와 제품 철학은 분명히 다르다.
기술적 접근의 차이: 능동 vs. 보조
엔비디아는 로봇이 환경을 스스로 경험하고 학습하는 자기주도형 피지컬 AI를 지향한다. GR00T 모델과 Isaac 시뮬레이션은 이 ‘학습 가능한 손발’을 만드는 훈련소다.
반면 구글은 인간 중심의 인터페이스를 강화해, 사용자 행동을 보조하는 감각 중심형 피지컬 AI에 집중한다.
구글이 이번에 선보인 안경형 AI 비서는 Apple Vision Pro보다 작고, 엔비디아의 로봇보다 빠르게 상용화 가능하다는 점에서 주목할 만하다.
이러한 차이는 사용자 인터페이스 중심의 소비자형 전략(구글)과 산업 자동화를 위한 인프라 중심 전략(엔비디아)으로 갈라진다.
“피지컬 AI는 이제 현실을 인식하고 해석하는 단계에 들어섰다”
피지컬 AI는 로봇팔의 정밀 제어, 또는 움직이는 휴머노이드에만 국한되지 않는다. 구글은 이 영역을 보다 넓게 정의하고 있다. 현실을 ‘보고’, ‘듣고’, ‘이해하는 AI’도 물리 세계의 일부가 될 수 있다는 관점에서다.
따라서 이번 I/O에서 구글이 공개한 안경형 멀티모달 인터페이스는 하드웨어를 로봇화하는 대신, 인간의 시점 자체를 확장하는 방법으로 피지컬 AI를 구현하고 있다고 해석할 수 있다.
궁극적으로 엔비디아와 구글은, 한쪽은 “AI가 움직인다”, 다른 쪽은 “AI가 본다”는 차이를 두고 같은 미래를 겨냥하고 있다.
테크풍운아 칼럼니스트
- [구글 I/O 2025] ‘스마트폰’ 다음은 안경?...차세대 플랫폼 후보 1번 안경
- "구글, AR 스마트 안경으로 ‘게임 체인저’ 선언! 中 엑스리얼과 비밀 협력!"
- “AI는 인간의 파트너가 될 것”...순다 피차이, 조코딩과 단독 인터뷰
- 구글이 크롬에 제미나이를 넣었다고? 웹서핑 방식 바뀐다
- 구글, 모바일에서도 오프라인 AI 모델 실행 지원…‘AI 엣지 갤러리’ 앱 출시
- 中, AI휴머노이드 육성 박차…산업 표준·학습용 거대모델 구축
- XR 전쟁의 서막, ‘애플 vs 메타 vs 삼성·구글’의 3파전
- 구글, '최고 AI 설계자' 직책 신설…"AI 모델 제품 통합 가속화"
- 피지컬 AI, 산업 구조를 다시 짜다
- “AI가 팔을 얻었다”
- [칼럼] 말하는 AI는 끝났다...이제 ‘움직이는 AI’가 온다
- K-휴머노이드 연합 출범, 한국은 왜 ‘피지컬 AI’에 승부를 걸었나
- 구글의 대반격, AI 패권 향한 3년의 질주