11일(현지시각) 미 실리콘밸리 구글 본사에서 열린 구글 I/O에서 순다르 피차이 CEO가 기조연설을 하고 있다. /구글

구글이 11일(현지시각) 연례 개발자 대회인 ‘구글 I/O 2022′을 열고 AI(인공지능)와 AR(증강현실) 기술을 접목해 강화한 검색 기능을 선보였다. 구글은 또 올 가을 출시 예정인 첫 스마트워치 ‘픽셀워치’를 처음으로 공개했다.

이날 미 실리콘밸리 마운틴뷰에서 온라인 하이브리드 방식으로 진행된 구글 I/O에서는 진화한 AI와 실생활에 본격 적용되는 AR 기능이 대거 공개됐다. 순다르 피차이 구글 CEO(최고경영자)는 “구글은 삶을 더 나은 방향으로 만드는 기술을 추구한다”며 “이러한 기술이 적용된 모습은 놀랍다”고 했다.

구글이 공개한 첫 스마트워치 픽셀워치. /구글

◇올 가을 픽셀워치 출시

2시간 동안 이어진 이날 행사 기조연설에서 일반 소비자가 가장 관심을 가질만한 내용은 스마트워치와 태블릿 등 구글의 새로운 하드웨어 출시 소식이다. 구글은 그동안 소문이 무성했던 첫번째 스마트워치인 픽셀워치 출시를 공식 선언했다. 구글은 2021년 웨어러블 업체 핏빗 인수를 완료하고, 작년 삼성전자와 손을 잡고 삼성전자의 스마트워치 OS(운영체계)인 타이젠을 구글 웨어OS에 통합하며 스마트워치 시장 영향력을 높여왔다. 여기에 구글은 올 가을 픽셀워치를 출시하며 본격적으로 스마트워치 시장 직접 진출을 선언한 것이다.

이날 공개된 픽셀워치의 모양은 지난달 실리콘밸리의 한 식당에서 발견된 구글의 스마트워치 추정 시제품의 모습과 동일하다. 둥그런 화면에 오른쪽에 다이얼과 버튼이 있다. 구글은 픽셀워치에 재활용 스테인리스 스틸을 사용한다고 밝혔다. 픽셀워치에는 구글의 각종 소프트웨어가 적용된다. 픽셀워치로 구글맵을 볼 수 있고, 구글이 출시한 전자지갑인 구글 월렛이 탑재된다. 구글은 “심박수와 수면 추적 기능도 탑재된다”며 “픽셀워치로 구글의 스마트 홈 기기를 제어해 집 안의 불을 끌 수도 있다”고 했다. 구글은 오는 가을 스마트폰 신제품인 픽셀7과 함께 출시할 계획이라고 했다.

11일(현지시각) 구글이 공개한 하드웨어 신제품. 스마트워치인 픽셀워치, 무선이어폰인 픽셀버즈프로, 태블릿인 픽셀태블릿, 스마트폰 픽셀6A와 픽셀7.

구글은 이날 구글이 자체 제작한 반도체인 구글 텐서를 탑재하는 태블릿 신제품의 모습도 공개했다. ‘픽셀태블릿’으로 이름 붙은 이 제품은 작년 조용히 단종된 구글의 테블릿(픽셀 슬레이트)을 잇는 제품이다. 구글은 이 제품을 내년 출시한다고 했다. 테크크런치는 “구글이 스마트폰인 픽셀, 스마트워치 픽셀워치, 태블릿인 픽셀태블릿에 모두 자체 개발한 텐서 칩을 심었다”며 “이는 구글이 하드웨어 생태계를 만들려는 시도로 보여진다”고 했다.

구글은 또 이날 현재 판매 중인 스마트폰 픽셀6의 보급형 모델인 픽셀6A를 7월부터 판매한다고 밝혔고, 노이즈 저감 기술이 탑재된 무선이어폰 픽셀버즈프로도 올 7월부터 판매한다고 공개했다. 검은색과 옅은 회색, 옅은 에메랄드색 등 4가지 색으로 출시되는 픽셀버즈프로는 1회 충전에 11시간 지속된다. 가격은 199달러다.

인간과 상상하며 이야기하는 구글의 AI 언어모델 람다2. /구글

◇버벅거리는 말 이해하는 인공지능

구글은 이날 행사에서 한층 진화한 AI 기술도 선보였다. 작년 맥락을 이해하는 AI를 공개한데 이어, 올해는 사람과 함께 특정 주제에 대해 상상하며 이야기를 나누고, 사람의 버벅이는 말도 이해하는 AI를 소개했다. 작년 공개한 AI 언어모델인 람다(LaMDA)를 업그레이드 한 람다2가 그것이다.

사람이 “내가 가장 깊은 바다 속에 있다고 상상해봐라”라고 제시하면, AI가 “당신은 대양의 가장 깊은 해저인 마리아나 해구에 있다. 당신은 이상할 정도로 낮은 우르렁거리는 소리를 듣는다. 고래가 당신을 환영하는 소리다. 당신은 차갑고 어두운 물이 당신을 감싸는 것을 느낀다”라고 답하는 식이다. 구글은 ‘AI 테스트 키친’ 이라는 개발 앱 공간을 만들고, 이곳에서 AI 언어모델을 더욱 진화시킨다는 계획이다.

이날 구글은 대화 맥락을 파악하고 말을 버벅거려도 이해하는 AI 음성 인식 비서인 구글 어시스턴트의 기능 강화도 선보였다. 그동안 구글 어시스턴트를 실행하려면 ‘헤이 구글’이라고 불러야 했다. 하지만 앞으론 사전에 사용자의 얼굴과 음성 정보를 입력해놓고, 따로 “헤이 구글”이라고 부르지 않고 구글 스피커쪽을 바라보며 이야기를 하면 AI가 이를 맥락 속에서 인지해 반응한다. 이야기를 하다가 “음...” 하면서 버벅거리면 AI가 사용자의 말을 더 기다리고 이해한다. 이전엔 구글 어시스턴트에 말을 걸다가 버벅거리면 오류가 났다. 구글은 “AI가 인간 언어의 불완전성을 더 잘 이해할 수 있어 더 자연스러운 대화가 가능하다”고 했다.

구글의 새로운 검색 기능인 멀티서치. /구글

◇스마트폰 갖다 대면 추천 점수 높은 상품 알려줘

구글은 강화된 이미지 분석과 AR(증강현실) 기술을 적용해 한창 개선된 검색 기능을 선보였다. 바로 ‘멀티서치’다. 구글 렌즈 앱을 통해 구현되는 기능으로, 스마트폰에서 구글 렌즈 앱을 켜고 특정 물건을 사진 찍은 후 추가 창에 자신이 원하는 정보를 적으면 결과를 얻을 수 있다. 예컨대 자전거를 수리하다가 특정 부품을 교체해야 하는데 부품의 이름을 모를 경우, 구글 렌즈 앱으로 해당 부품을 촬영하고 추가 창에 ‘가까운 곳(Near Me)’이라고 쳐넣으면 원하는 부품을 살 수 있는 가장 가까운 매장을 안내해준다. 이러한 방식으로 음식 블로그에서 본 음식이 무엇이고, 이를 어디서 파는지 한번에 알 수 있다.

AR 기술을 도입한 ‘장면탐색(Scene Exploration)’ 기능도 주목을 끌었다. 마트에 놓인 수많은 초콜릿 앞에서 구글 렌즈 앱을 켜고, ‘추천 점수’를 보여달라고 설정하면 현재 눈앞에 보이는 초콜릿이 몇 점을 받았는지 한눈에 보여준다. 와인 판매대에서 같은 방식으로 사진을 찍고, 원산지별로 보여달라고 할 수도 있다.

구글의 장면탐색 기능. /구글

구글은 이날 또 3D 랜더링을 통해 특정 지역을 실제와 비슷하게 표현하고 이를 둘러볼 수 있는 구글맵 몰입형 뷰(Immersive view) 기능도 선보였다. 위성 지도에서 보는 것이 아닌 실제로 해당 지역에 있는 듯한 느낌을 준다. 구글은 “몰입형 뷰를 통해 랜드마크와 레스토랑의 내부에 실제로 있는 듯한 느낌을 받을 수 있다”며 “올해 말 구글맵 내에서 미국 로스앤젤레스와 뉴욕, 샌프란시스코, 영국 런던, 일본 도쿄 등을 몰입형 뷰로 제공할 것”이라고 했다.

행사 막바지에 구글은 야심찬 제품을 공개했다. 실시간 자동 언어 번역을 지원하는 스마트글래스 시제품이다. 출시 시점 등은 공개되지 않았지만, 이 안경을 끼면 상대방의 말이 자동으로 번역돼 눈 앞에 언어로 표시가 된다.

구글이 11일(현지시각) 공개한 실시간 번역 기능을 갖춘 스마트글래스 시제품. /구글

구글이 행사장에서 방영한 영상에는 영어를 하지 못하는 중국인 엄마와 중국어가 서툴고 영어가 편한 딸이 등장한다. 서로 언어의 장벽으로 의사소통이 자유롭지 않았던 모녀는 구글의 스마트글래스 시제품을 끼고 비로소 자유롭게 이야기를 나눈다. 순다르 피차이 구글 CEO는 “구글은 AR 기술 등에 막대한 투자를 진행하고 있다”고 했다.