[AI요약] 구글이 새로운 ‘AI모드’를 공개하면서 ‘구글 검색’이라는 단어적 의미인 키워드를 입력하고 링크, 이미지, 정보 조각을 샅샅이 뒤지는 시대는 끝났다. AI모드는 질문 처리 방식 외에도 두 가지 핵심적인 새로운 검색 방식을 제공할 예정이다.
구글이 30년 검색의 시대를 뒤로하고 새로운 AI모드를 공개했다.
구글이 새롭게 공개한 ‘AI모드’ 검색 엔진 개편과 전망에 대해 가디언, CNN 등 외신이 21일(현지시간) 공개했다.
구글은 20일 연례개발자 컨퍼런스를 통해 직접 ‘구글’이라는 단어의 기본적인 의미, 즉 키워드를 입력하고 링크, 이미지, 정보 조각을 샅샅이 뒤지는 일은 이제 거의 끝났다고 선언했다.
ⓒTech42 |
구글이 30년 검색의 시대를 뒤로하고 새로운 AI모드를 공개했다.
구글이 새롭게 공개한 ‘AI모드’ 검색 엔진 개편과 전망에 대해 가디언, CNN 등 외신이 21일(현지시간) 공개했다.
구글은 20일 연례개발자 컨퍼런스를 통해 직접 ‘구글’이라는 단어의 기본적인 의미, 즉 키워드를 입력하고 링크, 이미지, 정보 조각을 샅샅이 뒤지는 일은 이제 거의 끝났다고 선언했다.
그리고 구글은 웹 검색의 미래에 대한 비전을 제시하며, 유비쿼터스 검색 엔진을 키워드 처리 상자에서 웹을 크롤링하고 사용자의 실제 환경, 취향, 선호도를 기반으로 질문에 답할 수 있는 ‘디지털 에이전트’ 시스템으로 전환하는 것을 목표로 하는 일련의 업데이트를 발표했다.
구글의 이번 중대한 발표는 기업의 가장 중요한 사업 부문이 그 어느 때보다 치열한 경쟁에 직면해 있음을 보여준다.
챗GPT와 같은 챗봇과 퍼플렉시티(Perplexity)와 같은 AI 기반 검색 엔진은 정보를 찾고 작업을 처리하는 새로운 방식을 제시하고 있다. 이 두 가지 작업은 구글의 핵심 사업의 핵심이라는 점이 눈길을 끈다. 이어 새롭게 발표된 구글의 도구들은 거의 30년 된 구글검색 엔진을 AI 시대에도 살리기 위한 기업의 노력으로 볼 수 있다.
새롭게 공개된 구글의 AI모드는 기존 검색과는 어떻게 다를까.
구글은 이전에 랩스(Labs) 프로그램을 통해 초기 기능 테스트에 등록한 사용자에게만 제공했던 AI모드를 구글 앱을 통해 먼저 모든 미국 사용자에게 확대할 예정이다. 이는 소비자가 검색 결과 상단에 표시되는 AI 생성 답변인 AI 개요보다 한 단계 더 발전한 것이다.
AI모드와 일반 구글 검색의 주요 차이점은 쿼리 처리 방식이다. AI모드는 질문 전체를 살펴보는 대신, 질의를 하위 주제로 나누고 해당 주제를 기반으로 추가 검색을 생성해 더욱 구체적인 답변을 제공한다. 구글에 따르면, AI모드는 사용자의 검색 기록을 활용해 답변을 더욱 개인화하고, 지메일(Gmail)과 같은 다른 구글 앱과도 연결된다.
AI모드는 질문 처리 방식 외에도 두 가지 핵심적인 새로운 검색 방식을 제공할 것으로 예상된다.
먼저 사용자를 대신해 작업을 처리하는 방식이고, 다른 하나는 사용자가 휴대전화 카메라를 사용해 주변 환경을 구글에 보여주는 방식이다. AI모드는 현재 미국에서 정식 출시됐지만, 이 두 가지 기능을 사용하려면 여전히 랩스(Labs)에 가입해야 한다.
구글은 지난해 연구용 프로토타입으로 발표한 ‘프로젝트 마리너’(Project Mariner) 기술을 통해 사용자를 대신해 특정 작업을 수행하고 일반적으로 여러 단계가 필요한 질문에 답할 수 있다고 밝혔다.
예를 들어, 사용자가 ‘이번 일요일 야구 경기 티켓 두 장을 저렴하게 찾아줘’와 같이 질문하면 구글이 티켓을 검색하고 옵션과 가격을 분석한 뒤 양식을 자동으로 작성한 후 사용자의 기준에 맞는 티켓을 찾아준다.
이 기능은 티켓마스터, 스텁허브, 레지, 바가로와 같은 서비스를 통해 티켓 구매, 레스토랑 예약, 지역 예약에 사용할 수 있으며, 향후 몇 달 안에 구글 앱의 실험실 섹션에 추가될 예정이다.
구글 앱의 AI모드에도 사용자가 주변 환경에 대해 질문할 수 있는 새로운 기능이 추가됐다. 시각적 검색은 구글에서 처음 공개한 기술은 아닌데, 구글의 렌즈 도구를 통해 사용자는 이미 촬영한 사진에 대해 질문할 수 있기 때문이다.
ⓒTech42 |
그러나 이번에 새롭게 공개된 모드는 사용자가 보고 있는 것을 실시간으로 구글에 보여줌으로써 이러한 아이디어를 한 단계 더 발전시켰다. 예를들어 사용자가 직접 테이블을 좀 더 튼튼하게 수리하기 위해 필요한 장비와 같은 설명하기 복잡한 작업에 대한 질문을 사용자가 테이블을 실시간으로 보여줌으로써 구글이 이에 답변할 수 있도록 하는 것이 목표다.
구글은 이전에 안드로이드용 제미나이(Gemini)에 이 시각 검색 기능을 도입했으며 현재 아이폰으로 확장하고 있다. 이번 구글의 발표는 해당 기능을 기업이 자사 검색 엔진의 미래에도 핵심적인 역할을 할 것으로 보고 있음을 보여준다.
새로운 검색 기능 중 일부는 구글 제미나이 있는 기능과 중복돼 사용자들에게 혼란을 야기할 수 있다는 지적도 있다. 그러나 구글 검색 기능은 학습에 맞춰져 있는 반면, 제미나이는 질문에 답하는 것 외에도 코드 생성 및 사업 계획 작성과 같은 작업을 돕는 역할을 하는 것이 특징이다.
순다르 피차이 알파벳 CEO는 “이 모든 진전은 우리가 이제 AI 플랫폼 전환의 새로운 단계에 접어들고 있음을 보여준다”며 “수십 년간의 연구가 이제 전 세계 사람, 기업, 그리고 커뮤니티에 현실이 되고 있다”고 컨퍼런스를 통해 밝혔다.
류정민 기자
저작권자 © Tech42 - Tech Journalism by AI 테크42 무단전재 및 재배포 금지




























































