척척박사 연구소

척척박사 연구소과학이야기제목별로 보기해설이 있는 과학

해설이 있는 과학

최신 소식 속에 담긴 다양한 과학정보에 대한 해설입니다.

인터넷 검색, 10년 뒤 얼마나 똑똑해질까

색상 모양 분석해 이미지 검색…음성인식 문맥파악 가능
길을 걷던 A씨는 어느 가게에서 들려오는 감미로운 팝송에 발걸음을 멈춘다. “이 노래 제목이 뭘까?” A씨는 재빨리 휴대전화를 꺼내 몇 소절 녹음하고 곧바로 ‘음악검색’ 버튼을 누른다. 그러자 검색결과 가장 위에 이 노래의 제목과 가수, 가사, 수록 음반, 뮤직비디오까지 나온다. A씨는 간단한 결제를 하고 이 노래를 내려받는다.

원하던 음악을 들으며 길을 가던 A씨는 구두 한 켤레를 사기 위해 백화점에 들어선다. 마음에 드는 구두가 보이자 디지털카메라로 찍고 ‘사진검색’을 누른다. 카메라 액정화면에는 구두의 모델명과 가격뿐 아니라 모양, 색상을 분석해 유사한 디자인의 구두까지 나온다. A씨의 위치를 파악하고 근처에서 가장 저렴하게 살 수 있는 가게도 일러준다.







전문가들은 가까운 미래에 ‘언제 어디서나’ 검색이 가능한 시대가 올 것으로 예상한다. 휴대전화와 같은 모바일 기기를 통해 일상의 곳곳에서 시공간의 제약을 받지 않는 검색을 할 수 있다. 출처 동아일보 자료사진


10년 뒤 ‘시맨틱 검색’ ‘멀티미디어 검색’ ‘모바일 검색’이 대세


10년 뒤의 검색 서비스는 우리에게 어떻게 다가올까. 전문가들은 가까운 미래에 ‘언제 어디서나’ 검색이 가능한 시대가 올 것으로 예상한다. 휴대전화와 같은 모바일 기기뿐 아니라 웨어러블 컴퓨터(옷처럼 입고 다니는 컴퓨터)에서도 시공간의 제약을 받지 않는 검색을 할 수 있다는 것. 이게 가능하려면 지금과 같은 텍스트(문자) 기반의 검색에서 벗어날 수밖에 없다. 키보드를 늘 들고 다닐 수 없고 휴대전화로 일일이 입력하기도 불편하기 때문이다.

검색 소프트웨어 전문기업 코난테크놀로지의 김문희 기술기획팀장은 “음성과 언어, 사진, 동영상을 인식하는 기술이 검색 서비스와 접목된다”며 “사용자가 일일이 입력하지 않아도 원하는 바를 검색엔진 스스로 파악하는 수준이 될 것”이라고 말했다. 언제 어디서든 검색을 할 수 있도록 검색어를 입으로 말하거나, 말로 하기 힘든 경우 사진이나 동영상으로도 검색이 가능해진다는 것. 또 단순한 음성 분석을 벗어나 말의 의미와 맥락까지 분석하며, 개인의 이력과 성향, 직업, 장소까지 파악해 그 상황에 꼭 필요한 개인 맞춤형 정보가 제공된다.





세계 1위 검색 전문기업 구글의 에릭 슈밋 회장도 유사한 전망을 했다. 그는 “10년 뒤 검색엔진은 인공지능과 닮게 된다”며 “사용자의 위치와 검색어의 맥락까지 파악해 인류의 삶을 바꿀 것”이라고 내다봤다. 미래의 검색 서비스를 예견한 ‘The Search’의 저자, 존 바텔 페더레이트미디어 회장도 “미래의 완벽한 검색이란 내가 말하는 무언가를 ‘내가 원하는 것’으로 번역할 줄 알고 그 내용을 이해할 수 있는 서비스”라고 말했다.

이같은 전문가들의 의견을 종합해보면 미래의 검색 서비스는 문맥과 의미를 파악하는 ‘시맨틱 검색’, 음성과 영상을 매개로 한 ‘멀티미디어 검색’, 시간과 장소의 구애를 받지 않는 ‘모바일 검색’으로 나눠볼 수 있다. 이들 서비스는 아직 초보 단계이지만 여러 회사에서 시범적으로 선보이고 있어 해당 사이트에 접속하면 곧바로 체험이 가능하다.






이미지


시맨틱 기반의 검색사이트 울프람알파에서 ‘busan to auckland’를 검색창에 넣으면 검색엔진은 ‘한국의 부산에서 뉴질랜드의 오클랜드까지’라는 의미로 자체 해석한다. 그 결과 두 도시 간의 거리와 비행시간, 시차, 직선으로 연결한 지도까지 만들어 보여준다. 서영표 동아사이언스 기자ㆍsypyo@donga.com


의미 기반 시맨틱 검색…사용자의 마음까지 읽는다


시맨틱 검색은 단어나 문장의 뜻을 논리적으로 추론해 상황에 맞는 결과를 찾는 의미 기반 검색이다. 가령 ‘신민아 출연작’을 입력하면 지금처럼 단순히 ‘신민아’ ‘출연작’이란 단어가 들어가는 웹페이지를 우후죽순으로 보여주는 게 아니라, 수많은 검색 데이터를 해석해 신민아가 영화배우이며 출연작은 곧 영화제목임을 검색엔진 스스로 인식한다. 그 뒤 이 사실들과 연결되는 웹페이지들을 훑으며 ‘키친’ ‘무림여대생’ ‘고고70’이라는 결과를 가장 먼저 보여준다. 이는 SK커뮤니케이션즈의 포털사이트 네이트가 운영하는 ‘검색실험실(lab.nate.com)’에서 실제 확인할 수 있다.

이 사이트의 검색 기술을 개발한 코난테크놀로지의 이진구 마케팅팀장은 “만약 ‘올해 초복이 언제인가요’를 입력하면 시멘틱 검색은 ‘7월 14일’이라는 검색 결과를 가장 위에 보여주는 즉답형 서비스”라며 “국내에서는 우리 언어의 실정에 맞게 입력한 단어와 문장을 형태소 단위로 쪼개 해석하는 자연어 처리 기술과 맞닿아있다”고 설명했다.





이외에도 KT 미래기술연구소의 ‘STARS’, 인터넷 포털 큐로보, 검색서비스 아울림 등이 시맨틱 기반의 검색 기술을 선보이고 있다. 해외에서는 올 5월 선보여 화제를 모았던 울프람알파(www.wolframalpha.com)를 들 수 있다. 이 검색엔진을 개발한 스티븐 울프람 박사는 “전통적인 검색엔진이 아닌 연산능력을 갖춘 ‘지식’ 엔진”이라고 소개하고 있다. 복잡한 수학 계산과 통계, 그래프 처리에 특히 강하다. 예를 들어 ‘busan to auckland’를 검색창에 넣으면 검색엔진은 ‘한국의 부산에서 뉴질랜드의 오클랜드까지’라는 의미로 자체 해석한다. 그 결과 두 도시 간의 거리와 비행시간, 시차, 인구 비교 등을 일목요연한 표로 보여줄 뿐 아니라, 두 도시를 직선으로 연결한 지도까지 만들어 보여준다.






이미지


인터넷포털 네이트에서 선보이는 이미지 검색. 검색어로 ‘신민아’를 입력한 뒤 검색창 바로 밑의 컬러 팔레트에서 보라색을 선택하면 보라색이 가장 많이 들어간 사진 순서로 보여준다. 서영표 동아사이언스 기자ㆍsypyo@donga.com


음성과 영상 분석 기술 적용…보다 정확한 멀티미디어 검색 가능


이처럼 의미를 파악하는 검색 기술은 음성이나 영상을 분석하는 멀티미디어 검색으로 확장될 전망이다. 이는 최근 4~5년 사이 유투브 페이스북 싸이월드 판도라TV와 같은 사용자제작콘텐츠(UCC) 서비스가 대세를 이루면서, 온라인에서 유통되는 사진과 동영상 콘텐츠가 급증하게 되는 최근의 변화와 맞물린다. 더 세밀하고 정확하게 멀티미디어를 검색하는 누리꾼들의 요구가 커지고 있는 것이다.

지금의 멀티미디어 검색은 사진과 동영상의 제목, 태그, 설명글, 댓글 등을 근거로 검색하는 수준이다. 예를 들어 노란 옷을 입은 배우 신민아 사진을 구하기 위해 ‘노란 옷 신민아’를 입력했을 때 대개는 ‘노란’ ‘옷’ ‘신민아’라는 단어와 부합하는 사진 파일명이나 누리꾼이 사진에 달아놓은 설명을 매개로 찾는다. 하지만 미래의 멀티미디어 검색은 이같은 텍스트 정보 뿐 아니라 이미지의 색상, 모양까지 파악해 결과를 보여준다. 사진 파일 속 노란색을 나타내는 이미지 정보까지 분석하는 것이다.





네이트에서는 이와 유사한 이미지 검색을 이미 선보이고 있다. 검색어로 ‘신민아’를 입력한 뒤 검색창 바로 밑의 컬러 팔레트에서 노란색을 선택하면 노란색이 많이 들어간 사진부터 먼저 나열된다. 이 때 보라색으로 바꿔 선택한다면, 보라색 옷을 입었든 보라색 배경에서 찍었든 보라색이 가장 많이 들어간 사진 순서로 보여준다.

모양에 따른 조건 검색도 가능하다. 네이트 검색실험실 모양인식 검색에서 ‘김밥’을 입력하고 모양 선택을 ‘□’로 선택하면 어떤 결과가 나올까. 네모난 접시나 박스에 담긴 김밥 사진 위주로 검색결과를 보여준다. 만약 ‘△’를 선택했다면? 삼각김밥을 찍은 사진들이 화면 가득히 나온다.






이미지

 


사진 파일 자체가 검색어 역할을 하는 캐나다의 이미지 전문 검색엔진 틴아이(tineye.com). 한입을 베어먹은 사과 사진을 사이트에 올려 검색을 실행하면 이 사진의 모양, 색상과 거의 흡사한 사진들을 보여준다. 사진제공 코난테크놀로지

코난테크놀로지의 김문희 기술기획팀장은 “이같은 이미지 검색 기능은 구글 검색과 마이크로소프트의 ‘빙’에서도 선보이고 있다”며 “지금은 신문 기사나 책의 본문 내용을 텍스트 정보로 검색하는 것처럼 미래에는 사진과 동영상 속 내용까지 파악하는 검색 서비스가 보편화될 것”이라고 전망했다. 그는 이어 “음성 인식과 영상 분석 기술이 발달되면 영상이나 음성 파일 자체가 검색어 역할을 하게 된다”며 “배경이 단순한 쇼핑몰의 상품 이미지를 대상으로 비슷한 모양과 색깔의 상품을 찾는 ‘유사 이미지 검색’은 이미 등장했다”고 설명했다.

이 기술은 캐나다의 이미지 전문 검색엔진 틴아이(tineye.com)에서 확인할 수 있다. 한입을 베어먹은 사과 사진을 사이트에 올려 검색을 실행하면 이 사진의 모양, 색상과 거의 흡사한 사진들을 보여주는 식이다. 쇼핑몰 주얼리뷰어(www.jewelryviewer.com)에서도 유사 이미지 검색이 활용되고 있다. 다양한 모양의 반지들을 나열한 화면에서 하나를 선택하면 이와 유사한 모양을 갖는 반지들을 검색한다. 또 컬러 팔레트에서 파란색을 선택하면 푸른빛이 감도는 반지들을 보여준다.




때와 장소를 가리지 않는다…모바일 기기로 언제 어디서나 검색 가능
이같은 시맨틱 검색과 멀티미디어 검색은 결국 모바일 검색에서 빛을 발할 전망이다. 전문가들은 앞으로의 검색은 PC보다 모바일 단말기에서 훨씬 많이 이뤄질 것으로 예상하고 있다. 코난테크놀로지의 이진구 마케팅팀장은 “2008년 기준 전세계에 보급된 휴대폰은 40억 대로 PC(8억 대)의 5배 수준”이라며 “미국 시장조사기관인 IDC는 앞으로 4년 동안 모바일 단말기의 보급 대수가 3배 가까이 많아질 것으로 전망했다”고 말했다.

검색의 무게 중심이 PC에서 모바일로 옮겨감에 따라 서비스가 이뤄지는 형태도 달라진다. 일부 검색소프트웨어 전문기업들은 텍스트가 아닌 다른 입력 수단, 즉 사람의 음성이나 사진을 이용한 검색으로 방향을 잡고 있다. 아무래도 휴대용 기기는 입력 장치가 작아 여러 글자를 입력해야 하는 텍스트 방식을 최소화할 필요가 있기 때문이다.






 


미래에는 휴대전화 카메라로 촬영한 사진을 전송해 관련 상품을 검색하는 기술이 활발하게 쓰일 전망이다. 여기에는 입력된 사진 파일에서 색상, 모양, 질감과 같은 이미지의 특징값을 추출해 분석하는 멀티미디어 검색 기술이 적용된다. 출처 동아일보 자료사진

우선 음성 검색은 위치검색이나 지역검색에 가장 먼저 적용되고 있다. 아직은 음성 인식 수준이 높지 않아 지명이나 상호와 같은 고유명사를 대상으로 검색하는 방식이 혼동의 여지가 적기 때문이다. 구글의 ‘GOOG-411’도 음성 신호를 텍스트로 변환해 검색 서버에 검색을 요청하는 기술을 적용한 서비스다. 가령 휴대전화로 구글 보이스에 접속해 GOOG-411로 전화한 뒤 ‘서점’이라고 말하면 근처 서점의 지도와 연락처가 화면에 표시되는 식이다. 전화번호 안내원의 역할을 음성인식 기능을 탑재한 검색엔진이 대신하는 모습이다.

휴대전화 카메라로 촬영한 사진을 전송해 검색하는 기술은 상품 비교 검색에서 활발하게 쓰일 전망이다. 코난테크놀로지의 김문희 기술기획팀장은 “입력된 사진 파일에서 색상, 모양, 질감과 같은 이미지의 특징값을 추출하는 멀티미디어 검색을 적용하게 될 것”이라며 “오프라인 매장이나 카탈로그에서 마음에 드는 물건을 카메라로 찍어 이에 대한 상품평과 더 싼 매장이 있는지 검색해 볼 수 있다”고 설명했다.

때와 장소를 가리지 않는 검색 서비스는 상품 검색뿐만 아니라 일상 곳곳에서 실현될 전망이다. 공원을 산책하다가 예쁜 새 한 마리가 눈에 띈다면 휴대전화 카메라로 찍어 곧바로 새의 이름과 특징 등을 검색할 수도 있을 것이다. 김문희 팀장은 “모바일 기기에서 음성 혹은 이미지로 검색하는 기술은 아직 더 많은 연구개발이 필요한 상황”이라며 “지금 추세라면 향후 몇 년간 상당한 수준의 기술적 진보가 이루어질 것으로 기대된다”고 전망했다.

 

 

 

 

 



도움말=코난테크놀로지

서영표 동아사이언스 기자 sypyo@donga.com



관련주제가 없습니다.
내과학상자담기  E-MAIL 프린트 카카오스토리 트위터 페이스북 RSS
관련 콘텐츠가 없습니다.

나도 한마디 1개의 댓글이 있습니다.

등록하기

목록


내 당근 보러가기

내 뱃지 보러가기

TOP