척척박사 연구소

척척박사 연구소과학이야기제목별로 보기해설이 있는 과학

해설이 있는 과학

최신 소식 속에 담긴 다양한 과학정보에 대한 해설입니다.

학습콘텐츠가 살아 숨쉰다

유비쿼터스 가상현실기술이 핵심
작은 컴퓨터가 변기, 지하철, 옷에 숨어 나의 일거수일투족을 지켜보며 지원하는 유비쿼터스 시대가 오면 언제 어디서나 무엇이든 배울 수 있을 것이다.

이들 컴퓨터가 나도 모르는 사이에 내게 맞는 ‘생생 정보’를 골라 제공할 수 있기 때문이다. 우주왕복선이나 코뿔소가 전자책에서 튀어나오지 않을까.








2015년 어느 날 연우네 가족은 동물원에 다녀와 거실에 둘러앉는다. 아버지는 자신의 스마트 PDA로 그날 찍어온 영상을 대형TV에 띄우고 테이블 위에 동물원 지도를 펼친다. 연우가 자기 PDA로 지도를 보자 3차원 동물원이 나타난다.

지도 중앙에는 사자 마커가 있는데 이것을 각자 자기 PDA로 들여다본다. 연우는 자신의 PDA에서 실제 사자가 튀어나오는 것 같은 3차원 영상을 보며 정글탐험 게임을 한다. 아버지는 PDA에서 사자의 내장 기관을 입체적으로 살펴보고, 어머니는 PDA에서 대형TV로 쏴주는 3D 영화 ‘마다가스카’를 즐긴다.

머지 않은 미래에 구현될 수 있는 지능형 학습환경이다. PDA 같은 휴대용 기기가 스스로 사용자의 경험, 취향, 배경지식, 능력, 기분 등을 똑똑하게 파악해 사용자에 따라 맞춤형 정보를 실감나게 제공한다는 내용이다. 이는 유비쿼터스 컴퓨팅 개념이 적용된 U-러닝의 세계다. U-러닝은 최근 각광받는 온라인학습인 E-러닝이나 무선통신을 이용한 모바일학습 M-러닝보다 더 진보한 학습방식이다.




유비쿼터스 컴퓨팅은 사용자에게 원하는 정보나 서비스를 언제 어디서나 즉시 제공할 수 있는 기반 기술을 말한다. 컴퓨터와 유무선통신의 만남, 인공지능의 진화, 새로운 미디어의 확산, 사용자와 컴퓨터의 상호작용을 포함한 관련 기술의 발전 덕분에 유비쿼터스 컴퓨팅 시대가 점차 다가오고 있다.

현재 버스나 지하철에서 무선인터넷이 가능한 휴대전화나 PDA를 이용해 학습할 수 있다. 하지만 이런 장치는 저장용량이나 처리성능, 배터리 수명, 대역폭 등이 제한되기 때문에 양질의 교육콘텐츠를 즉시 제공하는 데는 한계가 있다. 아직 휴대용 기기의 인터페이스는 일반인에게 부담스럽고 교육콘텐츠는 사용자의 차이를 제대로 반영하지 못한다.

최근 유비쿼터스 컴퓨팅 개념이나 유비쿼터스 가상현실(U-VR)의 개념이 적용된 U-러닝이 모바일학습의 한계를 극복할 수 있는 대안으로 주목받고 있다. 유비쿼터스 컴퓨팅 환경에서는 사용자의 휴대용 기기나 입는 컴퓨터가 스스로 주변 상황을 효율적으로 파악해 사용자에게 필요한 실감콘텐츠를 즉시 제공할 수 있다. 같은 장면을 보더라도 사람에 따라 학습콘텐츠가 자동으로 달라지는 것이다.

전자신문이나 전자책이 등장해도 저장용량이나 배터리 수명에 한계가 있다. 하지만 유비쿼터스 환경에서는 휴대용 기기가 스스로 상황을 파악해 사용자에게 필요한 실감콘텐츠를 즉시 제공할 수 있다.
허공에 투영된 실감영상
미래의 U-러닝환경을 구현하기 위해서는 어떤 기술이 필요할까. 유비쿼터스 컴퓨팅이란 말을 처음 사용한 미국의 마크 와이저는 컴퓨터들이 생활공간 전반에 걸쳐 존재하는 미래세계를 상상했다. 유무선통신망을 통해 긴밀하게 연결된 컴퓨터들이 사용자가 필요한 정보나 서비스를 즉시 제공하는 환경을 구현하는 것이다. 소형 컴퓨터는 자동차나 가전제품뿐 아니라 화분이나 변기에도 들어갈 수 있다.

예를 들어 ‘지능형 손잡이’를 쥐면 사용자의 지문을 확인해 낯선 침입자를 막을 수 있고 ‘똑똑한 변기’에 앉아 용변을 보면 대소변을 분석해 사용자의 건강상태를 파악할 수 있다. 산소처럼 보이지 않게 사용자를 지원하는 셈이다.

미래의 지능형 환경은 사람에게 거부감이나 불편함도 주지 않아야 한다. 사물에 숨어 있는 센서나 칩이 주변환경이나 사용자의 상황이나 맥락정보도 실시간으로 인식·추적한다. 주변온도나 밝기뿐 아니라 사람의 표정, 제스처, 음성, 신체변화 등을 파악하는 방식이다. 영화 ‘마이너리티 리포트’에는 도망다니는 남자주인공(톰 크루즈)이 ‘스마트’ 광고판 앞을 지나갈 때 이 광고판은 주인공에게 난데없이 휴가상품을 선전해 댄다. 주인공의 처지를 조금이라도 이해했다면 이 같은 반응을 보이지 않았으리라.

손으로 뻗어 닿을 만한 거리에 가상으로 세운 육각기둥들은 ‘공간센서’라 불린다. 이 센서를 만들기 위해서는 3대의 카메라로 찍어 사람만의 3차원 정보를 알아내는 과정이 필요하다(오른쪽 작은 사진들). 최종 영상에서 진한 회색일수록 가까운 거리에 있다는 뜻이다.

또 증강현실(Augmented Reality) 기술이 제대로 구현되면 3차원 가상정보를 현실세계에 끌어와 실감나게 보여줄 수 있다. 영화 ‘마이너리티 리포트’의 주인공은 범죄현장의 영상을 찾을 때 손가락 끝에 센서를 달고 허공에 투영된 스크린에서 여러 영상파일을 손으로 클릭하거나 옮긴다. 증강현실 기술이 적용된 이 장면에서 허공에 뜬 영상이 실제처럼 생생하다. 물론 HMD(Head Mounted Display) 같은 장치를 뒤집어쓰고 가상공간에 들어가 실제 같은 가상현실을 경험하게 만드는 가상현실 기술과 다르다.

현재 U-러닝 관련 기술은 어느 정도 수준일까. 광주과기원 U-VR연구실은 시각기반 인터페이스, 지능형 에이전트, 증강현실 기술 등을 연구하며 U-러닝 시스템의 가능성을 모색하고 있다.

시각기반 인터페이스란 카메라를 이용한 사용자 중심의 인터페이스다. 기존 컴퓨터에서는 키보드, 마우스 등을, 가상현실 시스템에서는 장갑, 안경, 헬멧 등을 인터페이스로 쓴다. 몰입감이 중요한 가상현실 시스템에서 몸에 부착하거나 착용해야 하는 인터페이스는 오히려 몰입감을 감소시켜 문제다. 하지만 시각기반 인터페이스는 사용자가 다른 사람과 대화하듯 표정, 몸짓 등의 정보를 입력신호로 활용할 수 있다.

연구실에서 개발한 가상검도 게임이 좋은 예다. 사람이 실제 검을 들고, 대형 화면에 등장하는 아바타와 대련하는 게임으로 ‘다시점 카메라’(multiview camera)라는 특수 카메라가 사람과 검의 움직임을 잡아내는 원리다. 실제 검은 일부가 가상공간에 보이고 사람이 흔드는데 따라 움직여 몰입감을 높인다. 사람이 지르는 기합 소리도 마이크를 통해 가상공간에 전달돼 아바타가 반응한다.

사람이 공간센서에 닿는 방법에 따라 화면의 풍경이 봄, 여름, 가을, 겨울(위에서 아래로)로 바뀐다. 예를 들어 사람이 천천히 움직이면 겨울 풍경이 나타나는 식이다
내가 선택하는 가상 운주사 여행
가상의 공간센서를 만들어 TV를 조종하거나 문화 체험도 할 수 있다. 다시점 카메라를 이용해 사람의 위치를 파악하고 손으로 뻗어 닿을 만한 거리에 가상 육각기둥 몇 개를 세우면 이 기둥이 센서가 된다. 사람이 오른쪽 기둥을 만지는 시늉을 하면 TV 채널이 바뀌고 왼쪽 기둥을 만지는 시늉을 하면 소리가 달라진다. 또 사람이 천천히 움직이면 대형 화면에 컴퓨터그래픽으로 된 겨울 풍경이 나타나고 빨리 움직이면 같은 장소가 봄의 풍경으로 변하는 시스템도 가능하다.

시각기반 인터페이스를 이용한 가상 운주사도 있다. 전남 화순 운주사의 지도가 놓여 있는 특수 테이블(ARTable) 위에서 마우스 대신 종이로 만든 ‘실감형 사용자 인터페이스’(TUI, Tangible User Interface)를 움직이면서 가상공간에 펼쳐지는 운주사를 여행하는 시스템이다. 이 시스템은 카메라를 이용해 테이블 지도 위에서 TUI의 움직임을 잡아내는데 TUI가 특정 지점에 오면 그 지점의 3차원 영상을 스크린에 실감나게 보여주는 식이다. 이 모든 과정을 총괄하는 기반 프로그램인 ‘지능형 에이전트’가 중요한 역할을 한다.

종이로 만든 ‘실감형 사용자 인터페이스’(TUI, 오른쪽)를 테이블 위에서 움직이면서 가상공간에 펼쳐진 운주사를 여행하는 모습.

특수 테이블에서 사용자가 가고 싶은 지점, 콘텐츠에 대한 배경지식 등을 파악하면 지능형 에이전트가 이 정보를 처리하고 추론해 사용자에게 맞는 가상 운주사를 화면에 보여준다. 화면에는 사용자에 따라 봄이나 가을 같은 계절, 안개가 끼거나 화창한 기상상태, 나무에 꽃이 피었는지 등의 조건이 선택돼 가상 운주사가 펼쳐진다. 따라서 사용자는 맞춤형 이야기를 가진 가상 운주사 여행을 하게 된다.



물 주면 가상공간에 비가
지능형 에이전트를 활용한 또 다른 예는 감성 교감용 콘텐츠인 ‘vr플로라’(vrFlora)가 있다. 실제 공간의 꽃을 쓰다듬어주면 가상공간의 꽃에서 반응이 나타나는 시스템이다. 동일한 화분의 꽃을 만져주는데 사람이 관심을 보이는 정도에 따라 가상 꽃의 상태가 달라진다. 애정을 갖고 자주 와서 꽃을 쓰다듬으면 가상 꽃은 무럭무럭 자라지만, 무관심하면 시들어버릴 수 있다.

vr플로라는 마치 인간처럼 스스로의 동기, 즉 감정과 욕구의 상태를 변화시키며 인간과 감성을 교감할 수 있는 학습 콘텐츠를 만들기 위한 시도다. vr플로라는 상황을 자율적으로 해석하는 지능형 에이전트로 사용자에게 콘텐츠가 마치 살아 있는 듯한 느낌을 준다.

사용자와 감성을 교감하는 콘텐츠 기술은 E-러닝과 U-러닝을 구별 짓는 핵심 요소가 될 것이다.

사용자와 감성을 교감하는 콘텐츠인 ‘vr플로라’. 자주 와서 화분의 꽃을 쓰다듬어주면 가상공간의 꽃이 무럭무럭 자란다.

여기에서 한 단계 더 나간 예가 꽃을 키우기 위한 교육용 가상화단인 ‘가든 얼라이브’(Garden Alive)이다. 손, 물뿌리개, ‘영양분 공급기’ 등 다양한 사용자 인터페이스가 지능형 에이전트와 결합한 것이다. 손으로 만져주면 가상공간의 식물이 좋아하며, 실제 화단에 물을 주면 화단 아래 센서가 물을 감지하고 가상공간에 비를 내린다. 식물 생육에 필요한 3대 요소(질소, 인, 칼륨)를 의미하는 ‘영양분 종이’를 주면 영양분에 따라 가상식물의 잎이나 뿌리가 자라는 정도가 다르다.

가상화단의 ‘지능형 식물’은 자극에 단순하게 반응하지 않고, 주변 환경에 적응하며 교배를 통해 더 우수한 개체로 진화할 수 있는 인공생명체다. 각각의 개체는 고유한 유전자를 지니고 있어 잎의 색, 굵기 그리고 성장속도가 다르게 나타나는 것이다.

U-러닝이 보급되는 미래에는 지능형 학습공간에서 개인 맞춤형 실감 콘텐츠가 즉시 제공되고 사용자는 복잡한 인터페이스에 골머리를 썩이지 않고 직관적으로 콘텐츠와 상호 작용할 수 있을 것이다. 이런 U-러닝환경에서는 학교, 가정, 사회가 유기적으로 연계되고, 사용자가 일방적으로 교육내용을 받아들이는 것이 아니라 스스로 언제 어디서나 수준에 맞는 콘텐츠를 선택해 직접 경험하며 배우는 학습이 가능할 전망이다.


우운택 교수는 | 미국 서던캘리포니아대에서 디지털신호처리 분야로 박사 학위를 받았다. 현재 광주과학기술원 교수로 유비쿼터스 가상현실(U-VR) 연구실을 운영하고 있다. 유비쿼터스 환경에 가상기술을 접목하는 ‘지능형 증강현실’을 연구하고 있다.



관련주제가 없습니다.
내과학상자담기  E-MAIL 프린트 카카오스토리 트위터 페이스북 RSS
관련 콘텐츠가 없습니다.

나도 한마디 0개의 댓글이 있습니다.

등록하기

목록


내 당근 보러가기

내 뱃지 보러가기

TOP