네이버 장준기 테크 플랫폼 부문장이 성남시 분당구 네이버 본사에서 아시아경제와 인터뷰하며 크리에이터 영상 촬영을 위한 모션스튜디오에 유럽풍의 배경화면을 띄워 보여주고 있다. 허영한 기자
원본보기 아이콘지난 5일 경기 성남 네이버 본사에서 만난 장준기 테크플랫폼 부문장은 향후 중요한 기술이 될 이머시브(immersive·주변을 에워싸는) 미디어를 이같이 설명했다. 영상 콘텐츠를 보는 고객이 마치 현실처럼 느끼도록 몰입감을 높이는 게 콘텐츠 기업 경쟁력을 가르는 핵심이 될 것이라는 얘기다.
장 부문장은 "앞으로 5년 앞을 내다봤을 때 네이버라는 플랫폼에서 가장 중요하게 다룰 기술 중 하나가 이머시브 미디어"라고 했다.
그가 이끄는 테크플랫폼의 주요 임무는 새로운 미디어 기술을 개발하는 것이다. 이머시브 미디어는 TV나 스마트폰 같은 전통적인 화면 기반 미디어와 달리, 이용자가 미디어 안으로 들어가 있는 느낌을 받도록 하는 게 특징이다. 가상현실(VR)이 대표적인 기술이다.
장 부문장은 이머시브 미디어 실현을 위해 VR 콘텐츠 제작에 집중하고 있다. 공연뿐만이 아니다. 여행할 때는 가상의 가이드가 따라다니고 쇼핑할 때는 가상의 퍼스널 쇼퍼가 도와주는 것처럼 네이버의 주요 서비스 분야에서도 이용자들에게 생생한 경험을 제공할 수 있도록 콘텐츠를 개발할 예정이다.
가까운 미래에 이 콘텐츠의 '쓸모'가 입증되려면 VR 장비의 대중화가 가장 중요하다. 장 부문장은 "빠르면 3년, 늦어도 5년 안에 VR 장비가 획기적으로 작고 가벼워질 거고 가격도 내려가게 될 것"이라며 "누구나 VR기기를 손쉽게 이용할 수 있는 세상이 오게 되면 스마트폰이 처음 나왔을 때보다 더 크고 강력한 변화가 도래할 것이 분명하다. 네이버는 그때를 준비하고 있다"고 했다. 네이버는 현재 삼성전자와 손잡고 확장현실(XR) 헤드셋인 '프로젝트 무한' 콘텐츠를 개발 중이다.
가상현실 시대에 적합한 콘텐츠를 만들려면 지금까지와 차원이 다른 제작 환경과 데이터 전송 기술이 필요하다. 이를 실험하는 곳이 네이버 라이브 스트리밍 플랫폼 '치지직'이다. 치지직에서는 누구나 실시간으로 영상 방송을 할 수 있다. 최근에는 '버추얼 스트리머(가상 방송인)'들이 인기를 끌고 있다. 이들은 특수 장비로 실제 사람의 움직임과 표정을 인식해 모사하는 아바타를 통해 활동한다. 아바타는 작년까지만 해도 기술의 한계 탓에 2D 캐릭터로만 표현됐다. 상반신 중심의 움직임과 표정 변화를 담는 것 정도가 전부였다.
그런데 올해부터는 치지직의 수준이 완전히 달라졌다. 장 부문장은 "버추얼 스트리머들이 3D로 라이브 방송을 할 수 있는 기술을 도입했다"며 "전 세계적으로 이런 기술 수준을 가진 기업은 네이버밖에 없다"고 했다. 이는 사옥 지하 1층에 가상 콘텐츠 제작 특화 스튜디오인 '모션스테이지'와 '비전스테이지'를 만들면서 가능해졌다.
모션스테이지는 여러 각도에서 스트리머의 전신 움직임을 포착해 아바타에 투영하는 역할을 맡는다. 비전스테이지는 원하는 곳 어디라도 데려갈 수 있는 가상 배경을 펼쳐준다. 그는 "캐릭터에 모션을 입히고 버추얼 배경을 섞어서 실시간으로 끊김이 없이 방송하는 게 핵심"이라며 "시청자들이 마치 그 세계에 들어왔다고 느끼도록 하는 게 가상현실에 최적화된 콘텐츠"라고 했다.
첫 라이브 방송은 석 달 전 치지직의 대표 버추얼 스트리머 '에리스'가 진행해 54만뷰를 기록했다. 장 부문장은 "네이버 e스포츠에서 세계 최고 프로게이머인 페이커가 출전하는 롤드컵 결승 라이브 중계가 50만뷰를 기록했는데, 그 정도로 에리스의 방송이 시청자들에게 큰 관심을 받았다"며 "지금까지 3D 라이브 방송이 3건 이뤄졌는데 반응이 폭발적이었다"고 했다.
라이브 방송이 중요한 이유는 시청자들과 실시간으로 소통할 수 있어서다. 이런 환경에서는 상거래까지 가능하다. 이는 초고속·초저지연 영상전송기술이 뒷받침돼야 가능한 일이다. 장 부문장은 네이버 라이브 송출 기술이 적용된 '프리즘라이브 스튜디오' 애플리케이션을 사례를 들었다. 이 앱은 모바일 라이브 스트리밍 분야에서 전 세계 1위를 유지하고 있다.
네이버 서비스에 인공지능(AI)을 활용하는 '온서비스 AI' 전략은 영상에도 적용된다. 숏폼 영상을 다루는 '네이버 클립'에 영상을 올리려는 사용자들을 위해 '오토클립 AI' 기능을 만드는 중이다. 장 부문장은 "AI가 동영상으로 숏폼 콘텐츠를 자동 제작하고 자막까지 자동으로 넣어 이용자들이 손쉽게 편집하도록 돕는 역할을 할 것"이라며 "올해 안에 선보일 수 있을 것"이라고 했다.
치지직과 네이버 클립 사용자 맞춤 서비스도 도입한다. 그는 "AI를 통해 보고 싶은 영상을 추천하고, 보기 싫은 영상을 걸러주는 피드(게시물 흐름)를 만들고 있다"며 "저퀄리티 영상, 광고영상이나 검색 노출을 늘리기 위해 실제 내용과 관련 없는 태그를 과도하게 단 어뷰징 영상을 숨겨주는 역할"이라고 했다. 영상이 올라오면 AI가 분석한 후 선정성, 폭력성, 모방성을 따져 점수화하는 기능까지 붙일 계획이다.
네이버 장준기 테크 플랫폼 부문장이 성남시 분당구 네이버 본사에서 아시아경제와 인터뷰하며 크리에이터 영상 촬영을 위한 모션스튜디오에 유럽풍의 배경화면을 띄워 보여주고 있다. 허영한 기자
원본보기 아이콘장 부문장은 플랫폼 기업의 기본기인 '서비스 안정성'에도 역량을 쏟는다. 일례로 국가 재난이 발생하면 네이버에 접속하려는 트래픽이 급등하는데, 이에 대비하는 매뉴얼이 있다. 그는 "이른바 '비상모드'가 작동하는데 사이트 내 불필요한 기능을 없애고 최소 기능으로만 동작해 많은 트래픽을 감당할 수 있도록 해놨다"며 "경주에서 지진이 발생했을 때 15초 만에 비상모드로 자동 전환됐는데, 당시 초당 20만명이 넘게 들어왔지만 끄떡없었다"고 했다.
혹시나 모를 서비스 오류 상황 역시 대비하고 있다. 장 부문장은 "판교 데이터센터 화재 이후 데이터 재난 복구 태스크포스(TF)를 만들었다"고 했다. 이어 "모든 데이터는 '이중화'(같은 데이터를 다른 서버에 나눠서 저장)돼야 하고, 한 개 이상의 복제본이 다른 데이터센터에 존재해야 한다는 원칙을 지키고 있다"며 "특정 데이터센터 접속을 실제로 막은 뒤에도 네이버 서비스가 문제없이 운영되는지 확인하는 훈련도 주기적으로 진행한다"고 했다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>