AI 학습용 고품질 데이터 바닥
치솟은 데이터 비용…기업 부담 커져
해외 데이터 구하거나 편법 동원하기도
"AI 세 번째 겨울 온다" 우려도
#국내 인공지능(AI) 기업 A사는 학습용 한글 데이터가 부족해 해외 데이터를 구매했다. 번역 서비스를 제공하려면 각국 언어를 한국어로 옮긴 데이터가 필요하지만 충분치 않았기 때문이다. 결국 인도네시아어를 일본어로 번역한 데이터를 구매해 이를 다시 한국어로 전환했다. A 기업 대표는 "여러 번 번역을 거치면 오류가 생기거나 언어적 뉘앙스가 잘 전달되지 않을 수 있지만 어쩔 수 없었다"고 토로했다.
#AI 스타트업 B사는 올해 들어 투자금 중 40%가량을 데이터 확보에 썼다. 데이터 수집·처리 비용이 기하급수적으로 올라가면서 개발자 인건비나 인프라 비용보다 더 많은 돈을 지불했다. B사 대표는 "비용을 감당하지 못하는 곳은 저작권이 애매한 동영상을 텍스트로 전환(Speech-to-Text)해 학습하는 등 편법을 쓰기도 한다"고 귀띔했다.
AI 학습에 필수적인 데이터 확보에 비상이 걸렸다. 거대언어모델(LLM) 등장 이후 AI 모델이 필요로 하는 양질의 데이터가 점점 고갈되고 있기 때문이다. 이르면 수년 안에 학습용 데이터가 바닥나 AI가 침체기를 맞을 것이라는 암울한 전망까지 나온다.
"수년 내 데이터 절벽"
26일 AI 연구기관 에포크AI(Epoch AI)에 따르면 2년 후인 2026년부터 AI 학습용 데이터가 소진되기 시작할 전망이다. AI 학습 속도가 가속화되면서 데이터 증가 속도를 앞지르고 있기 때문이다. 에포크AI는 특히 "AI가 과잉훈련(Over training)한다고 가정하면 당장 내년부터 데이터 고갈에 직면할 것"으로 내다봤다. AI 과잉훈련은 경량화·효율화를 위해 모델을 키우기보다 학습 데이터를 늘리는 시도다.
AI는 텍스트, 이미지, 영상으로 학습 범위를 넓히면서 발전에 가속도가 붙었다. 오픈AI가 2020년 내놓은 GPT-3는 약 3000억개 토큰(문장의 최소 단위)을 학습했다. 이로부터 3년 뒤 출시한 GPT-4는 12조개 토큰을 학습한 것으로 추산된다. 올해 등장한 메타의 최신 모델 라마3는 15조개가 넘는 토큰을 학습했다. 불과 4년 만에 학습 데이터양이 50배 늘어난 것이다.
반면 데이터 구하기는 점점 어려워지고 있다. 지금까지 AI는 도서, 논문을 비롯해 인터넷에 떠도는 정보를 긁어다 학습하는 경우가 대부분이었다. 뉴스, 소셜 미디어, 블로그 콘텐츠 등도 AI 먹잇감이다. 하지만 AI 훈련에 사용할 수 있는 언어 데이터는 연간 7%씩 증가하는 데 그치고 있다.
데이터가 있다고 해도 저작권 문제를 해결해야 한다. 그간 AI 학습 데이터를 무단으로 썼다는 비판에 부딪히면서 뉴스 등에 대한 활용이 막혔다. LLM을 고도화하기 위한 고품질 데이터는 씨가 말랐다. 고품질 데이터는 주제가 다양하고 풍부한 표현이 들어간 데이터다. 철자 오류나 문법 오류가 없으면서 일관성 있는 정보가 필요하다.
그러나 인터넷에 떠도는 정보 중 고품질 데이터는 10%도 되지 않는다. 음성을 인식하고 그림을 그리는 멀티모달 AI로 진화하면서 다양한 데이터도 필요하지만 구하기가 어렵다. 음성, 영상 데이터는 그 수가 적을 뿐 아니라 개인정보 문제로 사용하기 어렵기 때문이다. AI 학습 데이터 전문기업 인피닉의 최유라 수석연구원은 "저작권 문제를 해결하면 사용 가능한 텍스트와 달리 산업용으로 쓸 수 있는 비정형 데이터는 거의 없다"고 설명했다.
한글 데이터 부족은 더 심각하다. 사용하는 인구가 적으니 확보할 수 있는 데이터 자체가 적다. '커먼크롤(Common Crawl)' 같은 데이터 공개 플랫폼도 없다. 커먼크롤은 미국의 비영리 조직이 만든 플랫폼이다. 온라인에 공개된 데이터 중 수집 허가가 된 것을 모아 제공한다. 데이터 가격 산정 기준이 없을 정도로 거래 시장도 자리를 잡지 못했다. AI 기업 코난테크놀로지의 이문기 데이터사업부 이사는 "네이버, 카카오 등 한국 기업들의 데이터를 모두 합쳐봐야 조(兆)원 단위도 되지 않는다"며 "빅테크(대형 정보기술 기업)와 비교해 6~7% 수준"이라고 지적했다.
"기업 70%가 데이터 부족"
국내 기업들은 데이터 부족을 호소한다. 과학기술정보통신부 산하 소프트웨어정책연구소가 발표한 '2023 인공지능 산업 실태조사'를 보면 국내 AI 기업 중 70.8%가 데이터 확보 및 품질 문제로 애로사항을 겪는다고 응답했다. AI 인력 부족에 이어 가장 큰 문제점으로 꼽았다. 데이터 문제는 컴퓨팅 장비 등 AI 인프라 부족(53.2%)보다 높은 응답률을 나타냈다.
대기업도 예외는 아니다. 데이터 부족으로 해외 데이터를 구매하거나 합성 데이터를 이용하는 것으로 전해진다. 네이버는 초거대 AI '하이퍼클로바X'에 뉴스와 블로그 등을 학습시키다 저작권 문제로 지난해부터 뉴스 학습을 중단시켰다. 언론사와 데이터 이용을 두고 논의 중이지만 입장차를 좁히지 못한 상황이다. 업계 관계자는 "대기업은 모델이 크기 때문에 더 많은 데이터가 필요하다"며 "데이터가 부족해 영어 데이터를 사거나 저작권이 애매한 데이터를 파인튜닝(미세조정)용으로만 쓰기도 하는 것으로 안다"고 했다.
중소기업이나 스타트업의 어려움은 더욱 크다. 데이터 수집뿐 아니라 이를 AI 학습용으로 처리하는 모든 게 비용이기 때문이다. AI 뷰티 솔루션을 제공하는 앙트러리얼리티의 이동윤 대표는 "얼굴은 개인정보 문제로 수집 자체가 어렵고 공개된 데이터도 많지 않다"며 "스타트업 입장에선 데이터 부족으로 사업화 검증(PoC) 단계부터 장벽에 부딪힐 수 있다"고 우려했다.
데이터 부족으로 AI가 세 번째 겨울을 맞을 수 있다는 전망까지 나온다. AI는 기술적 한계로 1970년대와 1980년대 두 번의 침체기를 겪었다. 챗GPT 등 생성형 AI 등장으로 다시 황금기를 열었지만 데이터 절벽에 부딪힐 수 있다는 것이다. 영국 과학 전문지 뉴사이언티스트는 "훈련 데이터가 소진되면서 AI 발전 속도가 둔화될 가능성이 높다"고 분석했다.
최근 미국 반도체기업 엔비디아 주가가 연일 하락하면서 잠잠하던 'AI 거품론'이 다시 부각될 조짐을 보이기도 했다. AP통신은 "AI 열풍이 너무 과열돼 지나친 기대에 대한 우려가 제기되고 있다"고 짚었다. 이 이사는 "데이터 부족으로 AI 발전이 시장의 눈높이를 충족시키지 못할 수 있다"며 "세 번째 겨울이 올까 걱정"이라고 말했다.
최유리 기자 yrchoi@asiae.co.kr
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>