AI가 글을 쓰고 그림을 그리고 음악까지 만들어내는 시대다. 여행 일정을 묻자 항공권 검색부터 숙소 추천, 세부 일정표 작성까지 단숨에 결과가 나온다. 식당 예약이나 쇼핑 목록도 몇 초 만에 정리된다.
그러나 이렇게 얻은 답을 잘못된 정보나 과장된 표현이 섞일 수 있어 그대로 믿기에는 찜찜하다. 다른 예로, 기업에서 보고서를 작성한다고 해보자. 과거에는 직원이 며칠 동안 자료를 모으고 정리해 초안을 만들었다면, 이제는 AI가 금세 초안을 생성해주는 것이 가능해졌다.
하지만 그 다음이 문제다. 수치가 정확한지, 출처가 명확한지, 문맥이 맞는지 등을 사람이 꼼꼼히 확인해야 한다. 실제로는 초안 작성에 걸리는 시간은 줄었지만, 검증과 수정 시간이 늘어나 전체 업무 효율이 기대만큼 높지 않다는 이야기가 나온다. 결국 사람은 다시 확인하고 고쳐야 한다. 이와 같이 우리는 지금 AI가 만들어낸 결과물을 다시 사람이 확인하는 'AI 레이블링 시대'를 살고 있다.
이 흐름은 곧 새로운 역할과 산업을 만들어내고 있다. 미국에서는 AI가 만든 텍스트와 이미지를 검증하는 스타트업이 등장하고 있으며, 결과물에 신뢰 점수를 매기거나 출처를 추적해 위조 여부를 판별하는 서비스가 대표적이다. 흥미로운 것은 이런 모습이 전혀 낯설지 않다는 점이다.
우리는 이미 AI 학습 데이터 구축 과정에서 '데이터 라벨링'이라는 노동을 경험했다. 수많은 사람들이 이미지에 태그를 달고, 문장에 의미를 붙이며 대규모 데이터셋을 만들었는데, 이제 그 과정이 앞단이 아니라 뒷단에서 되풀이되고 있는 것이다. 생성형 AI가 쏟아내는 텍스트, 이미지, 음성을 사람이 다시 확인하고 '진짜'와 '가짜'를 구분해야 하는 시대가 열린 셈이다.
이 검증 노동은 단순 반복적이면서도 높은 집중력을 요구한다. 잘못된 정보나 조작된 이미지 하나가 사회적 파장을 불러올 수 있기 때문이다. 겉으로 보기에는 사소해 보이지만, 실제로는 결코 가볍지 않은 작업이다. 그럼에도 불구하고 이 노동은 과거 데이터 라벨링이 '보이지 않는 노동'이라 불렸듯, 저평가될 위험이 크다. 특히 교육, 언론, 행정 등 공공 영역에서 검증 부담이 커질수록, 사회 전체의 피로감은 더욱 빠르게 누적될 수 있다.
생성형 AI가 쏟아내는 텍스트, 이미지, 음성을 사람이 다시 확인하고 '진짜'와 '가짜'를 구분해야 하는 검증 노동의 중요성이 대두되고 있다. 이미지 게티이미지뱅크
원본보기 아이콘기업과 개인 모두에게도 이 아이러니는 무겁게 다가온다. 기업은 AI 도입으로 효율이 높아질 거라 기대했지만 실제로는 검증 비용과 리스크 관리 비용이 늘어나고 있다. 개인도 마찬가지다. 블로그 글, 기획안, 이메일 초안을 생성형 AI가 작성해주어도, 결국 사람이 다시 읽고 다듬어야 한다. 심지어 AI가 쓴 글을 수정하는 데 드는 시간이 처음부터 직접 쓰는 것보다 길다는 불만도 나온다.
미국은 이와 같은 현상을 새로운 시장 기회로 바라보고 있다. AI 보안, 신뢰성 평가, 위조 감별 같은 분야가 빠르게 성장하면서, 'AI 검증 산업'이 하나의 축으로 자리 잡고 있다. 투자자들은 '신뢰할 수 있는 AI'에 프리미엄을 붙이고, 대학과 연구소는 검증 기술을 전략적으로 육성한다. 최근에는 대형 기술기업도 자체적으로 AI 검증 부서를 만들거나, 외부 검증 스타트업에 투자를 늘리고 있다.
이제는 단순히 AI를 잘 만드는 것만으로는 시장에서 신뢰를 얻기 어려워졌기 때문이다. 나아가 제도적 움직임도 뒤따른다. 연방거래위원회와 국립표준기술연구소는 AI 투명성과 검증 절차에 대한 가이드라인을 내놓으며, 이를 충족하지 못하는 기업에는 규제 리스크가 뒤따를 수 있음을 분명히 하고 있다. 결국 미국에서는 AI 검증은 단순한 기술 문제가 아니라, 산업 경쟁력과 기업 신뢰성을 좌우하는 핵심 과제로 자리 잡아가고 있다.
결국 AI 시대의 핵심 경쟁력은 더 많은 결과물을 생산하는 능력뿐만이 아니다. 그것이 진짜인지, 믿을 수 있는지, 사회적 신뢰를 확보할 수 있는지가 관건이다. 'AI 레이블링 시대'는 단순히 새로운 피로감을 뜻하는 것이 아니라, 신뢰성 기반의 새로운 산업과 직업이 떠오르는 신호탄이다. 사회가 주목해야 할 것은 얼마나 빨리 AI를 도입하느냐가 아니라, 어떻게 검증 체계를 갖추느냐다.
결국 생성형 AI의 혁신은 더 똑똑한 기계를 만드는 데서 끝나는 것이 아니라, 그 결과를 믿고 안심하며 쓸 수 있는 사용자의 경험 속에서 완성된다.
손윤석 미국 노터데임대 교수
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>