매개변수 1000억개 넘는 대형언어모델
SLM은 100억개 미만으로 저비용 고효율
파이3, 라마3, 젬마2B 등 대표적
생성형 인공지능(AI) 개발에 뛰어든 기업들이 최근 소형언어모델(SLM)로 눈을 돌리고 있다. 거대언어모델(LLM) 보다 더 적은 비용으로도 비슷한 성능을 냄으로써 가성비를 극대화하려는 움직임이다.
18일(현지시간) 주요 외신에 따르면 마이크로소프트(MS), 메타플랫폼, 구글과 같은 빅테크(대형 정보기술 기업)들은 LLM보다 더 적은 매개변수(파라미터)를 투입해 준수한 성능을 내는 ‘작지만 강한’ AI 모델들을 잇달아 선보이고 있다. 매개변수란 AI가 연산 과정에서 고려하는 다양한 변수로, 인간 두뇌의 시냅스에 해당한다. 매개변수가 많을수록 AI의 성능도 좋아진다.
MS는 지난달 SLM 모델 ‘파이-3 미니’를 공개했다. 파이-3 미니의 매개변수는 38억개로 오픈AI GPT-3.5(1750억개)의 약 50분의 1 수준이다. 루이스 바가스 MS AI 담당 부사장은 "파이-3 미니의 추론 비용은 비슷한 기능을 가진 다른 모델과 비교해 10분의 1 수준으로 저렴하다"고 설명했다.
앞서 메타도 매개변수 80억개짜리 ‘라마-3’를 출시하며 생성형 AI 소형화 노선을 타고 있다. 메타는 전작인 라마-2부터 모델들을 오픈소스화해 수많은 변형 라마 모델들을 낳고 있다. 구글도 지난 2월 매개변수가 20억개에 불과한 젬마 2B를 출시하며 고효율에 집중하는 모습을 보여줬다.
이처럼 SLM이 최근 빅테크들의 주목을 받는 이유는 저렴한 가동 비용 때문이다. 지난주 공개된 오픈AI의 최신 AI 모델 GPT-4o(옴니)와 구글의 제미나이 1.5프로의 경우 매개변수가 1조개를 상회할 것으로 추정되는 대표적인 LLM이다. 두 모델의 토큰 100만개당 단위 비용은 각각 5달러, 7달러로 라마-3(0.2달러)보다 25배 이상 비싸다. 토큰은 언어모델이 인식하는 문자 데이터 단위를 의미한다.
저렴한 비용에 더해 온비다이스 이용이 가능하다는 점도 SLM의 장점으로 꼽힌다. SLM은 데이터를 클라우드로 보내는 대신 장치에서 로컬로 작업을 처리할 수 있어 개인정보 보호에도 탁월하다. 대표적으로 애플은 내달 열리는 연례 개발자 행사에서 오픈AI의 챗GPT를 탑재한 아이폰을 공개할 예정인 것으로 전해졌다.
은행 자문 로펌 애들쇼고다드의 샬럿 마셜 변호사는 "우리 로펌을 찾는 많은 고객이 생성형 AI 제품을 채택할 때 중요하게 고려한 것 중 하나가 데이터 처리 및 보안에 대한 규제 준수였다"며 "SLM이 떠오르면서 기업들이 법적 문제와 비용 부담에서 벗어나게 될 기회가 생겼다"고 진단했다.
김진영 기자 camp@asiae.co.kr
꼭 봐야할 주요뉴스
韓재계 최초 트럼프 취임식 초청 받았다…'미국통'... 마스크영역<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>