독자 AI 파운데이션 모델 1차 발표회
중저가 GPU에서도 구동 가능한 K-엑사원 공개
최정규 LG AI연구원 AI에이전트 그룹장이 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 발표하고 있다. 사진=박유진 기자
LG AI연구원은 학습 연산량을 기존 대비 3분의 1 수준으로 낮추면서도 미국의 챗GPT와 중국의 큐웬 등 글로벌 프론티어 모델을 웃도는 성능을 확보한 인공지능(AI) 모델 'K-엑사원'을 공개했다.
최정규 LG AI연구원 AI에이전트 그룹장은 30일 서울 코엑스에서 열린 과학기술정보통신부 주최 '독자 AI 파운데이션 모델' 프로젝트 1차 발표회에서 "성능은 유지하면서도 학습에 필요한 연산량을 기존 대비 약 30% 수준으로 낮췄다"며 "효율적인 구조를 통해 비용 부담을 줄이는 데 초점을 맞췄다"고 말했다.
최 그룹장은 기존 대규모 언어모델(LLM)의 한계로 '연산 비용'을 꼽았다. 문장 속 모든 단어 간 관계를 계산하는 방식은 성능은 뛰어나지만, 학습과 운영에 많은 비용이 든다는 설명이다. 그는 "모든 정보를 다 계산하지 않아도 필요한 정보만 선택적으로 활용할 수 있다"며 "이를 위해 하이브리드 어텐션 구조를 효율적으로 설계했다"고 설명했다.
이 모델은 중저가급 GPU 환경에서도 구동이 가능하다. 최 그룹장은 "고가의 인프라가 아니어도 모델을 운영할 수 있어 초기 구축 비용과 운영 부담이 상대적으로 적다"며 "스타트업이나 중소기업도 바로 활용할 수 있는 AI 모델"이라고 말했다.
학습 방식은 단계적으로 구성됐다. 일반적인 기본 지식을 먼저 학습한 뒤, 사고력을 강화하는 학습을 거쳐, 마지막으로 특정 분야의 전문 지식을 학습하는 구조다. 최 그룹장은 "이전 단계에서 쌓은 지식을 바탕으로 다음 단계 성능을 끌어올리는 방식"이라며 "이런 학습 전략을 통해 가용 인프라를 효율적으로 활용할 수 있었다"고 설명했다. 실제 GPU 인프라 활용 효율은 평균 89.4%를 기록했다.
성능 평가 결과도 공개됐다. LG AI연구원이 주요 벤치마크 13개 항목을 자체 평가한 결과, 평균 성능은 목표치 대비 104%를 기록했다. 300B(3000억개) 파라미터 이하 모델 기준으로는 오픈AI의 GPT-OSS(120B)와 중국 큐웬3(235B) 등 글로벌 모델과 비교해도 상위권 성능을 확보했다고 설명했다.
안전성과 신뢰성도 강조했다. LG AI연구원은 학습 데이터 전반에 대해 컴플라이언스 검토를 진행하고, 문제가 될 소지가 있는 데이터는 다른 데이터로 대체하는 절차를 운영하고 있다. 또 인류 보편적 가치, 사회 안전, 한국적 특수성, 미래 위험 대응 등 여러 영역을 기준으로 모델을 점검하고 있다고 밝혔다.
박유진 기자 genie@asiae.co.kr
꼭 봐야할 주요뉴스
"초봉 5000만원 받고 1년 간 군대 가라"…징병제 ...
마스크영역
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

















![[시시비비]확장재정의 대가, 물가일 수 있다](https://cwcontent.asiae.co.kr/asiaresize/269/2025123010415618027A.jpg)
![[기자수첩]벤처 4대 강국, 빗장 풀기부터](https://cwcontent.asiae.co.kr/asiaresize/269/2025123010014991698A.jpg)
![[산업의 맥]약가정책, 건강·미래관점 재설계해야](https://cwcontent.asiae.co.kr/asiaresize/269/2025123009554874672A.jpg)
가장 많이 읽힌 뉴스를 제공합니다. 집계 기준에 따라 최대 3일 전 기사까지 제공될 수 있습니다.

!["중국에 나라 넘어갈까 걱정돼"…'계엄 합법, 멸공' 시위 주도한 청년들[극우청년은 누구인가]](https://cwcontent.asiae.co.kr/asiaresize/269/2025121513514156268_1765774301.jpg)