챗GPT 효과로 인공지능(AI) 서버 수요가 늘면서 해당 서버에 탑재되는 고대역폭 메모리(HBM) 시장도 본격적인 확대를 앞뒀다. HBM 시장이 2025년까지 연평균 최대 45% 성장률을 보일 수 있다는 전망이 나왔다.
8일 시장조사업체 트렌드포스는 "세계 클라우드 기업이 수년 동안 AI 서버에 더 많은 투자를 할 것"이라며 이같이 밝혔다. HBM은 대역폭을 높여 데이터 전송 속도를 빠르게 한 고성능 메모리 제품이다. 서버에서 AI 서비스를 원활히 지원하려면 그래픽처리장치(GPU)와 함께 HBM 탑재가 필수다.
트렌드포스는 "HBM이 현재 전체 D램 시장의 1.5% 비중을 차지하고 있다"고 봤다. 또 "HBM 솔루션 시장이 2023년부터 2025년까지 40~45% 이상의 CAGR(연평균 성장률)을 보일 것"이라는 예측도 더했다.
HBM 시장이 크면서 수혜를 볼 공급 업체로는 ▲삼성전자 ▲SK하이닉스 ▲미국 마이크론 등 세 곳을 꼽았다. 트렌드포스는 "엔비디아(GPU 공급 업체)가 채택한 HBM3(최신 4세대 HBM)를 양산할 수 있는 업체는 SK하이닉스가 유일하다"며 "독보적인 HBM3 공급 업체가 될 전망이다"고 밝혔다.
트렌드포스는 올해 AI 서버 출하량 성장률을 8%로 내다봤다. 챗봇을 포함한 유사 AI 서비스가 늘면서 관련 서버 수요도 증가한다는 설명이다. 2022년부터 2026년까지는 AI 서버 출하량이 연평균 10.8% 성장한다고 봤다. 지난해 AI 서버 출하량의 66.2%는 구글과 아마존웹서비스(AWS), 메타, 마이크로소프트(MS)가 차지한 것으로 나타났다.
서버 GPU 시장에서 주류 제품으로는 엔비디아 H100, A100, A800과 AMD MI250 및 MI250X 시리즈가 꼽혔다. 해당 시장에서 점유율은 엔비디아가 약 80%, AMD가 약 20%다.
<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>