본문 바로가기
Dim영역

AI 서버 수요 증가로 HBM 시장 '활짝'…연평균 최대 45%↑

숏뉴스
숏 뉴스 AI 요약 기술은 핵심만 전달합니다. 전체 내용의 이해를 위해 기사 본문을 확인해주세요.

불러오는 중...

닫기
언론사 홈 구독
언론사 홈 구독
뉴스듣기 스크랩 글자크기

글자크기 설정

닫기
인쇄

AI 서버 수요 연평균 10.8% 증가 전망
HBM 시장은 2025년까지 40~45% 성장

챗GPT 효과로 인공지능(AI) 서버 수요가 늘면서 해당 서버에 탑재되는 고대역폭 메모리(HBM) 시장도 본격적인 확대를 앞뒀다. HBM 시장이 2025년까지 연평균 최대 45% 성장률을 보일 수 있다는 전망이 나왔다.


8일 시장조사업체 트렌드포스는 "세계 클라우드 기업이 수년 동안 AI 서버에 더 많은 투자를 할 것"이라며 이같이 밝혔다. HBM은 대역폭을 높여 데이터 전송 속도를 빠르게 한 고성능 메모리 제품이다. 서버에서 AI 서비스를 원활히 지원하려면 그래픽처리장치(GPU)와 함께 HBM 탑재가 필수다.

AI 서버 연간 출하량과 연평균 성장률(CAGR) 전망 그래프 / [이미지제공=트렌드포스]

AI 서버 연간 출하량과 연평균 성장률(CAGR) 전망 그래프 / [이미지제공=트렌드포스]

AD
원본보기 아이콘

트렌드포스는 "HBM이 현재 전체 D램 시장의 1.5% 비중을 차지하고 있다"고 봤다. 또 "HBM 솔루션 시장이 2023년부터 2025년까지 40~45% 이상의 CAGR(연평균 성장률)을 보일 것"이라는 예측도 더했다.


HBM 시장이 크면서 수혜를 볼 공급 업체로는 ▲삼성전자 ▲SK하이닉스 ▲미국 마이크론 등 세 곳을 꼽았다. 트렌드포스는 "엔비디아(GPU 공급 업체)가 채택한 HBM3(최신 4세대 HBM)를 양산할 수 있는 업체는 SK하이닉스가 유일하다"며 "독보적인 HBM3 공급 업체가 될 전망이다"고 밝혔다.


트렌드포스는 올해 AI 서버 출하량 성장률을 8%로 내다봤다. 챗봇을 포함한 유사 AI 서비스가 늘면서 관련 서버 수요도 증가한다는 설명이다. 2022년부터 2026년까지는 AI 서버 출하량이 연평균 10.8% 성장한다고 봤다. 지난해 AI 서버 출하량의 66.2%는 구글과 아마존웹서비스(AWS), 메타, 마이크로소프트(MS)가 차지한 것으로 나타났다.

서버 GPU 시장에서 주류 제품으로는 엔비디아 H100, A100, A800과 AMD MI250 및 MI250X 시리즈가 꼽혔다. 해당 시장에서 점유율은 엔비디아가 약 80%, AMD가 약 20%다.




AD

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>

함께 본 뉴스

새로보기
간격처리를 위한 class

많이 본 뉴스 !가장 많이 읽힌 뉴스를 제공합니다. 집계 기준에 따라 최대 3일 전 기사까지 제공될 수 있습니다.

언론사 홈 구독
언론사 홈 구독
top버튼

한 눈에 보는 오늘의 이슈