D램 대신 낸드플래시 쌓는 HBF
속도 느리지만, 용량은 훨씬 커
초대형 AI '메모리 보완재' 역할
HBM(고대역폭 메모리)은 인공지능(AI) 시대의 핵심 반도체 중 하나로 부상했습니다. AI의 훈련을 가속하는 그래픽처리장치(GPU)와 연결돼 거대한 AI 데이터를 담아두는 외부 기억장치로 쓰이기 때문이지요. 하지만 AI는 앞으로도 더 거대해질 예정이며, 이에 따라 HBM의 용량 만으론 역부족인 시기가 올 겁니다. 이미 메모리 업체들은 신속하게 HBF(고대역폭 플래시) 시대를 준비하고 있습니다.
HBM 이어 HBF…이번엔 낸드플래시 쌓는다
HBM은 메모리 장치 중 하나인 D램(RAM)을 수직으로 쌓은 뒤 실리콘 관통전극(TSV)으로 연결해 데이터 전송 속도, 즉 대역폭을 높인 제품입니다. HBF도 비슷합니다. 다만 D램이 아닌 낸드플래시를 쌓아 만든다는 점만 다릅니다.
낸드플래시와 D램 모두 메모리 장치이지만, 세부적인 특징은 다릅니다. 낸드플래시는 전원이 꺼져도 데이터가 장기간 보존되는 '비휘발성 메모리', D램은 전원이 꺼지면 데이터도 사라지는 '휘발성 메모리'입니다. 이 때문에 낸드플래시는 데이터 전송 속도가 느린 대신 저장 용량이 매우 크고, D램은 반대로 데이터 전송 속도가 빠르되 저장 용량이 제한되지요.
그동안 낸드플래시는 컴퓨터 내부의 솔리드스테이트드라이브(SDD)나, USB 같은 보조 기억 장치로 쓰였습니다. D램은 컴퓨터·스마트폰 내 중앙처리장치(CPU)가 데이터를 빨리 읽고 쓰기 위한 주기억장치였지요. 이후 D램은 HBM으로 진화하며 AI 가속기의 핵심 부품이 됐지만, 낸드플래시는 제자리에 머물러 있었습니다.
갈수록 커지는 AI, HBM 만으론 용량 부족
최근 HBF의 필요성이 대두된 건 앞으로 AI의 크기가 기하급수적으로 불어날 전망이기 때문입니다. 챗GPT, 제미나이, 클로드 등 선두를 달리는 대형 언어 모델(LLM)은 이제 글자만 읽는 게 아니라, 영상이나 이미지도 생성·해석할 줄 압니다. 이미지, 영상은 글자보다 훨씬 거대한 데이터이기에 모델도 커져야 합니다.
메모리의 속도와 저장 용량 둘 다 붙잡아야 하는 시대가 오는 셈입니다. 엔비디아 같은 GPU 제조업체는 HBM과 HBF를 섞어 배열하는 전략을 구사해야 합니다. HBF가 모델 전체를 담아두는 바구니 역할이라면, HBM은 필요한 데이터만 임시로 붙잡아 뒀다가 빠르게 처리하는 중간 단계 역할로 전환하는 것이지요.
이미 일부 메모리 기업들은 1세대 HBF 개발에 착수한 상황입니다. 미국의 SSD, 낸드플래시 전문 제조사 샌디스크는 지난달 6일(현지시간) SK하이닉스와 손잡고 AI용 HBF 표준화를 위한 양해각서(MOU)를 체결했습니다. 양사는 2026년 하반기 시제품을 내놓고, 2027년에는 실제 HBF를 탑재한 AI 추론용 장치 샘플을 공개할 예정입니다.
두 기업이 합작할 시제품은 현시점 최신예 상용화 HBM인 'HBM3e' 대비 8~16배 더 큰 용량을 제공합니다. HBM3e는 개당 48GB(SK하이닉스 16단 기준)의 용량을 제공하므로, 최대 768GB의 데이터 용량을 가집니다. 엔비디아의 블랙웰 GPU가 칩 하나에 8개의 HBM3e를 연결한다는 걸 고려하면 HBF는 용량 측면에서만큼은 게임 체인저가 될 수 있습니다.
D램보다 팽팽한 플래시 시장…"삼성, SK하이닉스 기회 있다"
국내 대표 반도체 기업인 삼성전자, SK하이닉스 모두 낸드플래시를 생산합니다. 다만 HBF 시장의 주도권을 향후 누가 가져갈지는 아직 정해지지 않았습니다.
D램은 국내 기업이 점유율 71.4%(트렌드포스 2025년 2분기 기준)로 한국 우위의 시장을 형성하고 있습니다. 반면 낸드플래시의 시장 점유율은 좀 더 고르게 분산되어 있습니다. 2분기 기준 삼성과 SK하이닉스의 점유율은 54%로 과반은 넘겼지만, D램처럼 압도적인 수준은 아닙니다. 키옥시아, 마이크론, 샌디스크 등 10% 이상의 점유율을 보유한 경쟁사들이 산재한 데다, 무엇보다도 창신메모리(CXMT), 양쯔메모리테크놀로지(YMTC) 등 중국 기업들이 매년 60~70%의 성장률로 매섭게 추격 중이기 때문입니다.
반도체 전문가들은 앞으로 10년 안에 HBF 시장을 선점한 기업이 AI 메모리 사업을 평정할 것으로 예측합니다. HBM 공정 기술의 발전에 이바지해 'HBM의 아버지'라는 별명으로 불리는 김정호 카이스트대 교수는 지난 3일 인천에서 열린 국제첨단반도체기판·패키징산업전 기조연설에서 "삼성과 SK하이닉스의 현재 실적은 HBM으로 결정되지만, 10년 후엔 HBF가 그 자리를 차지한다"며 "앞으로의 AI는 지금보다 1000배 이상 많은 용량의 메모리가 필요하기 때문"이라고 전망했습니다.
이어 "낸드플래시는 D램보다 느리지만, 용량은 10배 크다"며 "낸드플래시는 AI 메모리의 보완재 역할을 하게 될 것이다. D램과 낸드를 모두 생산하는 삼성, SK하이닉스 두 기업에도 기회가 있다"고 강조했습니다.
임주형 기자 skepped@asiae.co.kr
꼭 봐야할 주요뉴스

<ⓒ투자가를 위한 경제콘텐츠 플랫폼, 아시아경제(www.asiae.co.kr) 무단전재 배포금지>