
인공지능 시대가 본격화되면서 메모리 시장에도 큰 변화의 바람이 불고 있습니다. 방대한 AI 모델을 효율적으로 처리하려면 기존 메모리 기술만으로는 한계가 명확합니다. 이런 상황에서 낸드플래시에 고대역폭 기술을 접목한 HBF가 차세대 해법으로 떠오르고 있는데요. 과연 이 기술이 언제쯤 우리 곁에 올지, 어떤 변화를 가져올지 함께 살펴보겠습니다.
AI 시대, 낸드플래시의 새로운 돌파구
ChatGPT 같은 대규모 언어 모델이 등장하면서 데이터 처리 요구량이 폭발적으로 늘어났습니다. 텍스트는 물론이고 이미지, 영상까지 생성하는 멀티모달 AI가 보편화되면서 기존 메모리 시스템은 '메모리 병목 현상'이라는 심각한 벽에 부딪혔습니다.
여기서 주목받는 게 바로 HBF(High-Bandwidth Flash) 기술입니다. 이 기술은 낸드플래시의 대용량 저장 능력과 HBM의 빠른 속도를 하나로 합쳤습니다. 마치 넓은 창고와 빠른 배송 시스템을 동시에 갖춘 것과 비슷하다고 할까요.
HBF는 AI 추론 작업에 특히 강점을 보입니다. 학습된 거대한 AI 모델을 효율적으로 저장하면서도 필요할 때 빠르게 데이터를 꺼내 쓸 수 있거든요. 비용 측면에서도 HBM보다 훨씬 경제적이라 데이터센터 운영사들의 관심이 뜨겁습니다.
HBF 기술, 기존 낸드와 무엇이 다를까?
기존 낸드플래시를 고속도로에 비유하면 차선이 몇 개 안 되는 셈입니다. HBF는 이 차선을 수천 개로 늘려버린 격이죠. 핵심은 여러 개의 낸드플래시 칩을 레고 블록처럼 수직으로 쌓고, TSV(실리콘 관통 전극)라는 기술로 층층이 고속 통로를 뚫는 겁니다.
일반 낸드플래시는 데이터를 큰 블록 단위로 읽고 씁니다. 반면 HBF는 각 층을 수많은 작은 구역으로 나눠서 동시다발적으로 접근할 수 있게 설계했습니다. 이런 병렬 처리 구조 덕분에 HBM과 비슷한 수준의 읽기 속도를 자랑하면서도, 용량은 8배에서 16배나 더 큽니다.
| 구분 | 기존 낸드플래시 | HBF |
|---|---|---|
| 적층 방식 | 평면 배치 | TSV 기반 수직 적층 |
| 데이터 접근 | 블록 단위 | 서브 어레이 병렬 접근 |
| 대역폭 | 제한적 | 1,638GB/s 이상 |
| 용량 대비 속도 | 낮음 | HBM 대비 8~16배 용량 유지하며 고속 |
하이브리드 본딩, AI 성능 어떻게 높일까?
하이브리드 본딩은 두 개의 반도체 웨이퍼를 마치 퍼즐 조각처럼 정밀하게 맞춰 붙이는 기술입니다. 낸드플래시의 메모리 셀 부분과 제어 회로 부분을 따로 만든 뒤 이 기술로 합치면, 각 부분을 최적화된 공정으로 제작할 수 있어 성능이 크게 향상됩니다.
이 방식으로 낸드플래시 층을 더 많이 쌓을 수 있게 됐고, TSV를 통한 데이터 이동 거리도 획기적으로 줄었습니다. 결과는 놀랍습니다. HBF는 최대 1,638GB/s의 대역폭을 낼 수 있는데, 일반 NVMe SSD의 약 7GB/s와 비교하면 200배가 넘는 수준입니다.
GPU가 AI 추론을 할 때 거대한 모델 데이터를 빠르게 공급받아야 하는데, HBF가 바로 이 역할을 완벽하게 해냅니다. 데이터 병목 현상이 사라지니 AI 응답 속도도 눈에 띄게 빨라지는 거죠.
삼성, SK하이닉스 HBF 개발 현황은?
글로벌 메모리 기업들이 HBF 기술 선점을 위해 치열하게 경쟁하고 있습니다. SK하이닉스는 2025년 8월 샌디스크와 손잡고 HBF 표준화에 나섰습니다. 2026년 말에는 샘플을 내놓고, 2027년 초에는 HBF가 들어간 AI 추론 장치 시제품을 공개할 계획입니다.
삼성전자도 가만히 있지 않습니다. 낸드플래시 시장 1위답게 HBF 제품 개발 초기 설계 단계에 진입했습니다. 삼성은 FinFET 공정 기술을 HBF에 적용해 전력 효율을 높이는 방안을 연구 중이라고 합니다.
일본의 키옥시아는 2025년 8월에 5TB급 초고속 HBF 시제품을 먼저 선보이며 기술력을 과시했습니다. 메모리 3강 체제가 HBF 시장에서도 그대로 이어질 것 같습니다.
HBF 낸드, 언제쯤 우리 곁에 올까?
HBM 기술의 선구자로 불리는 김정호 KAIST 교수는 HBF가 HBM6 세대에서 본격적으로 쓰일 거라고 내다봤습니다. 2027년쯤 첫 제품이 나오고, 2028년에는 HBF가 탑재된 GPU 같은 완제품을 시장에서 만날 수 있다는 전망입니다.
샌디스크는 좀 더 구체적인 일정을 제시했습니다. 2026년 하반기에 HBF 메모리 샘플을, 2027년 초에는 AI 추론 장치 샘플을 고객사에 제공한다는 계획이죠. HBM 개발할 때보다 훨씬 빠른 속도입니다.
이렇게 개발 속도가 빠른 이유는 HBM을 만들면서 쌓은 기술과 경험을 그대로 활용할 수 있기 때문입니다. TSV 적층 기술, 패키징 노하우 등이 HBF 개발에 바로 적용되니까요. 생각보다 빨리 HBF 시대가 열릴 것 같습니다.
글로벌 AI 시장, HBF가 가져올 변화
HBF는 AI 시장의 판도를 바꿀 잠재력을 가졌습니다. HBM이 AI 학습에 강하다면, HBF는 AI 추론에 최적화돼 있습니다. 용량 면에서 HBM의 10배가 넘고, 스택 하나당 최대 512GB까지 구현 가능합니다.
GPT-4처럼 1.8조 개의 파라미터를 가진 초거대 AI 모델도 HBF 덕분에 단일 GPU에 통째로 올릴 수 있게 됩니다. 데이터를 이리저리 옮길 필요가 없으니 처리 속도가 월등히 빨라지는 거죠.
시장 분석가들은 2030년까지 HBF 시장이 수백억 달러 규모로 성장할 거라고 예측합니다. 더 놀라운 건 2038년쯤에는 HBM 시장 규모를 넘어설 수도 있다는 전망입니다. AI 추론 시장이 그만큼 빠르게 커질 거라는 얘기죠.
상용화까지 넘어야 할 기술적 과제들
물론 장밋빛 전망만 있는 건 아닙니다. 낸드플래시 특유의 한계도 극복해야 합니다. 가장 큰 문제는 쓰기 속도가 느리고, 지우고 쓸 수 있는 횟수가 약 10만 회로 제한된다는 점입니다. AI 모델을 자주 업데이트하는 학습 작업에는 적합하지 않습니다.
접근 지연 시간도 걸림돌입니다. HBF는 마이크로초(µs) 수준인데, HBM은 나노초(ns) 수준이거든요. 1,000배 차이가 나니 실시간 응답이 중요한 작업에서는 한계가 있을 수밖에 없습니다.
제조 난이도도 만만치 않습니다. 낸드플래시의 복잡한 구조를 여러 층으로 쌓으면서 수율을 확보하는 게 쉽지 않습니다. 비용도 당연히 올라가고요. 수백, 수천 개의 채널을 동시에 제어하는 시스템을 만드는 것도 기술적으로 까다롭습니다.
삼성전자는 FinFET 공정으로 로직 다이 성능을 높이는 방법을, SK하이닉스는 VFO 같은 새로운 패키징 구조를 연구하며 이런 문제들을 하나씩 풀어가고 있습니다.
미래 데이터센터의 핵심, HBF의 역할
앞으로 데이터센터에서는 HBM과 HBF가 서로 역할을 나눠 맡게 될 겁니다. HBM은 지금 당장 필요한 '핫 데이터'를 초고속으로 처리하는 캐시 역할을 하고, HBF는 거대한 AI 모델 전체를 담는 창고 역할을 하는 식이죠.
필요한 데이터를 HBF에서 HBM으로 미리 가져오는(프리페치) 구조를 만들면, 성능과 용량, 비용 사이에서 최적의 균형점을 찾을 수 있습니다. HBF는 전력 소비도 HBM보다 적어서 에너지 효율이 중요한 에지 AI 환경에서도 빛을 발할 겁니다.
더 나아가 HBF는 스토리지와 메모리의 경계를 허물 가능성이 큽니다. SSD를 프로세서에 직접 연결하는 '스토리지-메모리 융합' 구조가 현실화되면, 지금까지 골칫거리였던 메모리 병목 현상이 역사 속으로 사라질 수 있습니다. AI 시대의 데이터 처리 방식 자체를 바꿔놓을 혁신이 눈앞에 다가온 셈입니다.
HBF가 열어갈 메모리 시장의 미래
낸드플래시에 고대역폭 기술을 입힌 HBF는 단순한 메모리 신제품이 아닙니다. AI 시대가 요구하는 대용량과 고속 처리를 동시에 해결하는 게임 체인저죠. 2027년부터 본격적으로 시장에 나올 HBF는 AI 추론 성능을 한 단계 끌어올리고, 데이터센터의 효율을 획기적으로 개선할 것입니다. 삼성과 SK하이닉스를 비롯한 국내 기업들이 이 경쟁에서 어떤 성과를 낼지, 낸드관련주 투자자들의 시선도 뜨거워지고 있습니다.