이 글 내용에 맞춰 Copilot이 만든 이미지. (자료=이슈라인)


[이슈라인=장사라 기자] 글로벌 반도체 시장이 다시 한 번 큰 변화를 맞이하고 있다. 차세대 고대역폭 메모리(HBM4)의 핵심 사양이 사실상 확정되면서, 이미 안정화 단계에 들어선 HBM3E 대량 공급 체제와 맞물려 업계는 “AI 시대의 두 번째 메모리 전쟁이 시작됐다”는 평가를 내놓고 있다.

HBM3E는 현재 AI 서버와 가속기용 메모리의 사실상 표준으로 자리 잡았다. 엔비디아와 주요 클라우드 기업들이 HBM3E 채택을 확대하면서 1.2~1.3TB/s급 대역폭 제품이 널리 공급되고 있으며, SK하이닉스는 수율과 공급량이 안정적이라며 2026년까지 물량 확대에 자신감을 보이고 있다.

다음 세대 규격인 HBM4는 인터페이스 폭을 기존 1024비트에서 2048비트로 두 배 늘린 것이 핵심이다. 업계 관계자는 이를 “차선이 두 배로 넓어진 고속도로”에 비유하며 데이터 흐름 속도가 획기적으로 빨라질 것이라고 설명했다. HBM4는 2TB/s 이상의 대역폭, 12~16단 고적층 설계, 전력 소비 감소 등의 특징을 갖추며 GPT-5 이상의 초거대 AI 모델이 요구하는 메모리 사양을 충족하는 첫 세대로 평가된다.

HBM4 이후 버전인 HBM4E도 이미 업계의 기대를 모으고 있다. 초기 로드맵 단계임에도 불구하고 2.5TB/s 이상의 초고속 대역폭, 16~20단 이상 적층 가능성, 고효율 열 처리 기술 적용 등이 예상되며 ‘완전체’로 불리고 있다.

이 과정에서 SK하이닉스와 삼성전자의 경쟁은 더욱 치열해지고 있다. SK하이닉스는 HBM3E 양산에서 앞서가며 엔비디아 공급망을 안정적으로 확보해 시장 지배력을 강화하고 있으며, TSV 공정 안정성에서 우위를 점하고 있다는 평가를 받는다. 반면 삼성전자는 HBM3E 수율 개선 속도를 높이며 본격적인 추격에 나서고 있다. 특히 패키징 기술력과 파운드리·메모리 통합 대응 능력을 앞세워 HBM4 시대에 반등을 노리고 있다.

전문가들은 이번 HBM의 진화를 단순한 성능 향상에 그치지 않고, AI 시대의 핵심 인프라 전환으로 보고 있다. 한 업계 전문가는 “HBM4와 HBM4E는 AI 연산 속도 자체를 완전히 재정의하는 수준”이라며 “AI 모델 규모가 커질수록 메모리의 가치는 GPU 못지않다”고 강조했다.