삼성전자와 SK하이닉스가 인공지능(AI) 서버에 활용될 고부가 메모리 고대역폭메모리(HBM) 반도체에 치열한 경쟁을 펼치고 있다. 사진은 SK하이닉스의 HBM3 (사진=SK하이닉스)
반도체 겨울을 탈출할 계기로 고부가제품인 고대역폭 메모리(HBM)가 주목받고 있다. 챗GPT와 같은 초거대 생성형 인공지능(AI) 서비스가 쏟아지면서 서버용 메모리 수요가 늘고 있다. HBM은 고가이고 수익성이 높아 반도체 실적 반등의 견인차가 될 수 있다. 삼성전자와 SK하이닉스는 HBM 시장 선점을 위해 팔을 걷어부쳤다.
6일 업계에 따르면 삼성전자는 최근 특허청에 ‘스노우볼트’라는 상표를 출원했다. 이는 삼성전자의 아쿠아볼트(HBM2), 플래시볼트(HBM2E), 아이스볼트(HBM3) 등 HBM 브랜드 시리즈의 연장선인 HBM 제품을 위한 상표다.
삼성전자 관계자는 “스노우볼트는 향후 HBM 브랜드명으로 활용될 것”이라며 “이 제품의 출시 시기는 아직 정해지지 않았다”고 말했다.
앞서 삼성전자는 지난달 말 실적 발표 때도 차세대 HBM 준비 소식을 전했다. 김재준 삼성전자 메모리사업부 부사장은 “AI 서버 등 시장이 요구하는 높은 성능과 용량의 차세대 HBM3P 제품을 하반기에 출시할 계획”이라고 밝혔다.
HBM은 방대한 데이터를 필요로하는 AI 서버에 적합한 메모리다. 이는 D램의 한 종류로, 한글로 하면 고대역폭 메모리다. 대역폭은 데이터 운반 능력을 말한다. 대용량의 데이터를 운반하기에 적합하다는 것. 일반 D램보다 대역폭이 커 전송 속도가 빠르다.
이처럼 성능이 좋기 때문에 가격이 비싸다. 일반 D램 가격보다 2~3배 높은 것으로 알려졌다. 외신에 따르면 올해 HBM3 가격은 5배 이상 치솟기도 했다. D램과 낸드플래시 가격 하락으로 반도체 기업들이 실적이 악화한 것을 고려하면 반도체기업에게 HBM은 구미가 당기는 영역이다.
시장조사업체 D램익스체인지는 지난달 PC용 D램 범용제품인 DDR4 8GB 가격이 평균 1.45달러로 지난해 대비 57.5% 하락했다고 조사했다.
고부가이고 전망성 높은 HBM이 필요하다. 트렌드포스에 따르면 HBM 시장 규모는 올해부터 오는 2025년까지 연 평균 최대 45% 이상 증가할 전망이다. AI 관련 서비스가 쏟아지면서 HBM을 활용한 서버가 늘어날 것이기 때문이다.
현재 HBM 시장에서 SK하이닉스가 삼성전자보다 앞섰다.
트렌드포스 통계에 따르면 지난해 기준 HBM 점유율은 SK하이닉스 50%, 삼성전자 40%, 마이크론이 10%이다. SK하이닉스가 HBM에서 앞선 것은 지난 2013년 HBM을 세계 최초로 개발에 성공했기 때문이다. 1세대인 HBM부터 2세대 HBM2, 3세대 HBM2E에 이어 지난해 6월 처음으로 4세대 HBM3를 선보였다. SK하이닉스는 현재 양산하고 있는 HBM3의 경우 그래픽장치 1위 기업인 엔비디아에도 납품하고 있다며 기술력을 과시하기도 했다.
SK하이닉스는 올 하반기 5세대 HBM을 올해 안에 시제품을 내놓을 예정이다. 지난달 말 1분기 실적 발표에서 박명수 SK하이닉스 D램 마케팅담당(부사장)은 “올해 하반기 5세대인 8Gbps(기가비피에스) HBM3E(5세대) 시제품을 공개하겠다”며 내년 상반기 양산을 예고했다.
미국과 중국의 반도체 패권 경쟁으로 인해 어려운 환경 속에서 유럽은 독일 최대 반도체기업 인피니언을 통해 독일 드레스덴에 7조3000억원을 들여 반도체 제조공장 착공을 준비하고 있다. 이는 메모리 반도체의 아시아와 미국 의존도를 낮추기 위한 조치다. 삼성전자와 SK하이닉스가 HBM과 같은 전망성 높은 고부가 제품에서 치열한 경쟁을 벌이는 이유다.