GPU·NPU 등 AI 가속기용 HBM 공급 확대
올해 AI 가속기 공급량 800만대 규모 전망
[데일리한국 김언한 기자] 인공지능(AI) 시대가 본격화하면서 삼성전자와 SK하이닉스의 고대역폭메모리(HBM) 메모리반도체 수요가 크게 늘어날 전망이다. 특히 AI에 집중된 빅테크 기업의 투자는 올해 HBM의 공급 부족 현상을 일으킬 것으로 예상된다.
13일 시장조사업체 욜인텔리전스에 따르면 AI 가속기 공급량은 지난해 약 400만대 규모에서 올해 800만대 수준으로 늘어날 전망이다. AI 서버에 들어가 데이터 처리 속도를 비약적으로 높여주는 제품이다.
주로 미국의 엔비디아나 AMD가 고성능 그래픽처리장치(GPU) 형태로 공급한다. 여기에 SK하이닉스와 삼성전자의 HBM이 들어가 대용량 데이터 처리 성능을 높여준다. HBM은 여러 개의 D램을 수직으로 연결한 메모리반도체다.
AI 가속기 종류에는 GPU뿐 아니라 신경망처리장치(NPU)도 포함된다. SK텔레콤 자회사 사피온은 내년 말을 목표로 SK하이닉스의 HBM를 사용한 NPU 'X430'을 출시한다는 계획이다. 류수정 사피온 대표에 따르면 최소 HBM3 이상의 제품이 여기에 탑재된다.
SK하이닉스와 삼성전자는 빅테크 기업의 AI 투자에 발맞춰 HBM 생산능력(캐파)을 크게 높이기로 했다. 연말이 되면 이들 기업의 HBM 캐파는 전년 대비 2~2.5배 커질 것으로 예상된다.
올인텔리전스는 SK하이닉스와 삼성전자, 마이크론 등 HBM 제조사들의 올해 월 평균 HBM 캐파가 웨이퍼 환산 기준으로 15만1000장이 될 것으로 내다봤다. 이는 HBM 제조사 캐파를 모두 합한 것이다. 이들 기업의 전체 HBM 월 캐파는 2022년 4만4000장, 지난해 7만4000장 정도였던 것으로 추정된다.
업계에서는 HBM 구매의 '큰 손'이었던 엔비디아나 AMD뿐 아니라 구글, 오픈AI, 메타 등 IT 플랫폼 기업도 삼성전자나 SK하이닉스의 HBM을 직접 구매할 수 있다는 관측이 나온다.
업계 관계자는 "IT 플랫폼 기업이 자체적으로 고성능 AI 가속기를 만들려면 여기에는 삼성전자나 SK하이닉스의 HBM이 반드시 필요하다"며 "HBM은 공급이 수요 대비 크게 모자라는 상황이기 때문에 신규 고객사들 사이에서 HBM 확보 경쟁은 더 치열해질 수밖에 없다"고 말했다.
HBM은 SK하이닉스와 삼성전자의 캐시카우로 자리잡을 전망이다. HBM 가격은 일반 D램의 3~5배, 개당 수익률은 D램의 5배가 넘는 것으로 알려졌다.
전 세계 HBM 시장은 지난해 55억달러 규모에서 올해 140억달러 규모로 커질 것으로 예상된다. 시장조사업체 옴디아는 올해 글로벌 D램 시장 연간 매출이 634억달러 수준이 될 것으로 내다봤다. HBM이 매출 기준으로 전체 D램 시장의 4분의1 이상을 차지하는 셈이다.
제조업체간 경쟁도 치열해진다. 최근에는 중국 창신메모리(CXMT)가 HBM 생산을 위해 투자를 진행하고 있는 것으로 알려졌다. 지난해까지 두각을 나타내지 못했던 마이크론도 올해 HBM 생산을 공격적으로 늘릴 계획이다. 업계에선 마이크론의 HBM 점유율이 지난해 한자릿수에서 올해 두자릿수로 커질 것으로 보고 있다.