
HBM4 16단 48GB은 업계 최고 속도인 11.7Gbps를 구현했다. HBM4 12단 36GB의 후속 모델이다. SK하이닉스는 “고객사의 일정에 맞춰 개발이 순조롭게 진행되고 있다”고 설명했다.
아울러 올해 전체 HBM 시장을 주도할 HBM3E 12단 36GB 제품도 전시한다. 특히 이 제품이 탑재된 글로벌 고객사의 최신 AI 서버용 GPU 모듈을 함께 전시해 AI 시스템 내에서의 역할을 구체적으로 제시한다.
HBM 외에도 AI 서버 특화 저전력 메모리 모듈인 SOCAMM2도 전시해 폭증하는 AI 서버 수요에 대응하는 다양한 제품 포트폴리오 경쟁력을 입증할 계획이다.
이와 함께 SK하이닉스는 AI 구현에 최적화된 범용 메모리 제품 라인업도 전시해 시장 전반에서의 기술 리더십을 제시한다. 대표적으로 온디바이스 AI 구현에 최적화하기 위해 기존 제품 대비 데이터 처리 속도와 전력 효율을 크게 개선한 ‘LPDDR6’을 공개한다.
낸드에서는 AI 데이터센터 구축 확대로 수요가 급증하는 초고용량 eSSD에 최적화된 321단 2Tb(테라비트) QLC 제품을 선보인다. 현존 최대 수준의 집적도를 구현한 이 제품은 이전 세대 QLC 제품 대비 전력 효율과 성능을 크게 향상시켜 저전력이 요구되는 AI 데이터센터 환경에서 강점을 보인다.
SK하이닉스는 미래를 위해 준비 중인 AI 시스템용 메모리 설루션 제품들이 AI 생태계를 구성해 유기적으로 연결되는 과정을 살펴볼 수 있는 ‘AI 시스템 데모존’도 마련했다.
이 곳에서 △특정 AI 칩 또는 시스템 요구사항에 최적화된 고객 맞춤형 ‘cHBM’ △PIM 반도체 기반의 저비용·고효율 생성형 AI용 가속기 카드 ‘AiMX’ △메모리에서 직접 연산을 수행하는 ‘CuD’ △CXL메모리에 연산 기능을 통합한 ‘CMM-Ax’ △데이터를 스스로 인지, 분석, 처리하는 데이터 인식형 ‘CSD’ 등을 전시하고 시연한다.
커스텀 HBM에 대해서는 내부 구조를 육안으로 확인할 수 있는 대형 전시물을 마련했다. AI 시장의 경쟁 양상이 단순 성능에서 추론 효율성과 비용 최적화로 이동함에 따라, 기존 GPU나 ASIC 기반의 AI 칩이 처리하던 일부 연산·제어 기능을 HBM 내부로 통합한 새로운 설계 방식을 시각화한 것이다.
김주선 AI인프라 사장(CMO)은 “AI가 촉발한 혁신이 더욱 가속화되고 있는 만큼, 고객들의 기술적 요구 또한 빠르게 진화하고 있다”며 “차별화된 메모리 설루션으로 고객의 요구에 부응하는 동시에 AI 생태계 발전을 위해 고객과의 긴밀한 협업을 바탕으로 새로운 가치를 창출하겠다”고 말했다.



