AI 인프라 병목 현상 해결

SK하이닉스가 저전력 모바일 D램을 서버용으로 확장한 차세대 모듈 ‘소캠(SOCAMM)2’를 앞세워 인공지능(AI) 서버 메모리 구조 자체를 다시 짜는 승부수를 던졌다. 엔비디아 ‘베라 루빈’ 플랫폼을 겨냥한 이번 제품은 성능과 전력 효율을 동시에 끌어올리며 AI 인프라 판을 흔들 카드로 부상하는 분위기기다.
SK하이닉스가 10나노급 6세대(1c) LPDDR5X 저전력 D램 기반 차세대 메모리 모듈 규격인 소캠(SOCAMM)2 192GB(기가바이트) 제품을 본격 양산한다고 20일 밝혔다.
소캠2는 주로 스마트폰 등 모바일 제품에 사용되던 저전력 메모리를 서버 환경에 맞게 변형한 모듈로 차세대 AI 서버 등에 주력으로 활용된다. 얇은 두께와 높은 확장성을 갖췄으며, 압착식 커넥터를 통해 신호 무결성을 높이고 모듈 교체가 용이한 장점이 있다.
SK하이닉스는 "1c 나노 공정을 적용한 SOCAMM2 제품은 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 개선된 에너지 효율을 실현해 고성능 AI 연산에 최적화된 솔루션"이라고 설명했다.
RDIMM이란 메모리 모듈 내에 메모리 컨트롤러와 D램 칩 사이에 주소, 명령 신호를 중계해주는 레지스터나 버퍼 칩을 추가한 서버·워크스테이션용 D램 모듈이다.
이번 소캠2 제품이 엔비디아의 차세대 AI 플랫폼 ‘베라 루빈’에 최적화돼 설계됐다. AI 연산에서는 그래픽처리장치(GPU) 처리 속도에 비해 메모리 데이터 공급이 따라가지 못하는 병목 현상이 빈번하게 발생하는데, 소캠2는 이 고질적인 문제를 해결했다.
SK하이닉스의 소캠2는 수천 억 개의 파라미터를 처리하는 초거대 AI 모델의 학습과 추론 과정에서 메모리 병목 현상을 완화해 시스템 전체 처리 속도를 끌어올릴 것으로 기대된다.
SK하이닉스는 AI 시장이 학습에서 추론 중심으로 이동하며 저전력 메모리 수요가 빠르게 증가하고 있다고 보고 있다. 글로벌 클라우드서비스제공자(CSP) 고객 수요에 대응하기 위해 양산 체제를 조기 안정화 했다는 설명이다.
김주선 SK하이닉스 AI Infra 사장(CMO)은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 세웠다”며 “글로벌 AI 고객과 긴밀한 협력을 바탕으로 고객이 가장 신뢰하는 AI 메모리 설루션 기업으로 자리매김하겠다”고 말했다.



