
SK하이닉스가 저전력 모바일 D램을 서버용으로 확장한 차세대 모듈 ‘소캠(SOCAMM)2’를 앞세워 인공지능(AI) 서버 메모리 구조 재편에 나섰다. 엔비디아의 ‘베라 루빈’ 플랫폼을 겨냥해 만들어진 이번 제품은 성능과 전력 효율을 동시에 끌어올리며 AI 인프라의 새로운 축으로 부상할 전망이다.
SK하이닉스는 10나노급 6세대(1c) 공정을 적용한 로우파워더블데이터레이트(LPDDR)5X 기반 소캠2 192GB 제품을 본격 양산한다고 20일 밝혔다.
AI 서비스 고도화로 데이터센터 메모리 수요가 급증하는 가운데, 기존 고대역폭메모리(HBM)과 더블데이터레이트(DDR)5 기반 RDIMM만으로는 성능·전력·폼팩터 요구를 동시에 충족하기 어려운 상황이다. RDIMM은 메모리 컨트롤러와 D램 칩 사이에 레지스터나 버퍼를 추가해 신호를 안정화하는 서버·워크스테이션용 모듈이다. 이 가운데 그래픽처리장치(GPU) 인근 초고대역폭 메모리와 시스템 메모리 사이의 간극을 메우기 위해 등장한 솔루션이 소캠이다.
소캠은 LPDDR 기반의 AI 서버용 메모리 모듈로, 얇은 두께와 높은 확장성이 특징이다. 압착식 커넥터를 적용해 신호 무결성을 높였고 모듈 교체도 용이하다. 특히 학습뿐 아니라 추론 단계에서 반복적으로 접근하는 중간 규모 데이터를 저장·캐싱하는 용도로 활용되며 메모리 계층 설계의 유연성을 높이는 역할을 맡는다. 가격과 공정 난이도 측면에서도 HBM 대비 부담이 낮아, AI 확산 과정에서 전체 메모리 물량을 확대하는 핵심 축으로 꼽힌다.
이번 소캠2는 플랫폼 세대 교체 시점에 맞춰 본격 양산되는 차세대 규격이다. 기존 소캠1이 약 8.5Gbps 수준의 데이터 전송 속도를 제공했다면, 소캠2는 이를 9.6Gbps 수준까지 끌어올리며 세대 간 성능 격차를 확대했다. 전력 효율 역시 동일 용량 기준 DDR5 RDIMM 대비 약 3분의 1 수준으로 낮추는 것을 목표로 설계돼 하이퍼스케일 데이터센터의 총소유비용(TCO) 절감에도 기여할 전망이다.

1세대 소캠이 특정 플랫폼 중심의 초기 생태계 성격이 강했다면, 소캠2는 주요 메모리 업체와 칩 설계사가 함께 참여하는 범용 AI 서버 메모리 규격으로 확장되고 있다는 점이 특징이다. 향후 LPDDR6 기반 후속 규격이 등장할 경우 속도와 전력 효율 측면에서 한 단계 더 향상될 것으로 관측된다. 이번 1c 공정을 적용한 소캠2는 기존 RDIMM 대비 2배 이상의 대역폭과 75% 이상 향상된 에너지 효율을 구현해 고성능 AI 연산에 최적화된 솔루션으로 평가된다.
특히 이번 제품은 엔비디아 차세대 AI 플랫폼 ‘베라 루빈’에 최적화돼 설계됐다. AI 연산 과정에서 GPU 처리 속도에 비해 메모리 데이터 공급이 지연되는 병목 현상이 빈번하게 발생하는데 소캠2는 이를 완화하는 데 초점을 맞췄다. 수천억 개 파라미터를 처리하는 초거대 AI 모델의 학습과 추론 과정에서 메모리 병목을 줄여 시스템 전체 처리 속도를 끌어올릴 것으로 기대된다.
SK하이닉스는 AI 시장이 학습 중심에서 추론 중심으로 이동하면서 저전력 메모리 수요가 빠르게 증가하고 있다고 보고 있다. 글로벌 클라우드서비스제공자(CSP) 수요에 대응하기 위해 양산 체제도 조기 안정화했다는 설명이다. 김주선 SK하이닉스 AI 인프라 사장은 “소캠2 192GB 제품 공급으로 AI 메모리 성능의 새로운 기준을 제시했다”며 “글로벌 고객과 협력을 통해 AI 메모리 시장에서 신뢰도를 더욱 강화하겠다”고 말했다.
연동된 커뮤니티 글을 불러오지 못했습니다.