CXL – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 27 Mar 2025 11:34:12 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png CXL – SK hynix Newsroom 32 32 [CES 2025 스케치] SK하이닉스, CES 2025에서 AI 인프라 혁신 기술 공개… ‘지속 가능한 미래’ 선도 /ces-2025-sketch/ /ces-2025-sketch/#respond Wed, 08 Jan 2025 00:00:59 +0000 /?p=45605

SK하이닉스가 1월 7일(이하 현지시간)부터 10일까지 나흘간 미국 라스베이거스에서 열린 세계 최대 IT/가전제품 전시회 ‘CES 2025(Consumer Electronics Show 2025)’에 참가했다.

올해 CES는 ‘연결하고, 해결하며, 발견하라: 뛰어들다(Connect, Solve, Discover: DIVE IN)’를 주제로 개최됐으며, 전 세계 글로벌 ICT 기업들의 기술력을 엿볼 수 있는 다양한 전시가 진행됐다.

SK하이닉스는 SK멤버사*와 함께 ‘혁신적인 AI 기술로 지속가능한 미래를 만든다(Innovative AI, Sustainable tomorrow)’를 주제로 전시관을 꾸미고, 지속가능한 미래를 위한 다양한 AI 메모리 기술력을 선보이며, SK의 미래 비전을 제시했다.

놀라운 기술력으로 CES 2025를 빛낸 SK 전시관(이하 SK관)을 함께 살펴보자.

* SK하이닉스, SK텔레콤, SKC, SK엔무브 등

지속가능한 미래, AI로 그리다

‘AI’와 ‘지속가능성’을 핵심 테마로 590여 평 규모의 전시관을 꾸민 SK는 AI 기술력을 활용해 개인의 생활과 공공 분야 서비스를 혁신하는 인프라 구축 모델을 선보이며, 지속가능한 미래를 만들겠다는 의지를 전시에 담아냈다.

SK관은 크게 ▲AI 데이터센터(Data Center, DC) ▲AI 서비스(Service) ▲AI 생태계(Eco-system)로 파트를 구성했다. 각 파트에서는 SK멤버사들의 최신 AI 기술과 AI를 활용한 다양한 서비스 및 시스템 등을 확인할 수 있었다.

SK관 외부에는 데이터의 최소 단위인 비트(bit)를 파도(Wave)처럼 형상화한 그래픽을 구현해 관람객들의 발길을 끌어모았다. 여기에는 데이터와 ICT 기술이 세상을 바꾸는 파도가 될 것이라는 의미를 담았다.

또한, AI 시대에서 핵심적인 역할을 하게 될 데이터센터를 형상화한 전시관에는 SK하이닉스의 AI 메모리 반도체를 비롯해 더욱 효율적이고 안정적인 데이터센터 운영을 위한 AI 솔루션들을 확인할 수 있었다.

우리가 일상생활에서 활용할 수 있는 다양한 AI 서비스와 함께, AI 전문 회사인 가우스랩스[관련기사]를 비롯해, SK멤버사들과 지속적인 협력 관계를 맺고 있는 글로벌 AI 파트너사(SGH, 람다, 앤트로픽, 퍼플렉시티 등)의 소식을 함께 전하기도 했다.

SK관을 방문한 관람객들은 “AI 구현을 위한 데이터센터 혁신 기술뿐만 아니라 AI 활용 방안 등에 대한 자세한 내용을 확인할 수 있어 유익했다”고 소감을 밝혔다.

혁신적인 AI 기술력 선보인 SK하이닉스

SK하이닉스는 이번 CES 2025에서 ▲AI 데이터센터와 ▲AI 서비스 파트에 최신 AI 메모리 반도체 제품을 전시했다. 회사는 이와 관련해 “AI를 활용해 지속가능한 미래를 실현하려는 SK의 비전에 적극 동참하며, 이번에 전시된 혁신적인 AI 메모리 반도체 제품들은 SK의 비전을 실현하는 데 큰 도움이 될 것”이라고 밝혔다.

1. 압도적 성능의 AI 메모리 반도체, 데이터센터를 혁신하다

AI 데이터센터 전시관에서 가장 먼저 눈길을 끄는 제품은 기업용 SSD(Enterprise SSD, 이하 eSSD)다. 대규모 데이터 처리와 저장에 최적화된 eSSD는 데이터센터의 핵심 구성요소로 최근, 데이터양이 기하급수적으로 증가하면서 중요성이 더 부각되고 있다.

이에, SK하이닉스는 176단 4D 낸드플래시(NAND Flash, 이하 낸드) 기반의 데이터센터 eSSD인 ▲PS1010 E3.S를 비롯해 ▲PE9010 M.2, 238단 4D 낸드 기반의 ▲PEB110 E1.S, QLC* 기반 61TB(테라바이트) 제품인 ▲PS1012 U.2* 등 압도적인 성능의 eSSD 제품을 선보였다.

* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* U.2: SSD의 형태를 칭하는 폼팩터(FormFactor)의 일종으로 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용됨. 대용량 저장과 높은 내구성이 특징

여기에는 자회사 솔리다임(Solidigm)이 작년 11월 개발한 ▲D5-P5336 122TB 제품도 포함됐다. 이 제품은 현존 최대 용량을 자랑하며, 높은 수준의 공간 및 전력 효율성까지 갖춰 AI 데이터센터 고객들로부터 큰 관심을 받았다.

고도화된 AI 구현을 지원하는 대용량 메모리 제품도 소개했다. SK하이닉스는 최근 AI 메모리 제품으로 많은 관심을 받는 HBM*의 최신 제품인 ▲16단 HBM3E를 공개했다. 이 제품은 1.2TB 이상의 대역폭과 48GB(기가바이트)의 용량을 갖춘 현존 최고 사양의 HBM으로 업계 관계자와 관람객으로부터 큰 관심과 호응을 얻었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전

▲ GDDR6-AiM과 AiMX

이와 함께, 데이터센터용 DIMM* 제품군인 ▲DDR5 RDIMM과 ▲MRDIMM* 등도 선보였다. 2024년, SK하이닉스는 업계 최초로 10nm 공정의 6세대 기술(1cnm)을 기반으로 한 DDR5를 개발했으며, 이 기술이 적용된 DDR5 RDIMM은 기존 제품 대비 동작 속도는 11%, 전력 효율은 9% 향상된 제품이다.

* DIMM(Dual In-line Memory Module): 여러 개의 D램이 기판에 결합한 모듈
* MRDIMM(Multiplexer Ranks Dual In-line Memory Module): DIMM 제품 중에서도, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

차세대 인터페이스로 주목받는 DDR5 기반의 CXL* 제품으로 최대 128GB의 개별 용량과 초당 35GB의 대역폭을 자랑하는 ▲CMM-DDR5* 역시 큰 관심을 받았다. 부스에서는 카드 형태의 CXL 메모리 제품인 ▲CMM-Ax의 모습도 확인할 수 있었다. CMM-Ax는 내부에 NMP(Near Memory Processing) 장치를 탑재해 연산 기능을 더한 제품으로, 최대 512GB 용량과 초당 76.8GB 대역폭의 압도적인 성능을 보인다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* CMM-DDR5: CXL 기술을 적용한 DDR5 기반 메모리 모듈로, 기존 대비 대역폭을 50% 확장하고 메모리 용량을 두 배로 늘려 고성능 컴퓨팅(HPC)과 AI 응용에서 탁월한 성능을 발휘함. SK하이닉스의 CMM-DDR5는 AI 추론 및 인메모리 데이터베이스(DB) 환경에서 데이터 접근 속도와 자원 활용을 최적화해 데이터 처리 효율을 크게 높임

▲ GDDR6-AiM과 AiMX

부스에서는 PIM* 제품군 역시 찾아볼 수 있었다. 초당 16Gb(기가비트)의 속도로 데이터를 처리하는 GDDR6에 연산기능을 더한 ▲GDDR6-AiM은 CPU/GPU와 함께 사용할 경우, 특정 조건에서 연산 속도가 최대 16배 이상 빨라지는 제품이다. 또한 가속기 카드 제품인 ▲AiMX*를 전시하며, AI 데이터센터를 혁신하는 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로서의 면모를 뽐냈다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품

2. 일상 속 AI의 발견, ‘온디바이스 AI’

SK하이닉스는 데이터센터용 AI 메모리 제품에 이어 일상에서 사용하는 디바이스에 최적화된 온디바이스 AI* 제품들도 선보였다. LPCAMM2, ZUFS 4.0, PCB01 등 혁신적인 제품들은 전시 내내 많은 관람객의 이목을 끌었다.

* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트폰 기기가 자체적으로 정보를 수집하고 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

먼저, 저전력, 고성능, 모듈 방식으로 구현한 ▲LPCAMM2*는 여러 개의 LPDDR5X*를 하나로 묶은 모듈로 기존 SODIMM* 두 개를 하나로 대체하는 성능을 제공한다. 저전력 특성에 더해, 공간 절약까지 가능해 최근 온디바이스 AI 제품으로 주목받고 있다.

* LPCAMM2(Low-Power Compression Attached Memory Module): 데스크톱/노트북/태블릿용 메모리를 차세대 모듈 규격(CAMM)에 맞춰 개발한 제품. 기존 모듈 대비 단면 구성으로 두께가 반으로 줄고, 고용량 저전력의 특성을 지니고 있음
* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* SODIMM(Small Outline DIMM): PC에서 사용되는 초소형 모듈로 전체 길이가 짧음

함께 전시된 ▲ZUFS* 4.0은 스마트폰에서 온디바이스 AI를 구현하는 데 최적화된 낸드 솔루션으로, 업계 최고 성능을 자랑한다. 기존 UFS와 달리, 데이터를 용도와 사용 빈도에 따라 다른 공간에 저장해 스마트폰 OS의 동작 속도와 저장 장치의 관리 효율성을 높인다는 특징이 있다. SK하이닉스는 이 제품 사용 시, 장시간 사용 환경에서 기존 UFS 대비 앱 실행 시간이 약 45% 개선되며, 성능 저하에 따른 제품 수명이 40% 늘어난 것을 확인했다.

* ZUFS(Zoned Universal Flash Storage): 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품

▲PCB01은 온디바이스 AI PC에 최적화된 고성능 PCIe 5세대 SSD 제품이다. 연속 읽기 속도는 초당 14GB, 연속 쓰기 속도는 초당 12GB로 업계 최고 수준의 속도를 자랑한다. 또한, 전력 효율 역시 이전 세대 대비 30% 이상 개선되며 대규모 AI 연산 작업의 안정성을 제공한다.

이처럼 SK하이닉스는 CES 2025를 통해 데이터센터와 온디바이스 AI를 포괄하는 다양한 제품을 선보이며 기술의 폭넓은 적용 가능성을 제시했다. 회사는 “CES 2025에서 선보인 압도적인 성능의 AI 메모리 제품들을 통해 명실공히 ‘풀 스택 AI 메모리 프로바이더’의 면모를 선보였으며, AI 분야의 리더십을 확고히 다졌다”고 평가하며, “앞으로도 지속가능한 미래를 위해 AI 혁신을 지속적으로 추진할 것”이라고 밝혔다.

]]>
/ces-2025-sketch/feed/ 0
SK하이닉스, ‘슈퍼컴퓨팅 2024’에서 HPC와 AI 혁신 솔루션 공개하며 AI 시장 리더십 입증 /sc24-ai-hpc-exhibition/ /sc24-ai-hpc-exhibition/#respond Thu, 21 Nov 2024 00:00:24 +0000 /?p=42534

SK하이닉스가 17일부터 22일까지(미국시간) 미국 조지아주 조지아 월드 콩그레스 센터(Georgia World Congress Center)에서 열린 ‘슈퍼컴퓨팅 2024(Super Computing 2024, 이하 SC 2024)’에 참가해 HPC와 AI를 위한 최첨단 솔루션을 선보였다.

SC 2024는 1988년부터 매년 열리는 HPC 분야의 대표적 글로벌 콘퍼런스로, HPC와 AI 기술의 최신 동향을 공유하고 업계 전문가들이 교류하는 행사다.

올해 SK하이닉스는 ‘MEMORY, THE POWER OF AI’를 주제로 전시를 열어, HPC·AI 제품 시연과 함께 첨단 메모리와 스토리지 기술에 대한 발표를 진행했다. 회사는 이번 행사를 통해 SK하이닉스의 축적된 기술력을 선보이며 글로벌 시장에서의 AI 리더십을 입증했다.

AI 데이터센터 기술의 미래를 선도하는 솔루션

SK하이닉스는 글로벌 AI 메모리 시장에서의 기술 리더십을 보여주는 다양한 제품을 전시했다. 데이터센터 솔루션 섹션에서는 ▲HBM3E ▲DDR5 Server DIMM ▲Enterprise SSD 등 회사의 핵심 제품을 선보였다.

데이터 처리 성능이 향상된 차세대 메모리 HBM3E가 전시되어 관람객들의 눈길을 끌었다. HBM3E[관련기사]는 현존하는 HBM* 제품 중 최대 용량인 36GB를 구현한 신제품으로, AI 메모리 시장을 선도하는 기술력을 통해 주요 고객사와의 협력을 한층 강화하고 있다. AI 반도체 제조사들이 점점 더 방대한 데이터를 빠르게 처리할 수 있는 고용량 HBM이 필요함에 따라, SK하이닉스는 지난 9월 업계 최초로 12단 적층 D램 양산을 시작하며 반도체 시장 변화에 빠르게 대응했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전.

이와 함께, 회사는 DDR5 RDIMM(1cnm)을 공개해 큰 관심을 끌었다. 이 제품은 차세대 미세화 공정이 적용된 D램으로, 전력 효율이 높아져 데이터센터 전력 비용 절감에 기여할 것으로 기대된다. 또한 회사는 고성능 서버용으로 설계된 다양한 DDR5 모듈의 DDR5 MCRDIMM*과 DDR5 3DS RDIMM 등의 제품군을 소개했다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

이외에도 SK하이닉스는 기존 출시한 초고성능 PCIe* 5세대 제품 PS1010과 더불어, 데이터센터용 PCIe 5세대 eSSD(Enterprise SSD) 신제품 PEB110을 공개했다. PCIe 5세대 기술은 이전 세대보다 대역폭이 두 배로 넓어져 더 빠른 데이터 전송 속도를 제공하며, PEB110은 이를 통해 전력 효율과 성능이 크게 개선됐다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

HPC·AI 혁신 솔루션 한 자리에… 미래 기술로 성능 혁신을 보여주다

HPC·AI 솔루션 섹션에서는 차세대 메모리 기술을 통한 데이터 처리와 응용 성능 향상을 실감할 수 있도록 다양한 고성능 솔루션을 시연했다.

SK하이닉스는 이번 행사에서 차세대 메모리 기술인 CXL(Compute Express Link)*을 적용한 CMM-DDR5*를 선보였다. CXL 메모리는 여러 컴퓨팅 장치가 메모리를 공유하여 데이터 전송 속도와 자원 활용도를 높이는 기술로, HPC와 AI 응용에 필요한 메모리 용량 확장을 지원한다. 이러한 CXL 메모리 기술이 적용된 CMM-DDR5 데모에서는 Intel® Xeon® 6 프로세서가 장착된 서버 플랫폼을 사용해 AI 데이터 처리 작업을 더 빠르게 수행하는 사례를 소개해 큰 호응을 얻었다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* CMM-DDR5: CXL 기술을 적용한 DDR5 기반 메모리 모듈로, 기존 대비 대역폭을 50% 확장하고 메모리 용량을 두 배로 늘려 고성능 컴퓨팅(HPC)과 AI 응용에서 탁월한 성능을 발휘함. SK하이닉스의 CMM-DDR5는 AI 추론 및 인메모리 데이터베이스(DB) 환경에서 데이터 접근 속도와 자원 활용을 최적화해 데이터 처리 효율을 크게 높임

또한 회사는 PIM*기술을 활용한 AiMX*를 통해 최신 언어 모델인 LLaMA-3 70B의 실시간 처리 성능을 시연했다. 데이터센터의 언어 모델 서비스는 여러 사용자의 요청을 동시에 처리하는 방식으로 GPU 효율을 개선하고 있으나, 동시에 처리할 요청이 많아짐에 따라 이 과정에서 발생하는 결과물인 생성 토큰의 길이가 증가하여 GPU 효율이 낮은 Attention Layer*의 연산량이 커지는 문제가 있다. 이번에 공개된 SK하이닉스의 AiMX는 연산을 가속해 데이터 처리 속도를 높이고 전력 소모를 줄임으로써, 대량 데이터를 효율적으로 처리할 수 있는 고성능·저전력 솔루션으로서의 강점을 보여줬다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품
* Attention Layer: 입력 데이터의 각 부분에 가중치를 부여하여 관련 정보에 더 집중하게 하는 메커니즘으로 언어모델에서 사용되는 핵심 알고리즘

나이아가라(Niagara) 2.0 데모에서는 CXL Pooled Memory* 솔루션을 활용해 거대언어모델(LLM) 추론 서비스에서 발생하는 LLM 모델 스위칭* 오버헤드를 개선하는 방안을 선보였다. 이 솔루션은 GPU 메모리 부족으로 인해 불가피하게 발생하는 LLM 모델 스위칭 오버헤드를 줄여 추론 시간을 단축할 수 있음을 보였다.

* Pooled Memory: 여러 개의 CXL 메모리를 묶어 풀(Pool)을 만들어 여러 호스트가 효과적으로 용량을 나누어 사용하여 전반적인 메모리 사용률을 높이는 기술
* LLM 모델 스위칭: GPU 메모리상의 기존 LLM 모델을 삭제하고 사용자의 요청에 맞는 LLM 모델을 load 하는 기능

SSD 시연에서는 Checkpoint Offloading SSD 솔루션을 활용해 체크포인팅(Checkpointing)* 기술을 효과적으로 지원함으로써, LLM 학습 시스템에서 발생하는 장애로 인한 자원 및 비용 낭비를 줄이고 학습 성능을 향상시킬 수 있음을 보였다.

* 체크포인팅(Checkpointing): 학습 과정 중 특정 시점의 모델 파라미터와 관련 주요 데이터를 저장하여 시스템 장애 발생 시 저장된 특정 시점에서 학습을 재시작할 수 있도록 지원하는 기술

SK하이닉스는 미국 로스앨러모스 국립연구소(Los Alamos National Laboratory, 이하 LANL)*와 협업하여 개발한 객체 기반 연산 스토리지(Object-based Computational Storage, OCS)* 기술을 활용해 필요한 데이터만 분석 서버로 전송함으로써 HPC 환경의 데이터 병목 현상을 개선하는 데모를 선보였다. 또한, 대규모 데이터 처리에서 성능을 크게 향상시킬 수 있는 HBM 기반 NMP(Near-Memory Processing)* 기술도 함께 소개했다.

* LANL(Los Alamos National Laboratory): 미국 에너지부 산하 국립연구소로 국가안보와 핵융합 분야를 비롯해 우주탐사 등 다양한 분야의 연구를 하는 곳으로 특히 2차 세계대전 당시 맨해튼 프로젝트에 참여해 세계 최초로 핵무기를 개발한 곳
* 객체 기반 연산 스토리지(Object-based Computational Storage, OCS): 데이터 분석을 위해 설계된 컴퓨팅 스토리지 솔루션으로, 데이터 인식 기능을 통해 컴퓨팅 노드의 도움 없이 독립적으로 분석 작업을 수행할 수 있음. 이 기술은 고성능 컴퓨팅(HPC) 환경에서 대규모 데이터의 효율적 처리를 가능하게 함
* NMP(Near-Memory Processing): CPU-메모리 간 데이터 이동 시 발생하는 병목 현상을 해결하고, 처리 성능 향상을 위해 연산 기능을 메인 메모리 옆으로 이동하는 메모리 아키텍처

발표 세션에서 차세대 HPC·AI 기술 비전 제시

SK하이닉스는 이번 행사에서 주요 연사로 나서 자사의 기술 비전과 차세대 솔루션을 공유했다. 박정안 TL(Sustainable Computing)은 LNAL와 공동 개발한 객체 기반 연산 스토리지(Object-based Computational Storage, OCS) 표준화에 대해 발표했다. 박 TL은 “SK하이닉스의 OCS는 추가적인 컴퓨팅 자원 없이도 데이터 저장 장치가 스스로 분석을 수행해 기존보다 빠르고 효율적인 데이터 처리를 가능하게 한다”고 밝혔다.

또한 김종률 팀장(AI System Infra)은 ‘HPC·AI 시스템을 위한 메모리와 스토리지의 힘’을 주제로, SK하이닉스의 최신 연구 성과를 기반으로 한 메모리와 스토리지 기술을 소개했다. 김 팀장은 HPC·AI 시스템에 적용할 수 있는 CXL 메모리와 HBM 기반의 Near-Memory Processing 기술 및 CXL Pooled Memory 기반의 데이터 공유 기술에 대한 연구 결과와 기술 인사이트를 소개하였다.

]]>
/sc24-ai-hpc-exhibition/feed/ 0
SK하이닉스, SK AI Summit 2024에서 현존 최대 용량의 ‘HBM3E 16단’ 개발 공식화 /sk-ai-summit-2024/ /sk-ai-summit-2024/#respond Tue, 05 Nov 2024 21:00:00 +0000 http://localhost:8080/sk-ai-summit-2024/ 삼성동 코엑스에서 개최된 SK AI 서밋 2024 현장

▲ 삼성동 코엑스에서 개최된 SK AI 서밋 2024 현장

SK하이닉스가 4일부터 양일간 서울 삼성동 코엑스에서 열린 ‘SK AI Summit 2024(이하 AI 서밋)’에 참가했다. ‘AI 투게더, AI 투모로우(AI Together, AI Tomorrow)’를 주제로 열린 이 행사에서 회사는 현존 HBM* 최대 용량인 48GB(기가바이트) 기반의 ‘HBM3E 16단’개발 사실을 공식적으로 알리고, 핵심 성과를 집대성해 선보였다. 이와 함께 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로 나아가기 위한 비전도 공유했다.

AI 서밋은 SK 그룹이 매년 개최하던 SK 테크 서밋[관련기사]을 AI 중심으로 격상한 행사다. 올해 행사에서는 글로벌 AI 대가들이 모여 범용인공지능 시대의 생존법을 논의하고 AI 생태계 강화 방안을 모색했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨 HBM3E는 HBM3의 확장(Extended) 버전

특히 SK 최태원 회장, SK하이닉스 곽노정 대표이사 사장, SK텔레콤 유영상 사장을 비롯해 오픈AI 회장 겸 사장 그레그 브로크만(Greg Brockman), 마이크로소프트(MS) 총괄 부사장 라니 보카르(Rani Borkar) 등 다양한 분야의 전문가가 참석해 의미를 더했다. 아마존웹서비스(AWS), MS 등 빅테크 기업과 K-AI 얼라이언스 회원사도 동참해 부스를 꾸리고 업계 관계자 및 관람객과 교류하는 시간을 가졌다.

SK하이닉스는 AI 산업의 키플레이어로서 행사에 참여해 자사 제품과 성과를 공유했다. 특히, HBM3E 16단 발표가 큰 주목을 받았다. 발표에는 곽노정 사장을 비롯해 강욱성(차세대 상품기획 담당), 박문필(HBM PE 담당), 이강욱(PKG개발 담당), 주영표(소프트웨어 솔루션 담당), Paul Fahey(SKHYA) 부사장 등이 참석해 회사의 기술 리더십을 알렸다.

SK AI 서밋 2024에서 개회사를 전하고 있는 SK 최태원 회장

▲ SK AI 서밋 2024에서 개회사를 전하고 있는 SK 최태원 회장

이날 최태원 회장은 ‘AI 투게더, AI 투모로우’란 주제에 걸맞은 담론과 비전을 제시하며 행사의 포문을 열었다. 최 회장은 “AI는 초기 단계이고 모르는 것이 많기에 문제 해결과 진전을 위해선 많은 사람의 참여와 협력이 중요하다”고 밝혔다. 또, 최 회장은 “SK는 칩(Chip)부터 에너지, 데이터 센터 구축·운영, 서비스 개발, 유즈케이스(Use-Case)까지 모두 커버하는 글로벌 기업”이라며 “각 분야 최고의 파트너들과 협업 중이고 이를 통해 글로벌 AI 혁신을 만들어 나가겠다”고 강조했다.

곽노정 사장, 기조연설 통해 ‘HBM3E 16단’ 개발 사실 공식화해

4일 ‘차세대 AI 메모리의 새로운 여정, 하드웨어를 넘어 일상으로(Next AI Memory, Hardware to Everywhere)’를 주제로 기조연설을 펼친 곽노정 사장은 이 자리에서 HBM3E 16단 제품을 개발하고 있다고 공식 발표했다.

곽 사장은 “D램 칩 16개를 적층해 48GB 용량을 구현했고, 양산성이 검증된 어드밴스드 MR-MUF 기술*을 적용했으며, 백업(Back Up) 공정으로 하이브리드 본딩* 기술도 함께 개발 중”이라고 설명했다. 또, “16단은 12단 대비 AI 학습 성능을 최대 18%, 추론 성능을 최대 32% 향상할 수 있다”고 덧붙였다. HBM3E 16단은 2025년 상용화를 목표로 하고 있다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* 하이브리드 본딩(Hybrid Bonding): 칩을 적층할 때, 칩과 칩 사이에 범프를 형성하지 않고 직접 접합시키는 기술. 이를 통해 칩 전체 두께가 얇아져 고단 적층이 가능해지며, 16단 이상의 HBM 제품에서 필요성이 검토되고 있음. SK하이닉스는 어드밴스드 MR-MUF와 하이브리드 본딩 방식을 모두 검토하고 있음

이번 발표에서 곽 사장은 ‘World First(세계 최초 개발·양산 제품), Beyond Best(차세대 고성능 제품), Optimal Innovation(AI 시대, 시스템 최적화 제품)’이란 로드맵도 공개했다. 그는 “HBM3E 16단과 DDR5 RDIMM(1cnm)[관련기사] 등을 세계 최초로 개발한 데 이어 HBM4, UFS* 5.0 등 차세대 고성능 제품을 개발할 계획”이라고 밝혔다. 또, “장기적으로는 AI에 최적화된 커스텀(Custom) HBM, CXL®* 등을 상용화해 풀 스택 AI 메모리 프로바이더로 성장하겠다”고 강조했다.

* UFS(Universal Flash Storage): 모바일 저장장치 규격 중 하나로, 기존 eMMC(embedded MultiMediaCard)와 달리 동시 읽기·쓰기가 가능하다. PC 저장장치(SSD)의 빠른 속도와 모바일 저장장치(eMMC)의 저전력 특징을 모두 갖춘 규격으로, 4.0 버전까지 개발됐다.
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

HBM4에 대한 언급도 눈길을 끌었다. 곽 사장은 “세계 최고의 파운드리와 협력해 전력 소모를 줄이는 방향으로 베이스 다이(Base Die) 성능을 개선하는 중”이라며 “원팀 파트너십을 바탕으로 최고 경쟁력을 갖춘 제품을 공급하고 HBM 선도 업체의 위치를 더욱 공고히 할 것”이라고 말했다.

주요 임원진 참석, HBM 및 차세대 메모리 인사이트 전해

박문필 부사장과 유승주 교수(서울대학교 컴퓨터공학부)는 ‘가속기 트렌드와 HBM 전망’을 주제로 각각 발표했다. “AI 추론 비용이 증가한다”는 유 교수의 전망에 박 부사장은 “성능·비용 최적화를 이유로 커스텀 HBM이 떠오른다”며 “고객·파운드리·메모리 간 3자 협업으로 대응하고 있다”고 강조했다.

이어서 주영표 부사장과 구건재 교수(고려대학교 컴퓨터학과)가 ‘미래 아키텍처와 신규 메모리 솔루션’에 관해 논의했다. 구 교수는 새로운 시스템 소프트웨어 구조의 필요성을 짚었고, 주 부사장은 이 요구에 발맞춘 SK하이닉스의 신규 메모리 솔루션으로 CXL®, PIM* 등을 소개했다.

* PIM(Processing-In-Memory): 메모리에 연산 기능을 더해 AI와 빅데이터 처리에서 데이터 이동 정체 문제를 해결하는 차세대 기술

‘초연결 시대의 디지털 신경망: AI와 Memory가 그리는 미래 산업 지형’을 주제로 대담도 열렸다. 이 자리에는 강욱성 부사장과 Paul Fahey 부사장이 참석했다. 두 임원은 “미래에는 로직 공정을 베이스 다이에 적용한 HBM, 온디바이스에서 큰 역할을 할 PIM, 메모리 공유 기능을 가진 CXL®의 역할이 증대될 것”이라며 “SK하이닉스는 파트너사와 긴밀히 협력해 차세대 AI 메모리 제품을 만들고 있다”고 설명했다.

이강욱 부사장은 업계 관계자들이 모인 세션에 패널로 참여해 ‘AI 반도체와 인프라의 진화’를 주제로 토의를 진행했다.

이외에도 이병규(DT) TL이 ‘E2E 자동화로 반복 업무 탈출, 고부가가치 업무로 전환하는 반도체 FAB 이야기’를 주제로 발표했고, 김문욱·장세남(DT) TL이 ‘지능형 이미지 분류 AI 시스템 적용을 통한 생산 품질 업무 경쟁력 강화’에 대해 공동발표를 진행했다.

권종오(PKG개발) 팀장, 황인태(P&T)·윤성현(기반기술센터) TL, 김정한(미래기술연구원) TL은 ▲16단 HBM 패키징 기술 ▲딥러닝을 활용한 HBM 생산 고도화 ▲AI를 활용한 반도체 연구 등을 주제로 기술 인사이트를 공유했다.

전재영(메모리시스템연구소) TL, 이경수(메모리시스템연구소) TL, 박상수(미래기술연구원) TL은 ▲이종 메모리의 가능성 ▲온디바이스 AI의 요구사항 ▲차세대 컴퓨테이셔널 메모리(Computational Memory)를 주제로 미래 메모리 기술을 검토했다.

AI 서비스 영역의 발표를 맡은 박은영(안전보건환경) 팀장은 ‘SK하이닉스의 현장 안전 로봇 가온(Ga-on) 도입 및 운영 사례’를 공개해 많은 관심을 모았다.

주요 발표와 연계한 AI 메모리 라인업도 선보여

AI로 깊이 빠져들다(Deep Dive into AI)를 테마로 구성된 SK 공동부스에서는 SK하이닉스의 AI 메모리 라인업을 모두 만나볼 수 있었다.

특히 SK하이닉스는 미래 메모리 솔루션으로 언급한 CMM(CXL® Memory Module)-DDR5와 AiMX도 선보였다. CMM-DDR5는 이론적으로 기존 시스템 대비 최대 50%의 대역폭, 최대 100%의 용량 확장을 지원한다. AiMX는 GDDR6-AiM*을 여러 개 탑재한 가속기 카드로, 저장과 연산 기능을 모두 수행해 AI의 품질을 높이는 제품이다.

회사는 고성능 컴퓨팅(HPC)과 AI 서버를 위한 초고속 메모리 모듈로, 초당 8.8Gb(기가비트) 속도의 DDR5 MCRDIMM* 또한 전시했다. 이외에 LPDDR5X* 여러 개를 모듈화한 LPCAMM2를 온디바이스 AI 분야에서 활약할 제품으로 소개했고, AI 및 데이터센터 최적화 제품으로 PS1010 E3.S 등의 eSSD도 선보였다.

부스에서는 AI 기반 시스템 및 솔루션도 살펴볼 수 있었다. 회사는 ‘AI 기반 소재 품질 사전 예측 시스템’과 SK하이닉스 제품으로 구성된 ‘오토모티브 솔루션’을 공개하며 많은 관람객의 이목을 끌었다.

* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, GDDR6-AiM이 이에 포함됨
* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성이 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품

이번 행사에서 곽노정 사장은 “당사는 AI 전 영역에 걸친 AI 메모리 솔루션을 보유하고, 여러분과 함께 새로운 미래 경험을 창조해 나갈 준비가 되어 있다”고 강조한 바 있다. 발표와 전시를 성황리에 마친 SK하이닉스는 SK 서밋을 통해 공개한 비전에 발맞춰 미래 시장 준비를 더욱 철저히 해나간다는 계획이다.

]]>
/sk-ai-summit-2024/feed/ 0
“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가 /skhynix-sedex-2024/ /skhynix-sedex-2024/#respond Wed, 23 Oct 2024 15:00:00 +0000 http://localhost:8080/skhynix-sedex-2024/ SK하이닉스가 23일부터 사흘간 서울 삼성동 코엑스에서 열리는 ‘2024 반도체대전(SEDEX)’에 참가해 인공지능(AI) 시대를 이끄는 메모리 기술력과 미래 비전을 선보였다.

올해로 26회를 맞은 SEDEX는 한국반도체산업협회가 주최하는 국내 최대 반도체 전문 전시회다. ‘AI 반도체와 최첨단 패키지 기술의 융합’이라는 기조 아래 개최된 이번 전시에는 반도체, 시스템 반도체, 장비·부품, 재료, 설비, 센서 등 반도체 생태계 전 분야의 250개 사(社)가 참석해 약 600개의 부스를 꾸렸다.

▲ SK하이닉스 전시관 전경, 관람객들이 SK하이닉스의 기술과 제품을 살펴보고 있다.

올해 SK하이닉스는 약 80평의 공간에 ‘MEMORY, THE HEART OF AI’라는 주제로 전시관을 조성, 글로벌 AI 메모리 시장을 선도하는 회사의 독보적인 기술력을 공개했다. 메인 전시 존에서는 ▲현재 시장에서 가장 각광받고 있는 초고성능 메모리 HBM*을 필두로 ▲차세대 메모리 기술로 주목받고 있는 CXL®*과 ▲차세대 지능형 메모리 PIM* ▲데이터 센터의 고성능 컴퓨팅을 구현할 서버용 솔루션과 ▲스마트 디바이스 자체에서 정보를 처리할 수 있는 온디바이스* 용 솔루션 등 AI 기술 혁신을 가속할 AI 향(向) 메모리 솔루션을 대거 선보였다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직관통전극(TSV, Through Silicon Via)으로 연결해 고대역폭을 구현한 메모리로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스
* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트 기기가 자체적으로 정보를 수집, 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

또한, 창립 41주년 기념 브랜드 필름과 미래 AI 비전의 허브가 될 ‘용인 반도체 클러스터’ 전시존 등을 통해 지난 40년을 디딤돌 삼아 AI 시대 글로벌 No.1 메모리 기업으로 도약하는 회사의 새로운 비전을 공유했다.

이와 함께, SK하이닉스의 자회사형 장애인 표준사업장 ‘행복모아’에서 진행하는 ‘행복만빵’ 전시존을 조성하여 회사의 사회적 가치 창출 활동을 소개했으며, 게임과 이벤트 등의 참여형 콘텐츠도 다채롭게 준비해 관람객들의 발길을 사로잡았다.

한편, 행사 둘째 날인 24일, 한국반도체산업협회 주관으로 진행된 키노트 스피치에서 ‘AI 시대의 반도체 패키징의 역할’이라는 주제로 SK하이닉스 이강욱 부사장이 연설을 펼쳤다.

뉴스룸은 SEDEX 2024 현장을 찾아 토탈 AI 메모리 프로바이더로서 SK하이닉스가 선보이는 기술 비전을 담아봤다.

HBM부터 서버용·온디바이스용 AI 솔루션까지, 글로벌 No.1 AI 메모리 기술 총망라

“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가_행사_2024_02

▲ HBM3E를 탑재한 가상 GPU가 가동되는 시뮬레이션

SK하이닉스는 전시관 중앙에 대형 LED를 설치해 가상의 AI 데이터센터를 구현했다. HBM3E를 탑재한 가상 GPU가 가동되는 시뮬레이션이 반복되며, 관람객들에게 마치 실제 데이터센터에 온 듯한 느낌을 선사했다.

LED 월 뒤편에는 SK하이닉스의 대표적인 AI 메모리 제품을 만날 수 있는 전시 공간이 마련됐다.

전시존의 중앙을 차지한 메인 제품은 AI 구동에 최적화된 현존 최고 성능의 D램 HBM이었다. 지난 9월 SK하이닉스가 세계 최초로 양산에 돌입한 HBM3E 12단[관련기사] 제품이 전시되었으며, 세계 최고의 기술력을 자랑하는 SK하이닉스의 HBM 개발사(史)가 소개됐다. 전시 중 가장 눈에 띈 것은 12단 적층 기술을 형상화한 조형물들이었다. 특히, 1970년 개발된 세계 최초의 D램과 2024년 12단 HBM3E의 용량을 쌀알의 수치로 비교해 관람객들의 흥미를 불러일으켰다.

HBM 전시존 왼쪽에는 HBM의 뒤를 이을 차세대 AI 메모리 기술로 각광받는 PIM과 CXL®을 위한 공간을 조성했다.

PIM 섹션에서는 SK하이닉스의 PIM 반도체인 AiM*과 가속기 카드인 AiMX를 소개했다. 메모리 내에서 연산 기능까지 수행할 수 있는 GDDR6-AiM과 이 칩 여러 개를 탑재해 구동하는 AiMX는 고성능, 저전력에 비용까지 절감할 수 있어 생성형 AI를 위한 최고의 솔루션으로 눈도장을 찍었다.

* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, GDDR6-AiM이 이에 포함됨

CXL®은 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스다. CXL® 섹션에서는 DDR5와 장착해 기존 시스템 대비 최대 50%의 대역폭, 최대 100%의 용량 확장 효과를 내는 CMM(CXL® Memory Module)-DDR5와 CXL 메모리에 머신러닝 및 데이터 필터링 연산 기능까지 통합한 CMM-Ax* 샘플 제품을 전시했다.

* CMM(CXL Memory Module)-Ax: 기존 CMS(Computational Memory Solution) 2.0의 명칭을 변경. CMM은 CXL Memory Module의 약자로 제품에 CXL 기반 솔루션의 정체성을 부각했고, Accelerator와 xPU의 의미를 가져와 ‘Ax’라는 이름을 붙임

HBM 전시존 오른쪽에는 서버용 AI 솔루션과 온디바이스용 AI 솔루션 제품들을 배치했다.

서버용 솔루션으로는 고성능 컴퓨팅 시장(HPC)에서 주목받고 있는 DDR5 RDIMM(1cnm), DDR5 MCRDIMM 등의 고성능 서버용 모듈과 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD(Enterprise SSD, 기업용 SSD) 라인을 전시했다. 이중 지난 9월 TSMC OIP에서 최초로 실물을 공개한 ‘DDR5 RDIMM(1cnm)’[관련기사]은 이전 세대 대비 11% 빨라진 속도와 9% 이상 개선된 전력 효율로 데이터센터 적용 시 비용을 최대 30%까지 절감할 수 있을 것으로 기대를 모으는 제품이다.

온디바이스용 AI 솔루션 섹션에서는 LPDDR5X* 패키지를 하나로 묶은 LPCAMM2와 차세대 모바일 낸드 솔루션 ZUFS*(Zoned UFS) 4.0 실물 제품을 만날 수 있었다. LPCAMM2는 기존 D램 모듈(SODIMM*) 2개를 LPCAMM2 1개로 대체하는 수준의 성능 효과를 보이며, 공간 절약뿐만 아니라 저전력과 고성능 특성을 구현하며, 향후 다양한 온디바이스 AI 시장의 니즈를 충족하는 제품으로 주목받고 있다. 또한, 업계 최고 성능의 ZUFS 4.0[관련기사]은 장시간 사용 환경에서 스마트폰 앱 실행 시간을 기존 제품 대비 약 45% 높인 제품으로, 모바일 기기에서 온디바이스 AI를 구현하는 데 최적화된 메모리라는 평가다.

* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성이 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* ZUFS: Zoned Universal Flash Storage. 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품. 이 제품은 유사한 특성의 데이터를 동일한 구역(Zone)에 저장하고 관리해 운용 시스템과 저장장치 간의 데이터 전송을 최적화함
* SODIMM(Small Outline DIMM): 데스크탑 및 노트북 등 PC에서 사용되는 메모리 모듈을 통칭하는 개념

AI 시대를 끌어갈 미래 비전, 관람객들과 적극 공유

SK하이닉스는 메인 전시존 외에 용인 반도체 클러스터와 산업용 AI 스타트업 가우스랩스를 소개하는 스페셜 전시존을 함께 선보였다.

용인 반도체 클러스터는 현재 경기도 용인 원삼면 일대에 인프라 구축 작업이 한창이다. 이번 전시에서는 AI 메모리 생태계의 허브이자 SK하이닉스의 중장기 성장 비전의 중심으로 자리매김할 용인 반도체 클러스터의 목표와 비전을 공유하여 관람객들에게 깊은 인상을 남겼다.

또한, 일반 고객들을 위한 B2C 제품인 ‘브랜드 SSD’ 전시존을 별도로 조성하여 보다 적극적인 제품 홍보에도 나섰다. 브랜드 SSD 전시존에는 영화보다 영화같은 광고로 화제가 된[관련기사] 포터블(Portable, 외장형) SSD ‘비틀(Beetle) X31’의 미주 광고 영상을 상영했으며, 비틀 X31을 비롯해 PCIe SSD P41, P51과 스틱 타입의 SSD인 Tube T31 제품 전시를 함께 진행했다.

“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가_행사_2024_21

▲ 행복만빵 전시존에서 관람객들을 위해 준비한 빵

회사의 대표적인 사회적 가치(SV) 창출 활동인 ‘행복만빵’ 사업을 소개하는 부스도 눈길을 끌었다. 행복만빵은 SK하이닉스의 장애인 표준사업장 자회사인 ‘행복모아’의 제빵 브랜드로 현재 약 190명의 발달장애인이 빵을 만드는 다양한 공정에서 맞춤형 직무를 수행하고 있다. 특히, 부스 방문 시 행복만빵에서 생산한 빵과 쿠키를 맛볼 수 있는 이벤트를 진행하여 많은 관람객들의 방문 릴레이가 이어졌다.

이 외에도 회사는 전시관 곳곳에서 다양한 이벤트와 게임을 진행하며 관람객들과 적극적으로 소통했다. 브랜드 SSD 전시존 입구에서는 ‘X31 BEETLE을 찾아라’ 게임 이벤트를 상시 진행하며, 제품 홍보와 고객 참여 두 마리 토끼를 한 번에 잡았다. 또한, SK하이닉스의 메모리 기술을 소재로 제작한 점프 게임, 핀볼 게임, 레이어 게임으로 별도의 게임 존을 조성했으며, 푸짐한 경품을 곁들인 장학 퀴즈와 뽑기 이벤트 등의 참여형 콘텐츠도 풍성하게 준비하여 관람객들의 호응을 높였다.

SK하이닉스는 “AI 시대에 SK하이닉스 메모리 반도체가 지니는 의미와 중요성을 강조하기 위해 이번 SEDEX 2024 전시를 기획했다”고 밝히며 “토탈 AI 메모리 프로바이더로서 SK하이닉스가 선보이는 다양한 제품과 뛰어난 기술력을 한자리에서 만나볼 수 있는 자리가 될 것”이라고 강조했다.

]]>
/skhynix-sedex-2024/feed/ 0
‘OCP 글로벌 서밋 2024’에서 만난 SK하이닉스의 차세대 AI 메모리 솔루션 /2024-ocp-global-summit/ /2024-ocp-global-summit/#respond Wed, 16 Oct 2024 21:00:00 +0000 http://localhost:8080/2024-ocp-global-summit/ OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_01_행사_사진_2024_RE

SK하이닉스가 지난 15일부터 미국 캘리포니아주 새너제이(San Jose)에서 개막한 ‘OCP 글로벌 서밋(OCP Global Summit 2024, 이하 OCP 서밋)’에 참가해 미래 반도체 시장 리더십을 이어갈 AI 메모리 반도체 기술과 제품을 선보였다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_02_행사_사진_2024

▲ OCP 서밋에 설치된 SK하이닉스 부스 모습

OCP 서밋은 전 세계 최대 규모의 개방형 데이터센터 기술 협력 협회인 OCP(Open Compute Project)가 주최하는 글로벌 행사로 미래 데이터센터 환경을 구현하기 위한 AI 기술 중심의 반도체 최신 기술과 연구 성과, 기술력 등을 공유하는 자리다. 올해의 주제는 ‘From Ideas To Impact(비전을 현실로 전환하다)’로, 이론적 논의를 넘어 구체적인 솔루션으로 구현하는 업계의 혁신 기술과 노력을 다뤘다.

AI 시대를 선도하는 토탈 AI 메모리 솔루션 제시

SK하이닉스는 2016년 첫 OCP 서밋 참여를 시작으로 매년 혁신 기술과 비전을 제시해 왔다. 특히 올해는 최고 등급인 다이아몬드 회원으로 참여해 ‘MEMORY, THE POWER OF AI’라는 슬로건으로 전시를 열어 SK하이닉스의 선도적인 기술력을 확인할 수 있는 다양한 AI 메모리 제품을 선보였다.

회사는 ▲HBM 5세대 최신 제품이자 현존 최고 성능을 구현하는 HBM3E*를 비롯해 ▲CXL* 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲10나노급 6세대(1c) 공정* 기반의 DDR5 RDIMM ▲고용량 저장장치 eSSD* 등 다양한 AI 메모리를 전시하며 눈길을 끌었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전. 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB였음
* CXL(Compute eXpress Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 PCle 기반 차세대 인터페이스. 기존 D램 제품과 함께 서버 시스템의 메모리 대역폭을 늘려 성능을 향상하고, 쉽게 메모리 용량을 확대할 수 있는 차세대 메모리 솔루션
* 10나노급 D램 공정 기술은 1x-1y-1z-1a-1b 순으로 개발돼 1c는 6세대
* eSSD(Enterprise Solid State Drive): 기업용 SSD, 주로 서버나 데이터센터에 탑재됨

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_07_행사_사진_2024

▲ SK하이닉스가 OCP 서밋에서 전시한 HBM3E와 엔비디아의 H200/GB200

이중 HBM3E 12단은 SK하이닉스가 지난 9월 세계 최초로 양산하기 시작한 현존 최고 성능과 용량을 갖춘 제품[관련기사]으로 엔비디아(NVIDIA)의 신형 ‘H200 텐서 코어 GPU(Tensor Core GPU)’ 및 ‘GB200 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)’과 함께 전시됐다. HBM3E 12단은 D램 칩을 기존보다 40% 얇게 만들어 기존 8단 제품과 동일한 두께로 12단 적층에 성공해 최대 36GB 용량을 구현했으며 데이터 처리 속도는 9.6Gbps로 높였다. 또 SK하이닉스의 핵심 기술인 어드밴스드 MR-MUF*공정을 적용해 발열 성능을 10% 향상시키며 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준이라는 평가를 받고 있다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

또한 SK하이닉스는 CXL 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲CMM-Ax* ▲CMM-DDR5/HMSDK* ▲나이아가라(Niagara) 2.0과 함께 ▲CSD*를 선보였다.

CMM-Ax는 기존 CMS* 2.0의 명칭을 변경한 것으로 이번 전시에서 새로운 이름과 함께 소개됐다. CMM-Ax는 고용량 메모리를 확장할 수 있는 CXL의 장점에 머신러닝과 데이터 필터링 연산 기능을 함께 제공하며 차세대 서버 플랫폼에 탑재되어 시스템의 성능과 에너지 효율 향상에 기여할 수 있다. 회사는 CMM-Ax를 탑재한 서버를 통해 멀티모달* 라이브 데모를 선보이며 차세대 연산 메모리 성능을 입증했다.

이에 더해, CMM-DDR5와 이를 지원하는 소프트웨어인 HMSDK, 나이아가라(Niagara) 2.0 제품을 시연하는 자리도 마련했다. HMSDK는 CMM-DDR5가 장착된 시스템의 대역폭과 용량을 확장해 주는 솔루션으로 D램 모듈과 CMM-DDR5 간의 효율적인 교차 배열을 통해 대역폭을 넓히고, 데이터 사용 빈도에 따라 적합한 메모리 장치로 데이터를 재배치해 시스템 성능을 개선해 준다[관련기사].

나이아가라(Niagara)는 CXL 풀드 메모리(Pooled Memory)를 위한 하드웨어∙소프트웨어 통합 솔루션으로, 대용량의 메모리 풀을 여러 호스트(CPU, GPU 등)가 최적의 상태로 나눠 쓰도록 해 유휴 메모리를 최소화함으로써 전체 시스템의 비용을 줄일 수 있는 것이 특징이다. 또한 데이터 사용 빈도와 접근 패턴에 따라 데이터를 재배치해 시스템의 성능을 대폭 개선할 수 있다[관련기사].

* CMM(CXL Memory Module)-Ax: CMM은 CXL Memory Module의 약자로 제품에 CXL 기반 솔루션의 정체성을 부각했고, Accelerator와 xPU의 의미를 가져와 ‘Ax’라는 이름을 붙임
* HMSDK(Heterogeneous Memory S/W Development Kit): SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구. 효과적인 메모리 제어로 CXL 메모리를 포함한 이종 메모리 시스템의 성능을 향상시킴
* CSD(Computational Storage Drive): 데이터를 직접 연산하는 저장장치
* CMS(Computational Memory Solution): 고용량 메모리를 확장할 수 있는 CXL 메모리에 빅데이터 분석이나 AI와 같은 대용량 데이터가 필요한 응용 프로그램에서 주로 사용되는 연산 기능이 포함된 메모리 솔루션
* 멀티모달(Multi Modal): 텍스트, 사진 음성, 동영상 등 여러 복합 정보를 이해할 수 있는 AI 서비스/p>

데이터센터의 대규모 언어 모델(Large Language Model, 이하 LLM) 서비스는 여러 사용자의 요청 사항을 동시에 처리하는 방식으로 GPU 효율을 개선하고 있으나, 생성 토큰 길이가 증가함에 따라 GPU 효율이 낮은 어텐션 레이어*의 연산량이 커지는 문제가 있다. 이에 회사는 GDDR6-AiM* 기반 가속기 카드인 AiMX*로 최신 모델인 Llama3 70B*의 어텐션 레이어를 가속하는 라이브 데모를 시연했다. AiMX를 탑재해 대량의 데이터를 다루면서도 최신 가속기 대비 고성능, 저전력 등 뛰어난 성능을 보여줄 수 있다는 것을 확인시켰다[관련기사].

* 어텐션 레이어(Attention Layer): 딥러닝 모델, 특히 자연어 처리 분야에서 입력 데이터의 각 부분에 가중치를 부여하여 관련 정보에 더 집중하게 하는 메커니즘
* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, PIM은 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품
* Llama3(Large Language Model Meta AI): 메타의 최신 LLM 모델로 700억 개의 매개변수를 가짐

이와 함께 슈퍼마이크로(Supermicro)와의 협업으로 고성능 컴퓨팅 시장에서 주목받는 ▲DDR5 RDIMM ▲MCRDIMM*과 ▲E3.S eSSD PS1010* ▲M.2 2280 eSSD PE9010을 함께 전시했다. 이 제품들은 데이터센터 전력 소비량이 늘어나는 가운데, 이전 세대 대비 속도와 전력 효율을 크게 향상시켜 AI용 서버 시장에 핵심 솔루션이 될 것으로 기대를 모은다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

* PS1010: 초고성능-고용량 데이터센터/서버향 SSD로 PCIe 5세대 E3.S & U.2/3(폼팩터 규격) 기반 제품

이 밖에도 SK하이닉스는 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD 제품군을 선보이며 현장의 큰 관심을 받았다. 이중 PS1010과 PS1030은 업계 최고의 성능의 5세대 PCle* 기반 eSSD 제품으로 이전 세대 대비 전송 속도가 빠르고 전력 소모가 적은 고효율 AI 메모리다. 대량의 데이터를 처리하는 인공지능과 데이터센터 등에 최적화된 제품으로 생성형 AI 시대 핵심 반도체로 떠오르고 있다.

* PCle(Peripheral Component Interconnect Express): 직렬 구조의 고속 입출력 인터페이스로 디지털 장치의 메인보드에서 사용

세션 발표를 통해 글로벌 No.1 AI 메모리 프로바이더 입증

SK하이닉스는 이번 OCP 서밋에서 총 일곱 번의 세션 발표와 패널 참여를 통해 회사의 AI 메모리 기술력과 비전을 공유했다. 특히, AI 시대의 개화와 함께 주목받고 있는 HBM과 CXL을 중심으로 이야기를 풀어내며 혁신의 경계를 넓히기 위해 반도체 업계의 협력을 제안했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_20_행사_사진_2024

▲ 회사의 CXL 기반 메모리 솔루션을 발표 중인 주영표 부사장(Software Solution 담당)

먼저, ‘Pioneering the AI Enlightenment : Future Memory Solution R&D in SK Hynix(AI 시대를 여는 선구자 : SK하이닉스의 미래 메모리 솔루션 R&D)’를 주제로 발표한 주영표 부사장(Software Solution 담당)은 CMM-DDR5를 비롯한 CXL 기반 메모리 솔루션을 소개하며 AI 메모리 경쟁력을 강화하는 SK하이닉스의 강력한 의지를 보여줬다.

최정민 TL(Composable System)은 ‘CXL 메모리 풀링* 및 공유 기능, 데이터 사용 빈도와 패턴 분석을 통한 핫-콜드 데이터* 검출 및 이에 따른 시스템 이점과 다양한 활용 사례’를 다뤘고, 김홍규 TL(System SW)은 회사가 자체 개발한 CXL 최적화 소프트웨어인 HMSDK를 소개했다.

* 메모리 풀링(Memory Pooling): 대용량 메모리 풀(Pool)을 만들고 다수의 서버가 메모리 풀에서 필요한 만큼 메모리를 할당받아 사용할 수 있는 기술
* 핫-콜드 데이터(Hot-Cold Data): ‘Hot Data’는 매우 빈번하게 액세스, 업데이트되는 데이터를 가리키며, ‘Cold Data’는 자주 또는 전혀 액세스하지 않는 비활성 데이터를 의미

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_22_행사_사진_2024

▲ HBM4 도입과 업계에 주는 시사점에 대해 발표하고 있는 김연수 TL(DRAM TP)

이어서 김연수 TL(DRAM TP)은 ‘The Next Chapter of HBM(다가올 HBM의 미래)’을 주제로 HBM 시장의 성장 배경과 최신 HBM3E 제품을 소개하고, 지속적으로 늘어나는 커스텀(Custom) 제품 요구에 적기 대응하기 위한 전략을 발표했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_23_행사_사진_2024

▲ 회사의 AiM 제품 강점을 설명 중인 임의철 부사장(Solution AT 담당)

생활 전반에 걸쳐 혁신적인 변화를 예고하는 생성형 AI를 위한 솔루션을 주제로 한 발표도 이어졌다. 임의철 부사장(Solution AT 담당)은 데이터센터부터 엣지 디바이스까지 LLM 서비스의 핵심 솔루션이 된 AiM 기술을 강조하며, 회사의 AiM 제품 소개와 미래 비전을 공유했다.

김종률 팀장(AI System Infra)과 Kevin Tang TL(AI System Infra)은 LLM 학습 시스템 장애로 인한 자원 및 비용 낭비를 줄이기 위한 기술인 체크포인팅*을 효과적으로 지원할 수 있는 차세대 SSD에 대한 연구 결과를 발표했다.

* 체크포인팅(Checkpointing): 학습 과정 중 특정 시점의 모델 파라미터와 관련 주요 데이터를 저장하여 시스템 장애 발생 시 저장된 특정 시점에서 학습을 재시작할 수 있도록 지원하는 기술

▲ 메모리 인접 연산 기술의 비전에 대해 발표하고 있는 김호식 부사장(SOLAB 담당)

김호식 부사장(SOLAB 담당)은 ‘Opportunities, Challenges, and Road Ahead in Data Centric Computing(데이터 센트릭 컴퓨팅의 기회, 도전과 방향성)’을 주제로 한 패널 세션에 참가했다. 이 자리에서 메모리와 프로세서 간의 데이터 병목 현상을 해결하기 위한 메모리 인접 연산* 기술의 비전에 관해 설명했다. 또, 이를 실제 시스템에 적용하기 위해 해결해야 하는 HW와 SW 레벨의 다양한 이슈와 방법에 대해 토론을 진행했다.

* 메모리 인접 연산(Near Memory Processing): 폰노이만 아키텍처의 한계인 메모리와 프로세서 간의 병목 이슈를 해결하기 위한 목적으로, 메모리 내부에서 특정 연산을 처리함으로써 프로세서의 이용 효율을 높이고 메모리와 프로세서 간의 데이터 이동량을 줄여 시스템 성능 및 TCO 개선을 가능하게 하는 차세대 메모리 솔루션 기술

기술 파트너들과 공동으로 발표한 김명서 TL(AI Open Innovation)은 우버(Uber) 데이터센터의 쿠버네티스 클라우드* 환경에서의 문제점을 해결하기 위해 회사의 CXL 풀드 메모리 프로토타입과 잭래빗 랩스(Jackrabbit Labs)의 오픈소스 소프트웨어인 클라우드 오케스트레이션*을 활용한 성과를 소개했다. 이는 쿠버네티스 클라우드 환경에서 발생하는 스트랜디드 메모리* 이슈를 해결할 수 있도록 개발됐다. 앞으로도 다양한 빅테크 기술 파트너들과 협력해 생태계를 구축하고, 미래 시장에서의 기술 리더십을 강화할 것이라고 전했다.

* 쿠버네티스 클라우드(Kubernetes Cloud): 독립된 환경 및 애플리케이션을 하나로 통합하여 실행할 수 있도록 컨테이너화된 애플리케이션을 실행하기 위한 일련의 노드 머신
* 오케스트레이션(Orchestration): 컴퓨터 시스템과 서비스, 애플리케이션 설정을 자동화하여 컴퓨팅 자원을 관리하고 조정하는 것으로 여러 개의 작업을 함께 연결하여 크기가 큰 워크플로우나 프로세스를 실행하는 방식을 취함
* 스트랜디드 메모리(Stranded Memory): 메모리가 사용되지 않고 남는 이슈

SK하이닉스는 “이번 OCP 서밋을 통해 AI 중심으로 급격히 변하는 시장 환경에서 ‘글로벌 No.1 AI 메모리 프로바이더(Global No.1 AI Memory Provider)’로 성장하는 SK하이닉스의 혁신 기술을 선보일 수 있었다”라며 “앞으로도 장기적인 관점에서 기술력을 확보하고 고객 및 다양한 파트너사와의 협업을 통해 AI 시장의 핵심 플레이어가 될 것”이라고 전했다.

]]>
/2024-ocp-global-summit/feed/ 0
[SK하이닉스 41주년] “빛나는 40+1” 40년 기술력 다져 No.1으로 우뚝 서다 /skhynix-41st-anniversary/ /skhynix-41st-anniversary/#respond Wed, 09 Oct 2024 15:00:00 +0000 http://localhost:8080/skhynix-41st-anniversary/ 지난 1983년 반도체 사업을 시작한 SK하이닉스는 40년간의 끊임없는 노력과 혁신을 통해 글로벌 No.1 AI 메모리 컴퍼니(Global No.1 AI Memory Company)로 도약했다. 기술력으로 일군 40년을 갈무리하고 새로운 1년을 달린 올해, 회사는 1등 리더십을 공고히 하며 ‘40+1 르네상스 원년’을 만들어 가고 있다. 그리고 그 배경에는 HBM, PIM, CXL 등 첨단 공정과 패키징 기술이 집약된 AI 메모리가 자리 잡고 있다. SK하이닉스 창립 41주년을 맞아, 이들 혁신 제품에 담긴 역사와 기술력, 구성원들의 노력을 되짚어본다.

SK하이닉스 41주년 AI 메모리 히스토리

HBM, AI의 등장과 HBM으로 우뚝 선 SK하이닉스의 위상

SK하이닉스가 글로벌 AI 메모리 시장에서 No.1으로 자리 잡은 배경에는 ‘인공지능(AI) 산업의 성장’이 큰 역할을 했다. 2022년 생성형 AI의 등장 이후 다양한 제품과 서비스가 AI 중심으로 재편됐고, AI 기술은 빠르게 발전했다. 이에 따라 대용량 데이터를 처리하고 빠른 학습과 추론을 지원하는 고성능 메모리의 필요성도 크게 증가했다. SK하이닉스는 이 같은 시장 변화에 발맞춰 고성능 메모리 솔루션을 제공하며 AI 산업 발전에 핵심적인 역할을 수행했다.

AI 시대를 가속화한 SK하이닉스 HBM의 역사

SK하이닉스는 AI 흐름이 본격화하기 전부터 고대역폭으로 대용량 데이터를 빠르게 전달하는 ‘HBM(High Bandwidth Memory)’ 개발에 집중하며 내실을 다졌다. 특히 HBM2E를 통해 시장 주도권을 잡고 영향력을 확장했으며, AI 및 고성능 컴퓨팅(HPC)에 최적화된 HBM3로 큰 주목을 받았다. 무엇보다 회사는 이 메모리를 엔비디아에 공급하며 AI 및 데이터센터 시장의 핵심 파트너로 자리매김했다. 이 무렵 SK하이닉스는 HBM 시장 점유율 50%*를 달성하며, HBM 강자로서 위상을 확립했다.

AI 메모리 시장에서 SK하이닉스의 위상은 2024년에도 이어졌다. 회사는 2023년 최고 성능의 ‘HBM3E(5세대)’를 개발했으며, 올해부터 글로벌 탑 IT 기업에 제품 공급을 시작했다. 초당 1.2TB(테라바이트)의 데이터를 처리하는 이 제품으로 SK하이닉스는 글로벌 No.1로서의 입지를 더욱 확고히 다졌다.

*

15년 갈고 닦은 HBM 기술력과 Next HBM

SK하이닉스의 ‘HBM 성공신화’는 2009년으로 거슬러 올라간다. 당시 회사는 TSV*와 WLP* 기술이 메모리 성능의 한계를 극복해 줄 것으로 판단하고 본격적인 개발에 착수했다. 그로부터 4년 후, 이 기술을 기반으로 한 고대역폭 메모리, 1세대 HBM을 출시했다. 이 제품은 혁신적인 메모리로 주목받았지만, 시장의 폭발적인 반응을 얻지는 못했다. HBM이 널리 쓰일 만큼 고성능 컴퓨팅 시장이 무르익지 않았기 때문이다.

* TSV(Through Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 상하층 칩의 구멍을 수직 관통하는 전극으로 연결하는 기술
* WLP(Wafer Level Packaging): 웨이퍼를 칩 단위로 잘라 칩을 패키징하는 기존의 컨벤셔널 패키지(Conventional Package)에서 한 단계 발전한 방식으로, 웨이퍼 상(Wafer Level)에서 패키징(Packaging)을 마무리해 완제품을 만드는 기술

15년을 갈고 닦은 HBM Technology

그럼에도 SK하이닉스는 멈추지 않고 후속 개발에 매진했다. 목표는 ‘최고 성능’이었다. 이 과정에서 회사는 열 방출과 생산성이 높은 MR-MUF(Mass Reflow Molded UnderFill) 기술을 HBM2E에 적용해 시장 판도를 바꿨다. 이후 얇은 칩 적층, 열 방출, 생산성이 모두 탁월한 어드밴스드(Advanced) MR-MUF 기술을 개발해 HBM3와 HBM3E에 적용했다. 이 기술을 바탕으로 2023년에는 HBM3 12단(24GB)을, 2024년에는 HBM3E 12단(36GB) 양산까지 성공하며 ‘업계 최고 성능’이란 신기록을 잇달아 달성했다[관련기사].

이 같은 성과의 배경에는 AI 붐이라는 시대 흐름을 절묘하게 포착한 전략이 있었다. SK하이닉스는 AI 메모리를 적기에 출시하며 시장 요구를 완벽히 충족했다. 이는 단순한 우연이 아니었다. 15년 간의 연구·개발을 통해 축적한 기술력과 이에 대한 전 구성원의 믿음, 그리고 미래를 내다 전략적 투자가 있었기에 가능한 결과였다.

올해도 SK하이닉스는 AI 리더십을 공고히 하기 위한 전략적 행보를 이어갔다. 4월에는 미국 인디애나주(州)에서 어드밴스드 패키징 생산기지 건설을 위한 투자 협약을 체결했다. 차세대 HBM을 비롯한 AI 메모리가 이곳에서 집중 생산될 계획이다. 같은 달, TSMC와의 기술 협약 또한 체결했다. 이로써 회사는 고객·파운드리·메모리 간 3자 협업 체계를 구축, 메모리 성능의 한계를 넘어서고 AI 시장에서 우위를 가져간다는 계획이다.

With HBM, 끊임없는 혁신과 AI 메모리 라인업 강화

SK하이닉스의 도전과 혁신은 메모리 전 영역에서 이뤄지고 있다. 회사는 ‘메모리 센트릭*’을 비전으로 삼고, 40년간 축적해 온 기술력을 바탕으로 다양한 AI 메모리를 개발하는 중이다. 특히 올해는 PIM, CXL, AI SSD 등으로 라인업을 더욱 강화하며 르네상스의 원년을 만들어가고 있다.

* 메모리 센트릭(Memory Centric): 메모리 반도체가 ICT 기기에서 중심적인 역할을 하는 환경

AI 메모리 라인업 강화 With HBM

PIM(Processing-in-Memory)은 SK하이닉스가 주목하는 지능형 메모리 반도체로, 저장과 연산의 경계를 허문 혁신 제품이다. 연산용 프로세서를 집적한 이 메모리는 AI 연산에 필요한 데이터를 생성하고 전달하는 역할을 한다. SK하이닉스는 자사 PIM 제품인 ‘GDDR6-AiM(Accelerator-in-Memory)’을 이미 출시한 바 있고, 이 제품 여러 개를 연결해 성능을 높인 가속기 카드 ‘AiMX(AiM based Accelerator)’도 지난해 선보였다[관련기사]. 올해는 용량을 2배 늘린 AiMX 32GB 제품을 공개하며 업계의 주목을 받았다[관련기사].

또한, SK하이닉스는 CXL(Compute eXpress Link)에도 적극 투자하고 있다. CXL은 CPU, 메모리 등 장치별로 다른 인터페이스를 통합하는 기술이다. 이를 활용하면 메모리 대역폭과 용량을 쉽게 확장할 수 있다. 회사는 올해 5월 DDR5 대비 50% 넓은 대역폭, 100% 늘어난 용량을 제공하는 ‘CMM(CXL Memory Module)-DDR5’를 선보였다[관련기사]. 9월에는 CXL 최적화 소프트웨어인 ‘HMSDK*’의 주요 기능을 오픈소스 운영체제 리눅스(Linux)에 탑재, CXL 기술 활용의 표준(Standard)을 정립했다[관련기사].

* HMSDK(Heterogeneous Memory S/W Development Kit): SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구. 효과적인 메모리 제어로 CXL 메모리를 포함한 이종 메모리 시스템의 성능을 향상시켜줌

SK하이닉스는 AI 서버 및 데이터 센터용 초고속·고용량 eSSD를 개발하는 데도 힘쓰고 있다. 대표적인 예로, 솔리다임과 합작해 개발한 ‘60TB QLC(Quad Level Cell) eSSD’를 들 수 있다. 이 제품은 셀당 4bit(비트)를 저장하면서 전력 소모가 적은 것이 특징이다. 이 외에도 2025년 출시를 목표로, 무려 300TB 용량의 eSSD 개발을 계획하고 있다.

온디바이스 AI에 대응하기 위한 라인업도 탄탄하다. SK하이닉스는 AI 스마트폰의 성능을 높여줄 저전력 D램 ‘LPDDR5X’를 2022년 11월 출시했고[관련기사], 이 제품의 업그레이드 버전인 ‘LPDDR5T’를 2023년 1월 출시했다[관련기사]. 같은 해 11월에는 LPDDR5X를 모듈화한 제품 ‘LPCAMM2’를 공개했다[관련기사]. LPCAMM2는 AI 데스크톱 및 노트북에서 탁월한 성능을 낼 것으로 기대된다. 올해는 AI PC용 고성능 cSSD인 ‘PCB01’[관련기사], AI용 모바일 낸드 솔루션 ‘ZUFS(Zoned UFS) 4.0’ 또한 개발을 마쳤다[관련기사].

Total AI Memory, SK하이닉스가 그려나갈 미래 ‘The Heart of AI’

2024년 현재 우리는 AI로 보고서를 작성하고, 이미지를 디자인하며, 다양한 창작물까지 만들고 있다. 의료업에선 AI의 조언을 받아 진단을 내리고, 교육업에선 AI가 보조교사 역할을 하고 있다. 앞선 사례는 더는 특별한 것이 아니며, AI 기술 발전에 따라 더 무궁무진한 미래가 펼쳐질 것으로 예상된다.

SK하이닉스가 그려나갈 미래 TOTAL AI MEMORY

그리고 이 중심에 AI 메모리가 있다. HBM, PIM, CXL, SSD 등 다양한 AI 메모리는 더 넓은 대역폭으로 대용량 데이터를 빠르게 전달하거나 직접 연산한 결괏값만 프로세서로 전달, 병목 현상을 최소화해 AI 학습 및 추론 성능을 높인다. 나아가 AI 시스템의 에너지 효율까지 개선해 친환경적 AI 인프라를 구축하는 데도 기여한다. 이러한 AI 메모리 발전은 자율주행, 헬스케어 등 더욱 다양한 산업에 적용되어 더 빠르고 효율적인 AI 서비스를 제공할 것으로 전망된다.

이러한 미래를 현실화하기 위해 SK하이닉스는 기술적 한계를 끊임없이 극복해 나가고 있다. 다변화한 AI 서비스에 발맞춰 각 고객에 최적화된 맞춤형(Custom) AI 메모리를 개발하는 데 집중하고 있고, 혁신 소자 기반의 차세대 이머징 메모리* 또한 개발 중이다. 이렇듯 기술 개발에 끊임없이 투자 중인 SK하이닉스는 보다 앞선 기술로 차별화된 경쟁력을 확보, 미래 시장에서의 우위도 확보하겠다는 목표다.

* 이머징 메모리(Emerging Memory): 기존 D램이나 낸드와 같은 전통적인 메모리 기술과 비교해 새로운 형태나 원리를 기반으로 하는 메모리 기술을 의미. ReRAM*, MRAM*, PCM* 등이 대표적인 기술
* ReRAM(Resistive RAM): 소자 안에 필라멘트가 있는 간단한 구조로, 여기에 전압을 가하는 방식으로 데이터를 저장하는 메모리 반도체. 공정 미세화에 따라 정보 저장량이 늘어나며, 전력 소모가 적다는 특징이 있음
* MRAM(Magnetic Random Access Memory): 전하와 스핀을 동시에 이용해 스핀의 방향에 따라 소자의 저항이 변화하는 방식으로 구현된 메모리 반도체
* PCM(Phase-Change Memory): 특정 물질의 상(Phase)변화를 이용해 데이터를 저장하는 메모리 반도체(상변화 메모리). 전원을 꺼도 정보가 지워지지 않는 플래시 메모리(Flash Memory)의 장점과 처리 속도가 빠른 D램의 장점을 모두 갖고 있음

세계반도체무역통계기구(WSTS)는 올해 반도체 시장이 지난해 대비 16% 확대될 것으로 내다봤다. 특히 메모리 반도체의 경우 무려 76.8%의 성장*을 전망했다. HBM 등 AI 메모리의 폭발적 수요 증가가 성장 요인이라는 분석이 나온다.

이처럼 AI라는 거대한 흐름의 선두에 선 SK하이닉스는 지난 역사를 바탕으로 또 한 번의 도약을 준비하고 있다. 41주년을 맞은 회사는 HBM 1등 리더십을 지키는 가운데, 차세대 반도체 시장에서도 주도권을 확보, 모든 제품이 AI의 핵심 동력으로 작동하는 ‘The Heart of AI’ 시대를 선도해 나가고자 한다.

*
]]>
/skhynix-41st-anniversary/feed/ 0
SK하이닉스, ‘DTF 2024’ 참가… AI 시대 선도하는 첨단 메모리 솔루션 선보여 /dtf-2024/ /dtf-2024/#respond Wed, 28 Aug 2024 16:00:00 +0000 http://localhost:8080/dtf-2024/

SK하이닉스가 28일 코엑스 컨벤션 센터에서 개최된 ‘델 테크놀로지스 포럼 2024(Dell Technologies Forum 2024, 이하 DTF)’에 참가해 AI 시대를 주도할 차세대 메모리 솔루션을 선보였다.

DTF는 미국 전자 기업 델 테크놀로지스(Dell Technologies)가 주최하는 연례 기술 포럼으로, IT 업계 리더와 관계자들이 참가하여 새로운 정보 기술(IT) 솔루션을 선보이고 최신 기술 동향을 탐구하는 자리다. 올해 행사는 ‘인공지능(AI)을 통한 혁신의 가속화’를 주제로, 브레이크아웃(Breakout) 세션과 다양한 전시 부스 등이 마련됐다.

이번 행사에서 SK하이닉스는 ‘MEMORY, THE POWER OF AI’라는 슬로건 아래 3개 파트(▲Server & Datacenter ▲PC & Mobile ▲New Tech)로 부스를 구성하고 다양한 AI 메모리(Memory) 제품들을 선보였다.

▲ DTF 2024에 전시된 SK하이닉스의 CCM-DDR5, HBM3E, LPCAMM2 등 제품들

New Tech 부스에서는 차세대를 이끌 메모리 솔루션으로 떠오르고 있는 ▲HBM*3E ▲CMM(CXL® MEMORY MODULE)-DDR5 ▲LPCAMM2를 시연하며 관람객의 이목을 끌었다. HBM3E는 초당 최대 1.2TB(테라바이트)의 데이터를 처리하는 현존 최고 성능의 D램(DRAM)으로, 현재 AI 시장에서 주목받는 제품 중 하나다. 가장 최신 버전인 HBM3E 12단 제품은 3분기에 양산을 시작해 4분기부터 고객에게 공급을 시작할 계획이다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직관통전극(TSV, Through Silicon Via)으로 연결해 고대역폭을 구현한 메모리로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전

CMM-DDR5는 DDR5 D램에 CXL*® 메모리 컨트롤러를 더한 제품으로, DDR5 D램만 장착한 시스템에 CMM-DDR5를 추가로 장착하여 기존 시스템보다 대역폭은 최대 50% 향상되고, 용량은 최대 100%까지 확장할 수 있다. CXL®은 HBM과 함께 차세대 메모리로 불리며 고성능∙고용량을 필요로 하는 AI 시대의 중추적인 솔루션으로 기대를 받고 있다.

* CXL(Compute Express Link) : 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

LPCAMM2는 여러 개의 LPDDR5X* 패키지를 하나로 묶은 모듈로, 기존 SODIMM* 2개를 LPCAMM2 1개로 대체하는 성능 효과를 가지면서 공간 절약뿐만 아니라 저전력과 고성능 특성을 구현한 것이 특징이다. 전력 소모량을 줄이면서 높은 데이터 처리 능력이 핵심인 온디바이스 AI* 시장의 니즈를 충족하는 제품으로 주목을 받고 있다.

* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* SODIMM(Small Outline DIMM): PC에서 사용되는 초소형 모듈로 전체 길이가 짧음
* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트 기기가 자체적으로 정보를 수집, 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

▲ DTF 2024에 전시된 SK하이닉스의 제품을 관람하는 관람객들

이 밖에도 SK하이닉스는 ▲PS1010 ▲PCB01 등 실제 델 사(社)와 협력 중인 제품을 소개해 관람객의 눈길을 사로잡았다.

PS1010은 초고성능 기업용 SSD(Enterprise SSD, eSSD)로, 176단 4D 낸드를 다수 결합한 패키지 제품이다. 이전 세대 대비 읽기∙쓰기 속도가 최대 150% 이상 향상됐으며 낮은 탄소 배출량으로 데이터 사용이 많은 애플리케이션, 클라우드 컴퓨팅, AI 구동 등에 최적화된 프리미엄 제품이다.

PCB01은 온디바이스(On-Device) AI* PC에 탑재되는 업계 최고 성능의 SSD(Solid State Drive) 제품으로 당사가 최초로 8채널(Ch.)* PCle* 5세대 규격을 적용해 데이터 처리 속도의 성능을 획기적으로 높였다. 이 제품의 연속 읽기와 쓰기 속도는 각각 초당 14GB(기가바이트), 12GB로 PC용 SSD 제품 중 업계 최고의 성능이 구현됐으며, 대규모 AI 연산 작업의 안정성을 크게 높여 줄 것으로 기대하고 있다.

* 채널(Ch.): SSD에 탑재되는 낸드플래시와 컨트롤러 간 데이터 입출력(I/O) 통로의 개수. 이 채널이 늘어남과 동시에 PCIe 세대가 발전하며 데이터 처리 속도가 개선되므로 주로 4채널 SSD는 일반 PC용 시장, 8채널 SSD는 고성능 PC 시장을 타깃으로 함
* PCIe(Peripheral Component Interconnect Express): 디지털 기기의 메인보드에서 사용되는 직렬 구조의 고속 입출력 인터페이스

▲ DTF 2024에서 메모리 기술의 역할과 중요성에 대해 설명하는 나은성 팀장(HBM사업전략)

한편, 브레이크아웃 세션에서는 SK하이닉스 나은성 팀장(HBM사업전략)이 ‘AI 시대의 SK하이닉스 메모리 솔루션’을 주제로 빠르게 발전하는 AI 시대에서 메모리 기술의 역할과 중요성에 대해 발표했다. 특히, AI 기술 발전에 따라 변화하는 메모리 요구 사항과 사용자 경험을 향상시킬 수 있는 기술이 주목받을 것이라고 강조하며, 핵심 솔루션 중 하나로 SK하이닉스가 독자 개발한 HBM의 주요 기술인 MR-MUF*를 소개했다.

* MR-MUF(Mass Reflow Molded Underfill): 반도체 칩을 쌓아 올린 뒤 칩과 칩 사이 회로를 보호하기 위해 공간 사이에 액체 형태의 보호재를 주입하고, 굳히는 공정. 칩을 하나씩 쌓을 때마다 필름형 소재를 깔아주는 방식 대비 공정이 효율적이고, 열 방출에도 효과적이라는 평가. 특히, SK하이닉스의 어드밴스드 MR-MUF는 기존 공정보다 칩을 쌓을 때 가해지는 압력을 줄이고, 칩의 휨 현상 제어(Warpage Control)도 향상해 HBM 공급 생태계 내에서 안정적인 양산성을 확보하는 데 핵심이 되고 있음

SK하이닉스는 “이번 DTF를 통해 차세대 AI 시장을 이끌 대체 불가한 솔루션을 선보일 수 있었다”라며 “앞으로도 글로벌 파트너들과 협력을 통해 AI 시대 메모리 시장에서 선두 자리를 공고히 다지기 위한 혁신을 이어가겠다”고 전했다.

]]>
/dtf-2024/feed/ 0
SK하이닉스, ‘HPE 디스커버 2024’ 참가… “업계 최고 수준의 메모리 기술력으로 AI 혁신 가속화” /skhynix-hpe-discover-2024/ /skhynix-hpe-discover-2024/#respond Tue, 18 Jun 2024 21:00:00 +0000 http://localhost:8080/skhynix-hpe-discover-2024/ SK하이닉스, ‘HPE 디스커버 2024’ 참가... “업계 최고 수준의 메모리 기술력으로 AI 혁신 가속화”_2024_01_사진_행사

SK하이닉스가 18일(미국시간)부터 사흘간 미국 라스베이거스에서 열리고 있는 ‘HPE 디스커버(이하 HPED) 2024’에 참가해 인공지능(AI) 시대를 선도할 메모리 제품과 기술력을 선보였다.

HPED는 HPE(Hewlett Packard Enterprise) 사(社)가 해마다 주최하는 기술 콘퍼런스로, 다수의 글로벌 ICT 기업들이 참여해 기술 전시 및 시연, 전문가 세션 등의 행사를 진행한다. 올해는 ‘Across Edge & Networking, Hybrid Cloud and AI’라는 슬로건을 걸고 엣지 디바이스*부터 클라우드까지 확장되는 AI 기술의 미래에 대해 탐색하는 자리로 꾸려졌다.

* 엣지 디바이스(Edge Device): 사물인터넷(IoT) 환경에서 사용자 가까이에서 데이터를 생산하는 장치

작년에 이어 플래티넘 후원사로 참여한 SK하이닉스는 ‘Memory, The Power of AI’라는 주제로 차세대 AI 메모리와 서버 향(向) D램 및 데이터센터 향 SSD 라인업 등을 소개했다.

SK하이닉스, ‘HPE 디스커버 2024’ 참가... “업계 최고 수준의 메모리 기술력으로 AI 혁신 가속화”_2024_02_사진_행사

▲ HPE 디스커버 2024에 전시된 SK하이닉스의 CXL®, PIM, HBM 제품

회사는 첫 번째 섹션에서 초고성능 AI용 메모리인 ▲HBM*과 ▲CXL®* 제품을 선보였다. 이번 전시에 소개된 HBM3E는 초당 최대 1.18TB(테라바이트)의 데이터를 처리하는 현존 최고 성능의 D램으로 현재 AI 시장에서 가장 각광받는 제품이다. 또한, CXL 제품인 CMM(CXL® Memory Module)-DDR5는 DDR5 D램과 함께 장착했을 때 기존 시스템보다 대역폭은 최대 50%, 용량은 최대 100% 확장되는 효과를 보이며, 고성능·고용량을 요구하는 AI 시대를 이끌 차세대 주자로 눈도장을 찍었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직관통전극(TSV, Through Silicon Via)으로 연결해 고대역폭을 구현한 메모리로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전
* CXL(Compute Express Link)®: 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

SK하이닉스, ‘HPE 디스커버 2024’ 참가... “업계 최고 수준의 메모리 기술력으로 AI 혁신 가속화”_2024_03_사진_행사

▲ HPE 디스커버 2024에 전시된 SK하이닉스의 RDIMM, LPCAMM, MCRDIMM 제품

두 번째 섹션에는 고성능 컴퓨팅 시장(HPC)에서 각광받는 고성능 서버용 모듈인 ▲MCRDIMM*과 AI PC용 모듈 ▲LPCAMM2* 등을 전시했다. 그중 LPDDR5X 패키지를 하나로 묶은 LPCAMM2은 기존 SODIMM 대비 탑재 면적은 줄이고 전력 효율은 높여, 향후 온디바이스(On-device) AI 응용 확산에 대비할 수 있는 제품으로 눈길을 끌었다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* LPCAMM2(Low Power Compression Attached Memory Module 2): LPDDR5X 기반의 모듈 솔루션 제품으로 기존 DDR5 SODIMM 2개를 LPCAMM2 1개로 대체하는 성능 효과를 가지면서 공간 절약뿐만 아니라 저전력과 고성능 특성을 구현

세 번째 섹션은 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD(Enterprise SSD, 기업용 SSD) 라인으로 구성됐다. 특히, SK하이닉스는 업계 최고 성능의 5세대 PCIe* 기반 eSSD PS1010/1030 E3.S를 선보이며 주목을 받았다. PS1010/1030 E3.S는 이전 세대 대비 뛰어난 속도와 낮은 탄소 배출량으로, 데이터 사용이 많은 애플리케이션, 클라우드 컴퓨팅, AI 구동 등에 최적화 된 프리미엄 제품이다. 뿐만 아니라 이번 전시에서는 온프레미스* 데이터 센터 등에서 최근 AI향 스토리지(Storage) 수요가 증가함에 따라, 최대 60TB에 달하는 초고용량 솔루션으로 각광받고 있는 솔리다임의 QLC SSD 포트폴리오도 함께 소개했다.

* PCIe(Peripheral Component Interconnect express): 디지털기기의 메인보드에서 사용되는 직렬 구조의 고속 입출력 인터페이스. 저장 장치를 연결하는 기술로, 초당 8기가바이트(GB) 이상의 데이터를 전송할 수 있는 것이 특징
* 온프레미스(On-premise): 기업이 자체적으로 보유한 공간에 서버를 직접 구축하여 및 운영하는 방식

SK하이닉스, ‘HPE 디스커버 2024’ 참가... “업계 최고 수준의 메모리 기술력으로 AI 혁신 가속화”_2024_06_사진_행사

▲ (좌측부터)HPE 디스커버 2024에서 발표를 진행하는 DRAM TP의 브라이언 윤(Brian Yoon) TL, NAND TP의 산토시 쿠마르(Santosh Kumar) Director, SSD Enablement의 김선재 TL

한편, SK하이닉스는 18일 AI 시대의 기술 동향과 비전을 소개하는 발표 세션도 진행했다. DRAM TP의 브라이언 윤(Brian Yoon) TL은 ‘CXL Memory Module-DDR5를 통한 메모리 확장 활성화’에 관한 내용을 소개했고, NAND TP의 산토시 쿠마르(Santosh Kumar) Director와 SSD Enablement의 김선재 TL은 ‘SSD 스토리지 기술 동향 및 SK하이닉스-솔리다임 제품 포트폴리오’에 대해 공동 발표를 진행했다.

SK하이닉스 박명수 부사장(US/EU영업 담당)은 “SK하이닉스는 업계 최고 수준의 메모리 기술력을 바탕으로 고용량 DDR5 및 16채널 5세대 eSSD 공급 계약 체결 등 HPE와의 긴밀한 파트너십을 유지 중”이며, “앞으로도 글로벌 파트너들과의 협력을 강화해 ‘글로벌 1등 AI 메모리 프로바이더(Provider)’로서 기술 리더십을 더욱 굳건히 하겠다”고 밝혔다.

]]>
/skhynix-hpe-discover-2024/feed/ 0
SK하이닉스, ‘COMPUTEX 2024’서 혁신적인 AI 제품 선보여… “AI 시대를 이끌 ‘First Mover’ 역할 다할 것” /computex-2024/ /computex-2024/#respond Thu, 06 Jun 2024 15:00:00 +0000 http://localhost:8080/computex-2024/ SK하이닉스가 지난 4일(현지시간)부터 7일까지 나흘간 대만 타이베이에서 개최된 ‘COMPUTEX(타이베이 국제컴퓨터박람회, 이하 컴퓨텍스) 2024’에 참가했다고 7일 밝혔다.

컴퓨텍스는 대만 대외무역발전협회(TAITRA)와 대만컴퓨터협회가 공동으로 주최하는 아시아 최대 ICT 박람회다. 과거에는 개인용 컴퓨터(PC) 중심의 박람회였지만, 최근에는 AI, HPC(고성능 컴퓨팅) 등으로 영역이 확대되며, 참여 기업들의 첨단 기술을 선보이는 장(場)이 되고 있다.

‘Connecting AI’를 주제로 한 올해 컴퓨텍스에는 1,500여 개 기업이 참여했으며, 6가지 테마로 꾸며진 4,500여 개 부스가 관람객을 맞았다.

SK하이닉스, ‘COMPUTEX 2024’서 혁신적인 AI 제품 선보여... “AI 시대를 이끌 ‘First Mover’ 역할 다할 것”_2024_01_사진_행사

▲ 대만 타이베이에서 개최된 ‘컴퓨텍스 2024’에 참여한 SK하이닉스

SK하이닉스는 이번 컴퓨텍스에서 ‘Memory, The Power of AI’를 주제로 부스를 설치하고 ▲AI 서버 ▲AI PC ▲Consumer SSD 등 3개의 섹션으로 나눠 자사의 AI 메모리 솔루션을 전시했다.

AI 서버 솔루션 중에서는 HBM*의 5세대 제품인 HBM3E가 관람객의 이목을 끌었다. 이 제품은 초당 1.18TB(테라바이트)의 데이터를 처리할 수 있는 압도적인 속도와 대용량, 우수한 열 방출 성능을 보여주며, AI 서버에 최적화된 제품이라는 평가를 받았다.

DDR5 기반의 메모리 모듈로 CXL®* 메모리 컨트롤러를 장착한 CMM(CXL® Memory Module)-DDR5도 전시됐다. 이 제품은 CXL® 장착을 통해 기존 시스템보다 대역폭은 50% 향상되고 용량은 100% 확장된 제품이다. 이밖에도 데이터 버퍼(Buffer)*를 사용해 D램 모듈의 기본 동작 단위인 랭크 2개가 동시 작동하도록 설계한 ‘128GB TALL MCRDIMM’을 처음 선보였으며, 고성능 ‘DDR5 RDIMM’ 등 다양한 AI D램 제품을 확인할 수 있었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직관통전극(TSV, Through Silicon Via)으로 연결해 고대역폭을 구현한 메모리로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스
* 버퍼(Buffer): D램 모듈 위에 같이 탑재돼 D램과 CPU 사이의 신호 전달 성능을 최적화하는 부품. 고성능과 안정성이 요구되는 서버용 D램 모듈에 주로 탑재된다.

부스에서는 빠른 연속 읽기 속도와 연속 쓰기 속도로 AI를 위한 빅데이터, 머신러닝에 특화된 ‘PS1010’ ‘PE9010’과 같은 eSSD* 제품들도 모습을 보였다. 특히, 솔리다임의 주력 제품인 ‘D5-P5430’과 61.44TB의 초대용량을 자랑하는 ‘D5-P5336’도 함께 전시되며, 많은 관심을 끌었다.

* eSSD(Enterprise Solid State Drive): 기업용 SSD, 주로 서버나 데이터센터에 탑재된다.

SK하이닉스, ‘COMPUTEX 2024’서 혁신적인 AI 제품 선보여... “AI 시대를 이끌 ‘First Mover’ 역할 다할 것”_2024_05_사진_제품

▲ 컴퓨텍스 2024에 전시된 PCB01, LPCAMM2, DDR5 SODIMM, GDDR7

SK하이닉스는 AI 시대를 맞아 온디바이스* AI PC에 최적화된 메모리 솔루션도 선보였다. SK하이닉스의 cSSD*인 5세대 PCIe* ‘PCB01’은 연속 읽기 속도가 초당 14GB(기가바이트), 연속 쓰기 속도는 초당 12GB로 업계 최고 속도를 자랑한다. 특히, 이전 세대 대비 전력 효율이 30% 향상돼, 대규모 AI 연산 작업에서 속도와 전력 효율을 크게 높일 수 있다.

이외에 여러 개의 LPDDR5X 패키지를 묶은 최신형 메모리 모듈인 LPCAMM2와 DDR5 SODIMM*, 차세대 그래픽 D램 GDDR7 등도 함께 전시됐다.

* 온디바이스(On-Device) AI: 클라우드 기반 AI 서비스와는 달리, 스마트폰이나 PC와 같은 단말 내에서 바로 AI 연산과 추론을 수행하는 개념
* cSSD(Client Solid State Drive): 소비자용 SSD, 주로 PC, 태블릿 등 개인용 전자기기에 탑재됨
* PCIe(Peripheral Component Interconnect Express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* SODIMM(Small Outline DIMM): 데스크탑 및 노트북 등 PC에서 사용되는 메모리 모듈을 통칭하는 개념

SK하이닉스, ‘COMPUTEX 2024’서 혁신적인 AI 제품 선보여... “AI 시대를 이끌 ‘First Mover’ 역할 다할 것”_2024_06_사진_제품

▲ 컴퓨텍스 2024에 전시된 플래티넘(Platinum) P51, 플래티넘(Platinum) P41, 비틀(Beetle) X31

Consumer SSD 섹션에서는 SK하이닉스의 소비자용 SSD인 플래티넘(Platinum) P41과 플래티넘(Platinum) P51을 만나볼 수 있었다. 이미 많은 소비자에게 호응을 얻고 있는 Platinum P41의 경우, 4세대 PCIe 기반 NVMe(Non-Volatile Memory Express) SSD 중 최고 사양을 자랑하는 제품이다. P41의 성능 향상 버전인 Platinum P51은 열 발생을 줄여 전력 효율을 30% 개선한 제품으로 많은 관람객의 관심을 끌었다. 이와 함께, 외장형 SSD 제품인 비틀(Beetle) X31*[관련기사]’의 용량을 2TB로 늘린 업그레이드 버전도 공개했다.

* 비틀(Beetle) X31: SK하이닉스의 첫 외장형 SSD로 우수한 성능과 편리한 휴대성, 감각적인 디자인으로 관심을 끌고 있는 제품. USB 3.2 Gen2 10Gbps 등의 성능을 제공한다.

게다가, 이번 컴퓨텍스에서는 SK하이닉스와 HLDS(Hitachi LG Data Storage)가 공동으로 개발한 스틱형 SSD ‘튜브(TUBE) T31’이 HLDS 부스에 전시되기도 했다. SK하이닉스 최초의 스틱형 SSD인 TUBE T31은 케이블 없이 컴퓨터에 직접 연결할 수 있는 외장형 SSD로 Platinum P41용 방열판 ‘Haechi H02’와 함께 세계 3대 디자인상 중 하나인 ‘레드닷 디자인 어워드(RedDot Design Award)’ 수상 제품이다.

부스 한편에서는 SK하이닉스의 ESG 활동도 함께 선보였다. 2030 RM(Recycled/Renewable Materials, 재활용/재생 가능 소재) 로드맵을 포함한 저전력 제품 개발과 물 재활용 등 회사의 주요 ESG 목표와 실적을 공개했다.

SK하이닉스는 이번 행사와 관련해 “‘토털 AI 메모리 프로바이더’로서 지위를 공고히 하기 위해 컴퓨텍스에 처음으로 참여하게 됐다”며 “HBM3E, TALL MCRDIMM, PCB01 등 업계 최초, 최고의 제품들을 통해 AI 시대를 이끄는 진정한 퍼스트 무버(First Mover)가 될 것”이라고 밝혔다.

]]>
/computex-2024/feed/ 0
SK하이닉스, ‘DTW 24’ 참가… AI 성능 향상시키는 첨단 메모리 솔루션 선보여 /dtw24/ /dtw24/#respond Mon, 20 May 2024 21:00:00 +0000 http://localhost:8080/dtw24/

SK하이닉스가 20일(미국시간)부터 나흘간 미국 라스베이거스에서 열린 ‘DTW 24(Dell Technologies World 2024)’에 참가해 첨단 AI 메모리 솔루션을 선보인다고 21일 밝혔다.

DTW는 미국 전자 기업 델 테크놀로지스(Dell Technologies)가 매년 주최하는 컨퍼런스로, 유수의 글로벌 IT 기업이 참가해 미래 트렌드를 이끌 기술을 공개하는 자리다. 올해는 ‘AI 채택을 가속화해 혁신을 실현하다(Accelerate AI Adoption to Unlock Innovation)’를 주제로, 다양한 기술 시연과 토론 등이 진행됐다.

이번 행사에서 SK하이닉스는 델 사(社) 시스템에 자사 SSD 제품인 PS1010 E3.S와 PCB01을 탑재해 진보한 성능을 선보였다. PS1010 E3.S는 PCIe* 5세대 eSSD*이며 이전 세대 대비 뛰어난 속도와 낮은 탄소배출량을 자랑해 데이터 사용량이 많은 인공지능과 데이터센터 등에 최적화된 제품이다.

PCB01은 PCIe 5세대 cSSD*로, 연속 읽기속도 14GB/s, 연속 쓰기속도 12GB/s라는 업계 최고 속도를 갖추고 있어 인공지능 학습 및 추론에 필요한 거대언어모델*을 1초 안에 로딩할 수 있다. 이전 세대 대비 속도는 2배 향상된 것은 물론, 전력 효율도 30% 개선되어 우수한 성능을 뽐냈다.

* PCIe(Peripheral Component Interconnect Express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스
* eSSD(Enterprise Solid State Drive): 기업용 SSD, 주로 서버나 데이터센터에 탑재됨
* cSSD(Client Solid State Drive): 소비자용 SSD, 주로 PC, 태블릿 등 개인용 전자기기에 탑재됨
* 거대언어모델(Large Language Model, LLM): 방대한 양의 데이터를 학습한 언어 모델로, 텍스트를 생성, 요약, 번역하는 등 생성형 AI 작업을 수행하는 데 필수적인 역할을 함

또한 SK하이닉스는 최신 메모리 모듈 LPCAMM2를 공개했다. LPCAMM2는 여러 개의 LPDDR5X 패키지를 하나로 묶은 모듈로, 기존 SODIMM* 두 개를 대체할 수 있으며 저전력 특성까지 갖추고 있다. 기존 모듈 대비 탑재 면적은 줄어들면서 전력 효율은 증대돼 향후 온디바이스 AI의 핵심 메모리로 활약할 것으로 기대되는 제품이다.

* SODIMM(Small Outline DIMM): 데스크탑 및 노트북 등 PC에서 사용되는 메모리 모듈을 통칭하는 개념

이 밖에도 SK하이닉스는 ▲CMM(CXL®* Memory Module)-DDR5 ▲HBM3E ▲MCRDIMM ▲RDIMM 등을 선보였다. CMM-DDR5는 DDR5 기반의 메모리 모듈로 CXL® 메모리 컨트롤러를 장착해 DDR5 D램만 장착한 기존 시스템보다 대역폭은 최대 50% 향상되고, 용량은 최대 100% 확장되는 효과가 있다. SK하이닉스는 CMM-DDR5와 HBM3E의 성능을 시연해 인공지능 애플리케이션 및 고성능 컴퓨팅에서의 효용성을 강조했다.

* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

▲ DTW 24에서 CXL® 제품에 대해 설명하는 차세대 메모리&스토리지 심응보 TL

한편, 행사 첫날 브레이크아웃(Breakout) 세션에는 차세대 메모리&스토리지 심응보 TL이 ‘CXL® 메모리 모듈이 이끄는 메모리 성능 향상’을 주제로 CXL®의 미래 비전과 응용처에 대해 발표했다.

SK하이닉스는 “이번 DTW 24를 통해 AI 시대를 선도하는 메모리 기업으로서 성능과 지속가능성을 모두 충족시키는 기술을 선보였다”며 “앞으로도 글로벌 파트너들과 협력을 강화해 글로벌 1등 AI 메모리 프로바이더(Provider)의 위상을 더욱 공고히 하겠다”고 밝혔다.

]]>
/dtw24/feed/ 0