실시간
뉴스

반도체

인텔, '클리어워터 포레스트’ 깜짝 공개…2025년 1.8nm '옹스트롬 시대’ 연다 [소

2025년 출시 예정 18A 출하…4년내 5개 공정 달성 목표

산드라 리베라(Sandra Rivera), 인텔 데이터 센터 및 AI 그룹 부문 총괄 및 수석부사장 [사진=인텔]
산드라 리베라(Sandra Rivera), 인텔 데이터 센터 및 AI 그룹 부문 총괄 및 수석부사장 [사진=인텔]
[디지털데일리 김문기 기자] 인텔이 2025년 18A(1.8nm) 공정으로 설계된 코드명 ‘클리어워터 포레스트’를 최초 공개했다.

이번 발표는 신규 제온 스케일러블 프로세서 로드맵을 다시 한 번 확인시켜줌과 동시에, 인텔이 추구하는 옹스트롬 시대가 도래했음을 알 수 있는 표지다. 이를 통해 인텔은 4년 내 5개 공정을 달성하겠다는 계획을 현실화하게 된다.

30일 인텔은 산드라 리베라, 그렉 라벤더, 리사 스펠만 등 인텔 임원들이 직접 나서 ‘인텔의 데이터 센터 및 AI 그룹에 대한 업데이트’를 공유하는 웨비나를 개최했다.

이번 행사를 통해 인텔은 차세대 인텔 제온 프로세서 업데이트, 4세대 인텔 제온 스케일러블 프로세서 (코드명 사파이어 래피즈) 업데이트, 경쟁사 대비 및 AI 집약적 워크로드 등 여러 워크로드에 대한 인텔의 하드웨어 성능을 공개했다.

우선 지난 1월 출시된 4세대 인텔 제온 스케일러블 프로세서를 소개했다. 코드명 사파이어 래피즈로 알려진 4세대 제온은 현재 모든 주요 OEM 및 ODM이 4세대 제온 시스템 탑재 시스템을 출하 중이다. 상위 10대 글로벌 CSP가 4세대 제온을 기반으로 서비스 배포를 추진 중이다.

리사 스펠만 인텔 제온 제품 총괄 및 부사장은 이날 48코어를 탑재한 4세대 제온과 48코어를 탑재한 4세대 AMD 에픽 CPU 제품 비교 데모를 시연했다. 그 결과, 인텔 어드밴스드 매트릭스 익스텐션(AMX) 가속기가 탑재된 4세대 인텔 제온 스케일러블 프로세서는 딥러닝 워크로드 처리시 경쟁사의 최신 기술 기반 제품 대비 평균 4배 높은 성능을 제공했다고 자신했다.

올해말 출시될 코드명 에메랄드 래피즈는 인텔 퍼포먼스 코어(P-코어) 제품이다. 이날 인텔은 인텔은 오늘 공식적으로 5세대 인텔 제온 스케일러블 프로세서로 명명했다. 일부 고객들에게 해당 제품의 샘플을 제공하고 있다. 현재 대규모 검증 작업이 진행 중이다. 산드라 리베라 인텔 데이터 센터 및 AI 그룹 부사장 겸 총괄은 현재 수율이 높다고 밝혔다.

내년 전반기 코드명 시에라 포레스트 제온 프로세서 출시가 예약돼 있다. 인텔은 시에라 포레스트가 소켓당 144개의 코어를 탑재할 것이라고 공개했다. 시에라 포레스트는 곧 출시될 인텔3 공정(7nm)을 기반으로 하는 최초 CPU다. 이번 분기 초에 다중 운영 체제를 구동하는 데 하루도 걸리지 않는 등 신기록을 세우기도 했다는 설명이다.

이후 코드명 그래나이트 래피즈가 출시된다. 구체적인 일정이 잡히지는 않았으나 인텔이 밝힌 2년 주기 CPU 로드맵에 따르면 시에라 포레스트와 큰 간극은 없을 전망이다. 현재 제품이 공장에서 출고되는 등 프로젝트가 순조롭게 진행되고 있다. 치사 스펠만 인텔 제온 제품 총괄 및 부사장은 오늘 데모 시연을 통해 그래나이트 래피즈가 제공하는 혁신을 보여주기도 했다.

스펠만 부사장은 그래나이트 래피즈의 메모리 구성을 보여주기 위해 명령 프롬프트를 실행하면서 “우리는 그래나이트 래피즈를 위해 세계에서 가장 빠른 메모리 인터페이스를 구축하고 있다”며 “인텔은 DDR5를 기반으로 8,800 MT/s 전송 속도를 달성할 수 있는 멀티플렉서 복합 랭크(MCR)라는 새로운 유형의 DIMM을 개발하고 지원할 수 있는 생태계를 주도하고 있다”고 말했다.

MCR DIMM 혁신은 현 세대 서버 메모리 기술 대비 80% 높은 피크 대역폭을 제공한다. 스펠만 부사장은 데모 시연에서 읽기 및 쓰기로 메모리를 포화시키면서도 그래나이트 래피즈의 안정성을 입증했다.

이와 별도로 인텔은 깜짝 발표를 이어갔다. 다음 세대인 클리어워터 포레스트를 발표한 것. E-코어 기반의 로드맵을 지속하겠다고 밝혔다. 오는 2025년 출시 예정인 클리어워터 포레스트는 인텔이 공정 리더십을 달성하기 위해 계획하고 있는 노드인 인텔 18A(1.8nm) 공정 기반으로 제작된다.

인텔은 그간 공정을 구분한 나노 단위를 넘어 옹스트롬 단위를 사용하겠다고 밝힌 바 있다. 옹스트롬이란 0.1nm 단위로 기존 물리적 한계를 넘은 좀 더 미세한 공정을 의미한다는 것. 1.8nm 공정을 가리기는 인텔 18A 기반 클리어워터 포레스트가 인텔이 계획한 로드맵에 따라 출시된다면 삼성전자, TSMC의 첨단 공정을 넘는 경쟁력을 확보할 수 있을 것으로 기대된다.

◆데이터센터 프로세서 시장 규모 5년간 1100억달러 초과

인텔은 과거 예측보다 훨씬 큰 전체시장규모(TAM)을 달성할 수 있도록 순조롭게 로드맵을 실현하고 있다고 자신햇다.

인텔 데이터 센터 및 AI 그룹 부사장 겸 총괄은 데이터 센터 프로세서의 전체 시장 규모가 향후 5년 간 1100억달러 상당으로 성장할 것이라 예견했다. 지난해 인텔 인베스터 데이에서 강조한 수치 두 배에 달한다. CPU를 넘어서는 데이터 센터 환경의 변화가 이 같은 성장을 견인하고 있다는 설명이다.

리베라 총괄은 “우리는 컴퓨팅 수요에 대해 얘기할 때 종종 CPU의 수로 전체 시장 규모를 측정한다”며 “그러나, 소켓 수만으로는 혁신적인 실리콘이 시장에 가치를 제공하는 방식을 완전히 반영하지 못한다. 오늘날 혁신은 CPU 코어 밀도 증가, 실리콘에 내장된 가속기 사용, 개별 가속기 사용 등 여러 방식으로 이루어진다”고 말했다.

리베라 총괄은 해당 내용을 바탕으로 천제시장규묘 증가의 구체적인 이유 중 하나로 가속기 컴퓨팅과 고급 GPU 제품을 데이터 센터 사업에 통합함으로써 더 많은 고객에 서비스를 제공할 수 있는 입지를 확보했다는 점을 꼽았다.

더불어, 인텔 제온 프로세서가 AI, 애널리틱스, 보안, 네트워킹 및 고성능 컴퓨팅과 같이 높은 성능이 필요한 워크로드에서 상당한 성능을 제공함에 따라 메인스트림 컴퓨팅은 물론 해당 작업에 맞는 외장 가속기에 대한 수요도 증가하고 있다.

AI에 대응하는 인텔의 전략에 대해서도 소개했다.

인텔은 이미 데이터 준비 및 관리부터 제온을 이용한 중소규모 학습 및 추론, 그리고 인텔 GPU 및 가속기를 이용한 대규모 모델 학습 및 추론 등 AI 하드웨어의 기반을 제공하고 있다.

리베라 총괄은 개방형 생태계 접근 방식을 통해 솔루션에 대한 광범위한 액세스 및 보다 비용 효율적인 배포를 지원함으로써 클라우드에서 네트워크, 엣지에 이르기까지 모든 사람들이 AI를 활용할 수 있도록 지원하는 인텔의 노력을 공개했다.

그는 “고객은 AI 워크로드에 대해서 한 번 구축하면 어디든 배포할 수 있는 이동성을 원한다”며 “AI 워크로드를 위한 이기종 아키텍처를 계속 제공함에 따라 이를 대규모로 배포하기 위해선 개발자가 쉽게 프로그래밍할 수 있는 소프트웨어는 물론 활기차고 안전한 개방형 생태계가 필요하다”고 말했다.

그렉 라벤더 인텔 최고기술책임자(CTO) 겸 소프트웨어 및 테크놀로지 그룹 총괄은 인텔이 제공하는 발전된 소프트웨어는 물론 리베라 총괄이 언급한 이동성을 위한 프로그래밍 언어 표준화 작업 등 인텔의 AI 소프트웨어에 대한 엔드투엔드 시스템급 접근방식을 위한 투자에 대해 공개했다.

라벤더 CTO는 “(엔비디아의) CUDA를 대체할 수 있는 개방형 멀티벤더 멀티아키텍처에 대한 요구는 지속되고 있다”며 “인텔은 모든 사람이 기여하고 협업하며 특정 공급업체에 종속되지 않고, 구성원과 대중의 요구에 따라 유기적으로 발전 가능한 표준화된 프로그래밍 언어가 업계에 도움이 될 것이라고 믿는다”고 말했다.

인텔은 개방형 C++ 기반 프로그래밍 모델 SYCL에 기여해 왔으며, SYCL 언어 및 커뮤니티 선두주자 코드플레이 소프트웨어를 인수했다. 원API에서 SYCL을 멀티벤더의 CPU, GPU 및 가속기를 대상으로 프로그래밍 및 컴파일을 수행할 수 있다. 업스트림 소프트웨어 최적화에 대한 추가 작업에는 PyTorch 2.0 및 텐서플로우 2.9에 대한 최적화와 인텔 제온 및 가우디 2의 도움을 받아 학습 및 튜닝, 예측하기 위한 허깅 페이스와의 협업으로 이뤄졌다.

인텔은 생성형 AI 분야에도 주목하고 있다. 챗GPT와 DALL·E 2와 같은 도구들은 인공지능 알고리즘과 대규모 데이터셋을 활용해 점차 복잡해지는 프롬프트에 기반한 새로운 콘텐츠를 생산하고 있다. 인텔은 증가하는 성능 요구 사항에 대응하면서 개방적인 생성형 AI 생태계를 지원하기 위해 노력하고 있다.

주요 머신러닝 애플리케이션 개발 업체인 허깅 페이스는 이번주 초에 하바나 가우디2 상에서 1760억 개의 매개 변수를 가진 BLOOMZ 모델을 활성화했다고 발표했다. BLOOM 모델은 챗GPT에서 사용하는 1750억 개의 매개 변수를 가진 GPT-3 모델과 유사한 오픈 소스 대규모 언어 AI 모델이다.


더불어, 허깅 페이스는 AI 워크로드 가속화를 위해 인텔 AMX가 내장된 4세대 인텔 제온 프로세서에서 딥러닝 텍스트-이미지 변환 모델이자 DALL-E의 오픈 액세스 대안인 스테이블 디퓨전을 실행하고 있다고 밝혔다.

아울러, 리베라 총괄은 투자자들에게 엔비디아가 H100 GPU와 함께 4세대 제온을 헤드노드로 사용해 챗GPT를 비롯한 마이크로소프트 애저의 생성형 AI 모델을 가속화하는 가상 머신을 구동하고 있다고 밝혔다.

디지털데일리 네이버 메인추가
x