GPU 테크놀로지 컨퍼런스(GTC), 미래 기술을 향한 도약이 시작되었다 | 반도체네트워크

죄송합니다. 더 이상 지원되지 않는 웹 브라우저입니다.

반도체네트워크의 다양한 최신 기능을 사용하려면 이를 완전히 지원하는 최신 브라우저로 업그레이드 하셔야 합니다.
아래의 링크에서 브라우저를 업그레이드 하시기 바랍니다.

Internet Explorer 다운로드 | Chrome 다운로드

GPU 테크놀로지 컨퍼런스(GTC), 미래 기술을 향한 도약이 시작되었다


PDF 다운로드



젠슨 황 엔비디아 창립자 겸 CEO가 GPU 테크놀로지 컨퍼런스(GTC)에서 기조연설을 갖고 AI, 가속 컴퓨팅, 컴퓨터 그래픽스, 로보틱스부터 메타버스에 이르는 다양한 기술을 소개했다. 본 고는 GTC에서 소개된 다양한 미래 기술들을 정리하였다.


자료제공/엔비디아



맞춤형 실리콘 통합 

엔비디아 NVLink-C2C는 초고속 칩투칩 및 다이투다이 인터커넥트로, 이 인터커넥트에서는 커스텀 다이를 회사의 GPU, CPU, DPU, NIC 및 SOC에 일관성 있게 접속할 수 있다.

고급 패키징을 통해 엔비디아 NVLink-C2C 상호 연결은 엔비디아 칩의 PCIe Gen 5보다 최대 25배 더 높은 에너지 효율성과 90배 더 많은 면적 효율성을 제공하고 초당 900기가바이트 이상의 일관된 상호 연결 대역폭을 지원한다.

엔비디아의 하이퍼스케일 컴퓨팅 담당 부사장 이안 벅(Ian Buck)은 “무어의 법칙이 느려지는 것에 대응하기 위해서는 칩렛과 이기종 컴퓨팅이 필요하다. 우리는 고속 상호 연결에 대한 세계적 수준의 전문 지식을 사용하여 GPU, DPU, NIC, CPU 및 SoC가 칩렛을 통해 구축된 새로운 차원의 통합 제품을 만드는 데 도움이 되는 균일한 개방형 기술을 구축했다”고 말했다. 

엔비디아 NVLink-C2C는 엔비디아 그레이스 슈퍼칩 제품군과 작년 발표된 그레이스 호퍼 슈퍼칩 제품군의 프로세서 실리콘을 연결하는 데 사용되는 것과 동일한 기술이다. NVLink-C2C는 이제 엔비디아 기술과의 세미 맞춤형 실리콘 레벨 통합을 위해 열려 있다.

엔비디아 NVLink-C2C는 Arm의 AMBA CHI 프로토콜을 지원한다. 엔비디아와 Arm은 긴밀한 협력을 통해 AMBA CHI를 향상시켜 상호 연결된 다른 프로세서와 완벽하게 일관성 있고 안전한 액셀러레이터를 지원한다.

Arm의 인프라 사업 부문 수석 부사장 겸 총괄 책임자 크리스 버지(Chris Bergey)는 “CPU 설계의 미래가 점점 더 가속화되고 멀티칩화됨에 따라 생태계 전반에 걸쳐 칩렛 기반 SoC를 지원하는 것이 중요하다. Arm은 CPU, GPU 및 DPU 간의 일관된 연결과 같은 용례를 해결하기 위해 NVLink-C2C에서 엔비디아와 협력하는 것을 포함해 이러한 미래 기술을 지원하기 위해 광범위한 연결 표준 세트를 지원하고 AMBA CHI 프로토콜을 설계하고 있다”라고 말했다.

SR(NVIDIA)-1.jpg

CUDA-X 라이브러리 업데이트

다양한 분야의 라이브러리, 도구, 기술을 지원하는 쿠다(CUDA)-X 컬렉션에 대해 60개 이상의 최신 업데이트가 이뤄졌다. 이번 업데이트를 통해 CUDA 소프트웨어 컴퓨팅 플랫폼의 성능이 큰 폭으로 향상될 예정이다.

수십 가지에 달하는 이번 업데이트는 현재 이용 가능하며, 개발자는 업계에서 가장 포괄적인 플랫폼인 CUDA를 통해 로보틱스, 사이버 보안, 데이터 분석 등 고급 작업뿐 아니라 6G, 양자 컴퓨팅, 유전체학, 약물 탐지, 물류 최적화와 같은 고성능 컴퓨팅 분야 전반에 걸친 과제에 대응하기 위한 고속 애플리케이션을 구축할 수 있다.

CUDA 플랫폼은 2008년 출시 이후 약 3,300만 회 이상 다운로드 됐으며, 2021년에만 800만 회 다운로드가 이뤄졌다. 이는 다운로드 횟수가 3년 만에 3배 증가한 수치이다.

엔비디아 개발자 프로그램 담당 부사장인 그레그 에스테스(Greg Estes)는 “AI와 가속 컴퓨팅의 혁신은 거의 모든 산업에서 비약적인 주요 과학 발전과 새로운 애플리케이션 및 서비스의 창조를 주도하고 있다. 이번 업데이트로 엔비디아는 연구자와 개발자가 그 어느 때보다 쉽게 CUDA를 이용해 플랫폼에서 최고의 성능을 얻을 수 있도록 만들었다”고 말했다.

CUDA를 기반으로 구축된 엔비디아의 AI, HPC 및 그래픽 플랫폼에는 여러 애플리케이션 도메인에서 더 높은 성능과 가속 알고리즘을 구현하는 핵심인 소프트웨어 개발 키트(SDK) 및 툴이 포함돼 있다. SDK를 사용하면 개발자, 연구자, 데이터 과학자가 엔비디아의 고급 플랫폼을 쉽게 활용할 수 있으며, 컴퓨팅, 알고리즘, 과학의 교차점에서 발생하는 엄청난 복잡성에 대처할 수 있다.

이번 업데이트를 통해 개발자들은 과학, AI 및 데이터 처리 전반에 걸쳐 이미 사용하고 있는 엔비디아 시스템을 더욱 가속화할 수 있다. 

SR(NVIDIA)-2.jpg

AI 지원 쇼핑 경험 혁신

미국 최대 식료품업체인 크로거와 엔비디아는 디지털 트윈 시뮬레이션을 통해 크로거의 신선도 이니셔티브 확대, 배송 물류 개선 및 매장 내 쇼핑 환경 개선을 위해 최첨단 AI 연구소와 데모 센터를 설립할 예정이다. 이 디지털 트윈 시뮬레이션은 매장 레이아웃과 기타 작업을 정확하게 반영하도록 설계되었다.

크로거의 기술 혁신 및 연구 개발 담당 부사장인 웨슬리 로즈(Wesley Rhodes)는 “엔비디아와의 협력은 크로거의 ‘모두를 위한 신선’ 약속을 지원한다. 우리는 AI와 데이터 분석이 고객에게 언제 어디서나 무엇이든 제공할 수 있는 여정을 어떻게 발전시킬지 기대하고 있다”라고 말했다.

엔비디아의 부사장 겸 리테일 부문 총괄 책임자 아지타 마틴(Azita Martin)은 “AI와 디지털 트윈에 대한 엔비디아와 크로거의 협력은 크로거의 디지털 기술 리더십을 더욱 확장할 것이다. 크로거는 이미 매장에서 우수한 고객 경험을 제공하고 빠른 택배 서비스를 제공하고 있다. 엔비디아 AI를 통해 쇼핑객은 오프라인 매장과 온라인에서 보다 개인화된 경험을 얻을 수 있다”고 말했다.

SR(NVIDIA)-3.jpg

AI 인프라 DGX H100 시스템 

DGX H100 시스템은 대규모 언어 모델, 추천 시스템, 의료 연구 및 기후 과학의 방대한 컴퓨팅 요구 사항을 충족하는 데 필요한 규모를 제공한다. 시스템당 8개의 엔비디아 H100 GPU를 탑재하고 엔비디아 NVLink를 통해 하나로 연결된 각 DGX H100은 이전 세대보다 6배 더 높은 새로운 FP8 정밀도에서 32페타플롭의 AI 성능을 제공한다.

DGX H100 시스템은 차세대 엔비디아 DGX POD™ 및 엔비디아 DGX SuperPOD™ AI 인프라 플랫폼의 구성 요소이다. 최신 DGX SuperPOD 아키텍처는 새로운 엔비디아 NVLink 스위치 시스템을 갖추고 있으며, 최대 32개의 노드를 총 256개의 H100 GPU로 연결할 수 있다.

이전 모델보다 6배 더 높은 1엑사플롭의 FP8 AI 성능을 제공하는 차세대 DGX SuperPOD는 수조 개의 매개변수로 대규모 LLM 워크로드를 실행할 수 있는 기능으로 AI의 영역을 확장합니다.

엔비디아의 설립자이자 CEO 젠슨 황은 “AI는 소프트웨어가 할 수 있는 일과 소프트웨어가 생산되는 방식을 근본적으로 변화시켰다. AI로 산업을 혁신하는 기업은 AI 인프라의 중요성을 깨닫고 있다. 우리의 새로운 DGX H100 시스템은 엔터프라이즈 AI 공장이 데이터를 우리의 가장 귀중한 리소스인 인텔리전스로 정제할 수 있도록 지원할 것이다”라고 말했다.

SR(NVIDIA)-4.jpg

가속 컴퓨팅인 호퍼 아키텍처 

미국의 선구적인 컴퓨터 과학자 그레이스 호퍼(Grace Hopper)의 이름을 딴 이 새로운 아키텍처는 2년 전에 출시된 엔비디아 암페어 아키텍처를 계승한다.

또한 800억 개의 트랜지스터를 탑재한 최초의 호퍼 기반의 GPU인 엔비디아 H100도 발표했다. 세계에서 가장 크고 강력한 액셀러레이터인 H100은 혁신적인 트랜스포머 엔진, 확장성이 뛰어난 엔비디아 NVLink® 인터커넥트 등의 획기적인 기능을 갖추고 있어 대형 AI 언어 모델, 딥 추천 시스템, 유전체학 및 복잡한 디지털 트윈을 지원한다.

젠슨 황 엔비디아 CEO는 “데이터 센터는 인공지능 공장이 되고 있으며 엔비디아 H100은 기업들이 AI가 주도하는 비즈니스를 가속화하기 위해 사용하는 세계 AI 인프라의 엔진”이라고 말했다.

H100의 결합된 기술 혁신은 엔비디아의 AI 추론 및 훈련 리더십을 확장하여 대규모 AI 모델을 사용하여 실시간 몰입형 애플리케이션을 가능하게 한다. H100은 세계에서 가장 강력한 단일 트랜스포머 언어 모델인 Megatron 530B를 사용하여 실시간 대화 AI에 필요한 1초 미만의 지연 시간을 충족하면서 이전 세대보다 처리량을 30배까지 향상시킨다. 또한 H100을 사용하면 3,950억 개의 매개변수를 사용하여 전문가 혼합과 같은 대규모 모델을 최대 9배 빠르게 교육할 수 있어 교육 시간을 몇 주에서 몇 일로 단축할 수 있다.

SR(NVIDIA)-5.jpg

의료용 AI 컴퓨팅 플랫폼 

클라라 홀로스캔 MGX는 클라라 홀로스캔 플랫폼을 확장해 올인원 의료 등급 레퍼런스 아키텍처와 장기적인 소프트웨어 지원을 제공하며, 의료 기기 업계의 혁신을 가속화한다. 또한, 실시간 검토를 위해 높은 처리량의 데이터 스트림을 처리하여 엣지 컴퓨팅에 새로운 차원의 센서 혁신을 가져온다. 

로봇 수술 및 생물학에 대한 새로운 접근법을 연구하는 외과 의사와 과학자들에게는 질병을 연구하고 치료하기 위해 지속적으로 감지 시스템을 고도화하는 의료 기기가 필요하다. 킴벌리 파월 엔비디아 의료 부문 부사장은 “수술, 진단, 약물 분야에서 차세대 선두주자가 되기 위해, 의료 및 생명과학 분야에서 실시간 AI를 도입하는 것이 매우 중요하다. 클라라 홀로스캔 MGX는 AI, 가속화 컴퓨팅, 고급 시각화의 독특한 조합을 통해 AI의 생산을 가속화하고 SaaS(Software as a Service) 비즈니스 모델을 의료기기 업계에 제공한다”고 덧붙였다.

클라라 홀로스캔 MGX의 일부로 엔비디아는 자사 컴포넌트의 장기간 하드웨어 레퍼런스 설계와 10년간의 소프트웨어 지원(소프트웨어용 IEC62304 문서, 임베디드 컴퓨팅 파트너의 IEC60601 증명 보고서 등)을 제공하고 있다.

클라라 홀로스캔 개발자 키트는 현재 사용 가능하다. 

SR(NVIDIA)-6.jpg

추론 분야 주요 업데이트 

하이퍼스케일 추론 등의 워크로드를 개선하기 위한 소프트웨어 스위트인 엔비디아 AI 플랫폼에 대한 주요 업데이트를 발표했다. 이 소프트웨어는 마이크로소프트 및 스냅과 같은 글로벌 업계 리더들이 채택하고 있다.

또한 엔비디아의 소프트웨어 및 솔루션 파트너가 개발한 AI 애플리케이션의 성능과 신뢰성을 보장하는 엔비디아 ® AI 엑셀러레이티드 프로그램도 발표했다. 이 프로그램은 입증된 AI 가속 애플리케이션에 대한 가시성을 높여 기업 고객이 엔비디아 AI 플랫폼에 안심하고 도입할 수 있도록 한다. 어도비, 레드햇, VMware는 출시 시점에 참여한 100개 이상의 파트너 중 하나이다.

엔비디아의 설립자이자 CEO인 젠슨 황은 “엔비디아 AI는 AI 연구자와 데이터 과학자부터 데이터 및 기계 학습 운영 팀에 이르는 전 세계 AI 커뮤니티의 소프트웨어 도구 상자다. 우리가 GTC 2022에서 발표하는 내용은 아주 방대하다. 보다 매력적인 챗봇과 가상 비서를 만들거나, 소비자가 더 나은 구매 결정을 내릴 수 있도록 도와주는 보다 스마트한 추천 시스템을 구축하거나, 대규모 AI 서비스를 조정하는 이러한 상황에서 필요한 것들이 엔비디아 AI에 있다”라고 말했다. 

SR(NVIDIA)-7.jpg

옴니버스 클라우드 

옴니버스 클라우드의 서비스 중에는 아티스트가 대규모 데이터셋을 전송하지 않고도 어디서나 대규모 3D 장면에 액세스하고 편집할 수 있는 간단한 ‘원클릭 투 콜라보레이트’ 공유 툴인 뉴클러스 클라우드가 있다. 또한 기술 디자이너, 아티스트 및 크리에이터가 대화식으로 3D 세계를 실시간으로 구축하기 위한 앱인 옴니버스 크리에이트와 엔비디아의 RTX™ GPU를 기반으로 하는 엔비디아 GeForce NOW 플랫폼으로 전체 시뮬레이션과 렌더링 기능을 스트리밍하는 옴니버스 장면을 볼 수 있는 View도 포함되어 있다.

엔비디아의 설립자이자 CEO 젠슨 황은 “원격으로 작업하는 디자이너들은 같은 스튜디오에 있는 것처럼 협업할 수 있다. 공장 계획자는 실제 공장의 디지털 트윈 내부에서 새로운 생산 흐름을 설계한다. 소프트웨어 엔지니어는 차량을 출시하기 전 자율 주행 자동차의 디지털 트윈을 기반으로 하는 새로운 소프트웨어 설계를 테스트한다. 가상 세계에서만 가능한 새로운 작업의 물결이 오고 있다. 옴니버스 클라우드는 수천만 명의 디자이너와 크리에이터, 수십억 개의 미래 AI와 로봇 시스템을 연결할 것이다”라고 말했다.

엔비디아 GTC의 기조 연설에서 젠슨 황은 옴니버스 클라우드에서 가상으로 협업하는 3명의 인간 디자이너와 1명의 전문 옴니버스 아바타 AI 디자이너가 건축 프로젝트의 디자인을 변경하는 것을 선보이며 디자인의 미래에 대한 데모를 보여주었다.

SR(NVIDIA)-8.jpg

데이터 센터 옴니버스 컴퓨팅 시스템 

엔비디아 OVX는 물리적으로 정확한 실시간 세계 시뮬레이션 및 3D 설계 협업 플랫폼인 엔비디아 옴니버스 내에서 실행되는 복잡한 디지털 트윈 시뮬레이션을 운영하기 위해 특별히 제작됐다.

OVX 시스템은 고성능 GPU 가속 컴퓨팅, 그래픽, AI를 고속 스토리지 액세스, 저지연 네트워킹, 정밀 타이밍과 결합하여 실제와 같은 정확도로 디지털 트윈을 생성하는 데 필요한 성능을 제공한다. OVX는 건물 전체, 공장, 도시, 심지어 세계를 모델링하기 위한 복잡한 디지털 트윈을 시뮬레이션하는 데 사용된다.

엔비디아의 전문 시각화 담당 부사장인 밥 피트(Bob Pette)는 “물리적으로 정확한 디지털 트윈을 통해 우리는 설계하고 구축하게 될 것이다. 디지털 트윈은 모든 산업과 기업이 계획하는 방식을 바꿀 것이다. OVX 시스템 포트폴리오는 산업 전반에 걸쳐 진정한 실시간 상시 동기식 산업용 디지털 트윈을 지원할 수 있을 것”이라고 말했다.

OVX를 통해 설계자, 엔지니어, 플래너는 물리적으로 정확한 디지털 트윈 빌딩을 구축하거나 물리적 세계와 가상 세계 간의 정확한 시간 동기화를 통해 대규모 실제 시뮬레이션 환경을 구축할 수 있다. 기업은 동일한 시공간에서 상호 작용하는 여러 자율 시스템으로 복잡한 시스템과 프로세스를 평가하고 테스트하여 더 효율적인 공장과 창고를 최적화, 확장 또는 생성하거나 로봇과 자율 차량을 실제 환경에 도입하기 전에 훈련할 수 있다.

SR(NVIDIA)-9.jpg

젯슨 AGX 오린 개발자 키트

젯슨 AGX 오린은 초당 275조 번의 조작을 실현한다. 이전 모델인 젯슨 AGX 자비에와 비슷한 가격이지만, 자비에와 동일한 손바닥 크기의 폼 팩터와 핀 호환성을 유지하는 동시에 자비에에 비해 8배 이상의 처리 능력을 제공한다. 엔비디아 암페어 아키텍처 GPU, Arm Cortex-A78AE CPU, 차세대 딥 러닝 및 비전 액셀러레이터, 고속 인터페이스, 고속 메모리 대역폭 및 멀티 모달 센서를 통해 여러 개의AI 어플리케이션 파이프라인을 동시에 지원한다.

디푸 탈라 엔비디아 임베디드, 엣지 컴퓨팅 부사장은 “AI가 제조업, 헬스케어, 소매업, 교통, 스마트 시티 및 기타 경제의 필수 부문을 혁신함에 따라 프로세싱에 대한 수요는 계속 증가하고 있다. 100만 명의 개발자와 6,000개 이상의 기업이 이미 젯슨에 의존하고 있다. 젯슨 AGX 오린의 출시를 통해 차세대 로보틱스 및 엣지 AI 제품이 개발되며 업계 전체의 노력이 더욱 강화될 것”이라고 말했다.

젯슨 AGX 오린을 사용하는 고객들은 엔비디아 CUDA-X 가속 컴퓨팅 스택, 엔비디아 젯팩 SDK, 엔비디아 NGC 카탈로그의 사전 교육 모델 및 옴니버스의 엔비디아 아이작, 엔비디아 메트로폴리스, 엔비디아 타오 툴킷 등의 최신 어플리케이션 개발 및 최적화 프레임워크와 도구를 모두 사용할 수 있다. 이를 통해 개발자는 3D 인식, 자연어 처리, 멀티센서 퓨전 등에서 로보틱스 및 엣지 AI 과제를 해결하는 데 필요한 가장 크고 복잡한 모델에 접근할 수 있다.

SR(NVIDIA)-10.jpg

차세대 드라이브 하이페리온 AV 플랫폼

엔비디아는 엔비디아 드라이브(DRIVE) 플랫폼을 채택한 새로운 자동차 제조업체를 공개하고, 차세대 엔비디아 드라이브 하이페리온 아키텍처를 발표했다.

엔비디아는 전 세계 자동차 제조업체의 연이은 디자인 수상을 계기로, 자동차 관련 파이프라인이 향후 6년 동안 110억 달러 이상으로 증가했다고 밝혔다.

현재 25개 이상의 차량 제조업체가 엔비디아 드라이브 오린 SoC를 채택했다. 이 업체들은 올해부터 중앙 집중형 AI 컴퓨팅 플랫폼에 기반한 소프트웨어 정의 차량을 선보일 예정이다.

엔비디아 오린을 갖춘 드라이브 하이페리온은 새로운 에너지를 활용하는 차량의 중추 신경계 및 AI 두뇌와 같은 역할을 하며, 안전하고 보안이 뛰어난 운전을 보장하는 동시에 지속적으로 향상된 최첨단 AI 기능을 제공한다.

엔비디아의 설립자이자 CEO인 젠슨 황은 “자동차의 수명 기간 동안 소프트웨어 업데이트를 통해 제공 및 향상되는 AI와 AV 기능을 통해, 미래의 자동차는 많은 임베디드 컨트롤러에서 강력한 중앙 집중식 컴퓨터로 강화되어 완전히 프로그래밍할 수 있게 될 것이다. 엔비디아 드라이브 오린은 이러한 미래를 구축하는 회사들과 함께 큰 성공을 거두고 있으며, 차세대 전기차, 로봇 택시, 셔틀 및 트럭을 위한 이상적인 AV 및 AI 엔진 역할을 하고 있다”고 말했다.

SR(NVIDIA)-11.jpg

디지털 트윈 플랫폼 

과학적 컴퓨팅을 위한 가속 디지털 트윈 플랫폼은 물리-ML 뉴럴 네트워크 모델을 개발하기 위한 엔비디아 모듈러스(Modulus) AI 프레임워크와 엔비디아 옴니버스 3D 가상 시뮬레이션 플랫폼으로 구성된다.

이 플랫폼은 물리 정보에 정통한 대화형 AI 시뮬레이션을 실시간으로 생성해 실제 세계를 정확하게 반영하며, 엔지니어링 시뮬레이션 및 설계 최적화 워크플로우를 위해 기존 방법보다 최대 10,000배 빠른 계산 유체 역학 등의 시뮬레이션을 가속화할 수 있다. 이는 연구자들로 하여금 극한 기후 현상과 같은 복잡한 시스템을 이전의 AI 모델 대비 더 빠른 속도와 정확도로 모델링할 수 있게 한다.

엔비디아는 이 기술의 적용 사례 두 가지를 소개했다. 전 세계 기상 패턴을 모방하고 허리케인과 같은 극한 기상 상황을 기존의 수치 예측 모델보다 큰 신뢰성과 최대 45,000배 고속으로 예측하는 엔비디아 포캐스트넷 물리-ML 모델과, AI를 사용하여 풍력 터빈 설계를 최적화하는 지멘스 가메사 재생 에너지 사례이다. 

엔비디아 가속 컴퓨팅 부사장 이안 벅(Ian Buck)은 “데이터 센터 규모 AI를 사용한 고속 컴퓨팅은 기후 변화 대응, 약물 발견, 재생 가능 에너지의 새로운 원천 발견 등 다양한 과제를 해결하기 위해 성능을 수백만 배까지 향상할 수 있다. 엔비디아의 AI 대응 프레임워크는 디지털 트윈의 연구자들이 중대한 문제에 대한 해결책을 찾을 수 있도록 돕는다”고 말했다.

SR(NVIDIA)-12.jpg

그레이스 CPU 슈퍼칩

엔비디아 그레이스 CPU 슈퍼칩은 NVLink®-C2C를 통해 일관성 있게 연결된 두 개의 CPU 칩으로 구성되어 있다. NVLink®-C2C는 새로운 고속, 저지연, 칩 투 칩 인터커넥트이다. 

그레이스 CPU 슈퍼칩은 지난해 발표된 엔비디아 최초의 CPU-GPU 통합 모듈인 그레이스 호퍼 슈퍼칩을 보완한다. 그레이스 호퍼 슈퍼칩은 엔비디아 호퍼 아키텍처 기반의 GPU와 함께 대규모 HPC 및 AI 애플리케이션을 지원하도록 설계되었다. 두 슈퍼칩은 NVLink와 동일한 기본 CPU 설계와 NVLink-C2C 인터커넥트를 공유한다.

엔비디아의 설립자 겸 CEO인 젠슨 황은 “새로운 유형의 데이터 센터가 등장했다. 이는 바로 대량의 데이터를 처리 및 가공해 인텔리전스를 제공하는 AI 공장이다. 그레이스 CPU 슈퍼칩은 최고의 성능, 메모리 대역폭, 엔비디아 소프트웨어 플랫폼을 하나의 칩으로 제공하여 세계 AI 인프라의 CPU로서 빛날 것”이라고 말했다.

최고의 성능을 제공하기 위해 그레이스 CPU 슈퍼칩은 144 Arm 코어를 단일 소켓에 탑재하여, SPECrate®2017_int_bas 벤치마크에서 업계 최고의 예상 성능인 740을 제공한다. 이는 현재 DGX™ A100에 탑재된 듀얼 CPU에 비해 1.5배 이상 높은 수치로, 엔비디아의 연구소에서 같은 등급의 컴파일러를 탑재한 것으로 추정된다.

또한 그레이스 CPU 슈퍼칩은 속도와 소비전력의 최적의 균형을 위해 LPDDR5x 메모리로 구성된 혁신적인 메모리 서브시스템을 통해 업계 최고의 에너지 효율과 메모리 대역폭을 제공한다. LPDDR5x 메모리 서브시스템은 기존 DDR5 설계의 2배의 대역폭을 초당 1테라바이트로 제공하며 메모리를 포함한 전체 CPU의 소비전력은 500와트에 불과하다.

SR(NVIDIA)-13.jpg

데이터 센터 네트워킹 플랫폼

세계 최초 400Gbps 엔드 투 엔드 네트워킹 플랫폼인 엔비디아 스펙트럼-4는 이전 세대보다 4배 높은 스위칭 처리량과 초당 51.2Tbps를 제공한다. 스펙트럼-4 스위치 제품군, 엔비디아 커넥트X-7 스마트NIC, NVIDIA엔비디아 블루필드-3 DPU 및 DOCA 데이터 센터 인프라 소프트웨어로 구성돼 있으며, 클라우드 컴퓨팅 애플리케이션을 규모에 맞게 확장한다. 

AI용으로 설계된 엔비디아 스펙트럼-4는 데이터 센터가 기하급수적으로 성장하면서 고성능, 높은 보안 및 가상화, 시뮬레이션을 비롯해 강력한 기능을 요구하는 상황에 적합하다. 스펙트럼-4 이더넷 플랫폼에는 이러한 기술을 구현하는데 필요한 주요 기능이 포함돼 있다.

스펙트럼-4 스위치는 나노초 수준의 타이밍 정밀도를 실현한다. 이는 일반적인 밀리초 기반의 데이터 센터에 비해 5~6배 향상된 수치이다. 또한, 이전 세대보다 포트당 대역폭이 2배 빨라지고 스위치 수가 4배 감소하며 소비전력이 40% 절감돼 네트워크 패브릭의 고속화, 심플화 및 보안을 실현할 수 있다.

스펙트럼 플랫폼을 사용하면 엔비디아 옴니버스 플랫폼에서 정확한 공간과 시간을 시뮬레이션하여 3D 설계 협업 및 시뮬레이션을 수행할 수 있으며, 스펙트럼-3 스위치 패브릭은 32개의 OVX 서버를 연결해 OVX 슈퍼 POD를 형성할 수 있게 한다. 

엔비디아 네트워킹 담당 부사장인 케빈 다이어링(Kevin Deierling)은 “옴니버스와 같은 대규모 클라우드 기술의 새로운 시대에는 데이터 센터 아키텍처의 변혁이 필요하다. 스펙트럼-4 플랫폼의 궁극적인 성능과 강력한 보안은 데이터 센터에서 실현 가능한 경계를 뛰어넘어, 사회가 필요로 하는 발견을 가능케 할 것”이라고 밝혔다. 

SR(NVIDIA)-14.jpg

leekh@seminet.co.kr
(끝)
<저작권자(c) 반도체네트워크, 무단 전재-재배포 금지>

X


PDF 다운로드

개인정보보호법 제15조에 의한 수집/이용 동의 규정과 관련하여 아래와 같이 PDF 다운로드를 위한 개인정보 수집 및 이용에 동의하십니까? 동의를 거부할 수 있으며, 동의 거부 시 다운로드 하실 수 없습니다.

이메일을 입력하면,
(1) 신규참여자 : 성명/전화번호/회사명/분야를 입력할 수 있는 입력란이 나타납니다.
(2) 기참여자 : 이메일 입력만으로 다운로드가 가능합니다.

×

회원 정보 수정