엔비디아, HGX H200 출시…추론 속도 더욱 가속화 | 반도체네트워크

죄송합니다. 더 이상 지원되지 않는 웹 브라우저입니다.

반도체네트워크의 다양한 최신 기능을 사용하려면 이를 완전히 지원하는 최신 브라우저로 업그레이드 하셔야 합니다.
아래의 링크에서 브라우저를 업그레이드 하시기 바랍니다.

Internet Explorer 다운로드 | Chrome 다운로드

엔비디아, HGX H200 출시…추론 속도 더욱 가속화



글/반도체네트워크 편집부 2023.11.16

H200.jpg

AI 컴퓨팅 기술 분야의 선두주자인 엔비디아가 엔비디아(NVIDIA) HGX™ H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼(Hopper™) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU(H200 Tensor Core GPU)를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리할 수 있다. 이번 HGX H200 출시로 세계 최고 AI 컴퓨팅 플랫폼을 가속화할 수 있을 것으로 기대된다.

엔비디아 H200은 HBM3e를 제공하는 최초의 GPU이다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트(Terabytes)의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다.

세계 유수 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시될 예정이다.

엔비디아 하이퍼스케일과 HPC 담당 부사장인 이안 벅(Ian Buck)은 "생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의 빠른 GPU 메모리를 통해 방대한 양의 데이터를 빠르고 효율적으로 처리해야 한다. 업계 최고의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼인 엔비디아 H200을 통해 세계에서 가장 중요한 과제를 해결할 수 있는 속도가 더욱 빨라졌다"고 말했다.

끊임없는 혁신과 지속적인 성능 도약

엔비디아 호퍼 아키텍처는 이전 버전에 비해 전례 없는 성능 도약을 제공한다. 최근 출시된 엔비디아 텐서RT™-LLM(TensorRT™-LLM)과 같은 강력한 오픈 소스 라이브러리를 비롯해 H100의 지속적인 소프트웨어 개선을 통해 계속해서 기준을 높여가고 있다.

H200 도입으로 700억 개의 파라미터를 보유한 LLM인 라마 2(Llama 2)의 추론 속도가 H100에 비해 거의 두 배로 빨라질 것으로 예상된다. 또한 향후 소프트웨어 업데이트를 통해 H200의 추가적인 성능 리더십과 개선이 기대된다.

엔비디아 H200 폼 팩터

엔비디아 H200은 4개(four-way)와 8개(eight-way) 구성의 엔비디아 HGX H200 서버 보드에서 사용할 수 있으며, HGX H200 시스템의 하드웨어와 소프트웨어와 모두 호환된다. 또한 8월 발표된 HBM3e를 탑재한 엔비디아 GH200 그레이스 호퍼™ 슈퍼칩(GH200 Grace Hopper™ Superchip)이 포함된다.

이러한 선택 사항을 통해 H200은 온프레미스(on-premises), 클라우드, 하이브리드 클라우드와 엣지를 비롯한 모든 유형의 데이터센터에 배포할 수 있다. 또한 엔비디아 글로벌 파트너 서버 제조업체 에코시스템은 기존 시스템을 H200로 업데이트할 수 있다. 파트너사로는 애즈락랙(ASRock Rack), 에이수스(ASUS), 델 테크놀로지스(Dell Technologies), 에비덴(Eviden), 기가바이트(GIGABYTE), 휴렛팩커드 엔터프라이즈(Hewlett Packard Enterprise), 인그라시스(Ingrasys), 레노버(Lenovo), QCT, 슈퍼마이크로(Supermicro), 위스트론(Wistron)과 위윈(Wiwynn) 등이 포함된다.

아마존웹서비스(Amazon Web Services), 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure)와 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure)는 내년부터 코어위브(CoreWeave), 람다(Lambda), 벌쳐(Vultr)에 이어 H200 기반 인스턴스를 배포하는 최초의 클라우드 서비스 제공업체 중 하나가 될 것이다. 

HGX H200은 엔비디아 NV링크™(NVLink)와 NV스위치™(NVSwtich™) 고속 인터커넥트를 기반으로 한다. 1,750억 개 이상의 파라미터가 포함된 대규모의 모델에 대한 LLM 훈련과 추론 등 다양한 애플리케이션 워크로드에서 최고의 성능을 제공한다.

8개 방식으로 구동되는 HGX H200은 32페타플롭(Petaflops) 이상의 FP8 딥 러닝 컴퓨팅과 총 1.1TB의 고대역폭 메모리를 제공한다. 이를 통해 생성형 AI와 HPC 애플리케이션에서 최고의 성능을 발휘한다.

H200을 초고속 NV링크-C2C 인터커넥트를 갖춘 엔비디아 그레이스 CPU와 결합하면 GH200 그레이스 호퍼 슈퍼칩을 만들 수 있다. 여기에는 대규모 HPC와 AI 애플리케이션을 지원하도록 설계된 통합 모듈인 HBM3e가 포함된다.

엔비디아 풀스택 소프트웨어로 AI 가속화

엔비디아 가속 컴퓨팅 플랫폼은 개발자와 기업이 AI에서 HPC에 이르기까지 즉시 생산이 가능한 애플리케이션을 구축하고 가속화할 수 있는 강력한 소프트웨어 도구로 지원된다. 여기에는 음성, 추천 시스템, 하이퍼스케일 추론과 같은 워크로드를 위한 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 제품군이 포함된다.

가용성

엔비디아 H200은 2024년 2분기부터 글로벌 시스템 제조업체와 클라우드 서비스 제공업체에서 구매할 수 있다.


nVIDIA 소개
엔비디아(NVIDIA)는 1993년 설립 이후 가속 컴퓨팅의 선구자로 자리매김했다. 1999년 GPU를 발명해 PC 게임 시장 성장에 핵심적인 역할을 했으며, 컴퓨터 그래픽을 재정의하고, 현대적 인공지능(AI) 시대의 포문을 열었다. 엔비디아는 업계를 재편하는 데이터센터 규모의 제품을 갖춘 풀스택 컴퓨팅 기업으로 거듭나고 있다. 보다 자세한 내용은 엔비디아 코리아 홈페이지(www.nvidia.co.kr) 및 엔비디아 코리아 공식 SNS에서 확인할 수 있다.
leekh@seminet.co.kr
(끝)
<저작권자(c) 반도체네트워크, 무단 전재-재배포 금지>

X


PDF 다운로드

개인정보보호법 제15조에 의한 수집/이용 동의 규정과 관련하여 아래와 같이 PDF 다운로드를 위한 개인정보 수집 및 이용에 동의하십니까? 동의를 거부할 수 있으며, 동의 거부 시 다운로드 하실 수 없습니다.

이메일을 입력하면,
(1) 신규참여자 : 성명/전화번호/회사명/분야를 입력할 수 있는 입력란이 나타납니다.
(2) 기참여자 : 이메일 입력만으로 다운로드가 가능합니다.

×

회원 정보 수정