nVidia, AI 플랫폼 전반에서 텐서RT-LLM으로 젬마 성능 가속화 | 반도체네트워크

죄송합니다. 더 이상 지원되지 않는 웹 브라우저입니다.

반도체네트워크의 다양한 최신 기능을 사용하려면 이를 완전히 지원하는 최신 브라우저로 업그레이드 하셔야 합니다.
아래의 링크에서 브라우저를 업그레이드 하시기 바랍니다.

Internet Explorer 다운로드 | Chrome 다운로드

nVidia, AI 플랫폼 전반에서 텐서RT-LLM으로 젬마 성능 가속화



글/반도체네트워크 편집부 2024.02.24

nvidia.jpg

AI 컴퓨팅 기술 분야의 선두주자인 엔비디아(www.nvidia.co.kr)가 구글(Google)과 협력해 모든 엔비디아(NVIDIA) AI 플랫폼에서 AI 모델 ’젬마(Gemma)’를 위한 최적화를 실시했다고 밝혔다. 이를 통해 비용을 절감하고 도메인별 용도에 따라 작업 속도를 혁신적으로 높였다. 어디서나 실행 가능한 젬마는 구글의 새로운 경량 오픈 언어 모델로, 20억(2B) 파라미터와 70억(7B) 파라미터 크기로 제공된다. 

젬마는 구글의 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐다. 엔비디아는 구글과 긴밀히 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리이다.

이를 통해 개발자는 전 세계 고성능 AI PC에 탑재된 1억 개 이상의 엔비디아 RTX GPU를 활용할 수 있다. 개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함되며, 초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정이다. 구글은 올해 안에 이를 배포할 예정이라고 전했다.

엔비디아는 네모 프레임워크(NeMo Framework)가 적용된 엔비디아 AI 엔터프라이즈(AI Enterprise)와 텐서RT-LLM을 비롯한 광범위한 도구를 갖추고 있다. 엔터프라이즈 개발자들은 이들을 추가로 활용해 젬마를 미세 조정하고 최적화된 모델을 프로덕션 애플리케이션에 배포할 수 있다. 여기에서 개발자를 위한 추가 정보와 함께 텐서RT-LLM이 젬마의 추론을 개선하는 방법에 대해 자세히 알아볼 수 있다. 여기에는 젬마의 여러 모델 체크포인트와 FP8 정량화 버전 모델이 포함되며 모두 텐서RT-LLM으로 최적화돼 있다.

또한, 엔비디아 AI 플레이그라운드(AI Playground)를 통해 브라우저에서 직접 젬마 2B와 젬마 7B를 체험해 볼 수 있다.



nVIDIA 소개
엔비디아(NVIDIA)는 1993년 설립 이후 가속 컴퓨팅의 선구자로 자리매김했다. 1999년 GPU를 발명해 PC 게임 시장 성장에 핵심적인 역할을 했으며, 컴퓨터 그래픽을 재정의하고, 현대적 인공지능(AI) 시대의 포문을 열었다. 엔비디아는 업계를 재편하는 데이터센터 규모의 제품을 갖춘 풀스택 컴퓨팅 기업으로 거듭나고 있다. 보다 자세한 내용은 엔비디아 코리아 홈페이지(www.nvidia.co.kr) 및 엔비디아 코리아 공식 SNS에서 확인할 수 있다.
leekh@seminet.co.kr
(끝)
<저작권자(c) 반도체네트워크, 무단 전재-재배포 금지>

X


PDF 다운로드

개인정보보호법 제15조에 의한 수집/이용 동의 규정과 관련하여 아래와 같이 PDF 다운로드를 위한 개인정보 수집 및 이용에 동의하십니까? 동의를 거부할 수 있으며, 동의 거부 시 다운로드 하실 수 없습니다.

이메일을 입력하면,
(1) 신규참여자 : 성명/전화번호/회사명/분야를 입력할 수 있는 입력란이 나타납니다.
(2) 기참여자 : 이메일 입력만으로 다운로드가 가능합니다.

×

회원 정보 수정