슈퍼마이크로(Supermicro)는 더 빠르고 더 큰 HBM3e 메모리를 갖춘 LLM 애플리케이션용 NVIDIA HGX H200 및 Grace Hopper Superchip의 지원으로 8-GPU, 4-GPU 및 MGX 제품 라인을 확장한다. NVIDIA HGX 8-GPU를 갖춘 혁신적인 슈퍼마이크로 수냉식 4U 서버는 랙당 컴퓨팅 밀도를 두 배로 높이고 최대 80kW/랙으로 TCO를 절감한다.
캘리포니아주 산호세 및 덴버, 2023년 11월 15일 /PRNewswire/ -- 슈퍼컴퓨팅 컨퍼런스(SC23) -- Supermicro, Inc.(NASDAQ: SMCI)는 AI, 클라우드, 스토리지, 5G/Edge를 위한 종합 IT 솔루션 제공업체로서 H200 Tensor Core GPU로 구축된 새로운 NVIDIA HGX H200에 대한 지원을 앞두고 AI 범위를 확장하고 있다. 8U 및 4U 범용 GPU 시스템을 포함하는 슈퍼마이크로의 업계 선도적인 AI 플랫폼은 HGX H200 8-GPU, 4-GPU에 즉시 사용 가능하며 NVIDIA H100 Tensor Core GPU에 비해 거의 2배에 가까운 용량과 1.4배 더 높은 대역폭의 HBM3e 메모리를 갖추고 있다. 또한 슈퍼마이크로 NVIDIA MGXTM 시스템의 가장 광범위한 포트폴리오는 곧 출시될 HBM3e 메모리를 탑재한 NVIDIA Grace Hopper Superchip을 지원한다. 전례 없는 성능, 확장성 및 안전성을 갖춘 슈퍼마이크로의 랙 규모 AI 솔루션은 계산 집약적인 생성형 AI, LLM(대형 언어 모델) 학습 및 HPC 애플리케이션의 성능을 가속화하는 동시에 점점 커지는 모델 크기에 대한 수요를 충족한다. 슈퍼마이크로는 빌딩 블록 아키텍처를 사용하여 신기술을 신속하게 시장에 출시하여 고객이 더 빨리 생산성을 높일 수 있도록 지원한다.
슈퍼마이크로는 또한 최신 슈퍼마이크로 액체 냉각 솔루션을 활용하는 액체 냉각 4U 시스템의 NVIDIA HGX H100 8-GPU 시스템을 갖춘 업계 최고 밀도의 서버를 도입하고 있다. 업계에서 가장 소형의 고성능 GPU 서버를 사용하면 데이터 센터 운영자는 단일 랙에서 사용할 수 있는 최고 성능의 AI 학습 용량을 제공하는 동시에 설치 공간과 에너지 비용을 줄일 수 있다. 최고 밀도 GPU 시스템을 통해 조직은 최첨단 액체 냉각 솔루션을 활용하여 TCO를 절감할 수 있다.
슈퍼마이크로의 사장 겸 CEO인 찰스 리앙(Charles Liang)은 "슈퍼마이크로는 AI 학습 및 HPC 애플리케이션을 위한 가장 진보된 시스템을 설계하기 위해 NVIDIA와 협력하고 있습니다."라고 말했다. 리앙은 또한 "당사의 빌딩 블록 아키텍처를 통해 당사는 최신 기술을 가장 먼저 시장에 출시할 수 있어 고객이 그 어느 때보다 빠르게 생성형 AI를 배포할 수 있습니다. 당사는 전세계 제조 시설을 통해 이러한 새로운 시스템을 고객에게 더 빠르게 제공할 수 있습니다. 900GB/s의 NVIDIA® NVLink™ 및 NVSwitch™ 고속 GPU-GPU 상호 연결과 함께 NVIDIA H200 GPU를 사용하는 이 새로운 시스템은 이제 당사의 랙 규모 AI 솔루션에서 노드당 최대 1.1TB의 고대역폭 HBM3e 메모리를 제공하여 오늘날의 LLM 및 생성형 AI를 위한 최고 성능의 모델 병렬성을 제공합니다. 또한 당사는 당사의 랙 규모 AI 솔루션의 밀도를 두 배로 늘리고 에너지 비용을 줄여 오늘날의 가속화된 데이터 센터를 위한 친환경 컴퓨팅을 달성하는 세계에서 가장 소형의 NVIDIA HGX 8-GPU 수냉식 서버를 제공하게 되어 기쁘게 생각합니다."라고 덧붙였다.
NVIDIA GPU를 탑재한 슈퍼마이크로 서버에 대해 자세히 알아보기
슈퍼마이크로는 다양한 폼 팩터를 갖춘 광범위한 AI 서버 포트폴리오를 설계하고 제조한다. 4방향 및 8방향 NVIDIA HGX H100 GPU를 갖춘 인기 있는 8U 및 4U 범용 GPU 시스템은 이제 새로운 H200 GPU에 즉시 사용이 가능하여 더 짧은 시간에 훨씬 더 큰 언어 모델을 학습할 수 있다. 각 NVIDIA H200 GPU에는 4.8TB/s의 대역폭을 갖춘 141GB의 메모리가 포함되어 있다.
NVIDIA의 HPC, AI 및 양자 컴퓨팅을 위한 데이터 센터 제품 솔루션 이사인 디온 해리스(Dion Harris)는 "NVIDIA HGX H200을 사용하는 슈퍼마이크로의 향후 서버 설계는 생성형 AI 및 HPC 워크로드를 가속화하는 데 도움이 되어 기업과 조직은 AI 인프라를 최대한 활용할 수 있습니다"라고 말했다. 해리스는 또한 "고속 HBM3e 메모리를 탑재한 NVIDIA H200 GPU는 다양한 워크로드에 대해 막대한 양의 데이터를 처리할 수 있습니다."라고 덧붙였다.
또한NVIDIA GH200 Grace Hopper Superchips를 탑재한 최근 출시된 슈퍼마이크로 MGX 서버는 NVIDIA H200 GPU와 HBM3e 메모리를 통합하도록 설계되었다.
새로운 NVIDIA GPU를 사용하면 수천억 개의 매개변수가 포함된 현재 및 미래의 대규모 언어 모델(LLM)을 더욱 작고 효율적인 클러스터에 적용하여 더 짧은 시간에 생성형 AI를 학습하고 수백만 명의 사용자에게 생성형 AI를 제공하기 위한 실시간 LLM 추론을 위해 여러 개의 대형 모델을 하나의 시스템에 맞출 수 있다.
SC23에서 슈퍼마이크로는 AI의 진화를 주도하기 위해 밀도와 효율성을 더욱 향상시키는 최신 액체 냉각 혁신 기술을 갖춘 8방향 NVIDIA HGX H100을 탑재한 4U 범용 GPU 시스템인 최신 제품을 선보이고 있다. 친환경 컴퓨팅을 위해 설계된 슈퍼마이크로의 업계 최고의 GPU 및 CPU 콜드 플레이트, CDU(냉각 분배 장치) 및 CDM(냉각 분배 매니폴드)을 갖춘 새로운 수냉식 4U 범용 GPU 시스템은 8방향 NVIDIA HGX H200에도 준비되어 있으며 이는 슈퍼마이크로의 완전 통합형 액체 냉각 랙 솔루션과 당사의 L10, L11 및 L12 검증 테스트를 통해 데이터 센터 공간, 전력 비용 및 배포 장애물을 획기적으로 줄일 것이다.
자세한 내용은 SC23의 슈퍼마이크로 부스를 참조하세요.
슈퍼마이크로컴퓨터(Super Micro Computer, Inc.) 소개
슈퍼마이크로(NASDAQ: SMCI)는 애플리케이션에 최적화된 종합 IT 솔루션 분야의 글로벌 리더입니다. 캘리포니아주 산호세에서 설립되어 운영되는 슈퍼마이크로는 엔터프라이즈, 클라우드, AI 및 5G 통신/엣지 IT 인프라를 위한 시장 혁신을 최초로 제공하기 위해 최선을 다하고 있습니다. 당사는 서버, AI, 스토리지, IoT, 스위치 시스템, 소프트웨어 및 지원 서비스를 갖춘 종합 IT 솔루션 제조업체입니다. 슈퍼마이크로의 머더보드, 전원 및 섀시 설계 전문 지식은 당사의 개발과 생산을 더욱 가능하게 하여 글로벌 고객을 위해 클라우드에서 엣지까지 차세대 혁신을 가능하게 합니다. 당사의 제품은 규모와 효율성을 위해 글로벌 운영을 활용하고 TCO를 개선하고 환경에 미치는 영향을 줄이기 위해 최적화되어(그린 컴퓨팅) 사내(미국, 아시아 및 네덜란드)에서 설계 및 제조됩니다. 수상 경력에 빛나는 Server Building Block Solutions® 포트폴리오를 통해 고객은 포괄적인 폼 팩터 세트, 프로세서, 메모리, GPU, 스토리지, 네트워킹, 전력 및 냉각 솔루션(공기 조정 장치, 자유 공기 냉각 또는 액체 냉각)을 지원하는 유연하고 재사용 가능한 빌딩 블록으로 구축된 광범위한 시스템 제품군 중에서 선택하여 정확한 워크로드 및 애플리케이션에 맞게 최적화할 수 있습니다.
Supermicro, Server Building Block Solutions 및 We Keep IT Green은 Super Micro Computer, Inc. 의 상표 및/또는 등록 상표입니다.
기타 모든 브랜드, 이름 및 상표는 해당 소유자의 자산입니다.
사진 - https://mma.prnasia.com/media2/2274161/03_2023__4U_8GPU_H200_1080.jpg?p=medium600
로고 - https://mma.prnasia.com/media2/1443241/Supermicro_Logo.jpg?p=medium600