NAvegue pelos canais

PR Newswire Brasil

Supermicro Expande Soluções de IA com Futuras Plataformas NVIDIA HGX H200 e MGX Grace Hopper com Memória HBM3e

AGÊNCIA DE COMUNICAÇÃO Conteúdo de responsabilidade da empresa 13 de novembro de 2023

PR NEWSWIRE

A Supermicro amplia linhas de produtos de 8 GPU, 4 GPU e MGX com suporte para Superchip NVIDIA HGX H200 e Grace Hopper para aplicações de LLM com memória HBM3e maior e mais rápida – Novo servidor inovador Supermicro Liquid Cooled 4U com NVIDIA HGX 8 GPUs dobra a densidade de computação por rack e até 80 kW/rack, reduzindo o TCO

SAN JOSÉ, Califórnia, e DENVER, 13 de novembro de 2023 /PRNewswire/ — Supercomputing Conference (SC23) — Supermicro, Inc. (NASDAQ: SMCI), um provedor total de soluções de TI para IA, nuvem, armazenamento e 5G/Edge, está expandindo seu alcance de IA com o próximo suporte para o novo NVIDIA HGX H200 construído com GPUs H200 Tensor Core. As plataformas de IA líderes do setor da Supermicro, incluindo sistemas de GPU universais 8U e 4U, estão prontas para o HGX H200 8-GPU, 4-GPU com capacidade quase 2x e memória HBM3e de largura de banda 1,4x maior quando comparada com GPU NVIDIA H100 Tensor Core. Além disto, o portfólio mais amplo dos sistemas da Supermicro NVIDIA MGXTM  suporta o próximo Superchip NVIDIA Grace Hopper com memória HBM3e. Com desempenho, escalabilidade e confiabilidade sem precedentes, as soluções de IA de rack em escala da Supermicro aceleram o desempenho de IA generativa computacionalmente intensiva, treinamento de modelo de linguagem grande (LLM) e aplicações de HPC, enquanto atendem às demandas em evolução de crescentes tamanhos de modelos. Usando a arquitetura de blocos de construção, a Supermicro pode trazer novas tecnologias ao mercado com rapidez, permitindo que clientes se tornem mais produtivos antes.

Supermicro 4U 8GPU H200 (PRNewsFoto/Super Micro Computer, Inc.)

A Supermicro também está lançando o servidor de maior densidade do setor com sistemas NVIDIA HGX H100 de 8 GPUs em um sistema 4U com refrigeração líquida, utilizando a mais recente solução de refrigeração líquida da Supermicro. O servidor GPU de alto desempenho mais compacto do setor permite que os operadores de centrais de dados reduzam o espaço ocupado e custos de energia, enquanto oferece a capacidade de treinamento de IA de mais alto desempenho disponível em um único rack. Com os sistemas de GPU de maior densidade, as organizações podem reduzir seu TCO ao aproveitar soluções de refrigeração líquida de ponta.

“A Supermicro faz parceria com a NVIDIA para criar os mais avançados sistemas para treinamento de IA e aplicações de HPC”, disse Charles Liang, Presidente e Diretor Executivo da Supermicro. “Nossa arquitetura de blocos de construção nos permite ser os primeiros a comercializar a mais recente tecnologia, permitindo que os clientes implantem IA generativa mais rápido do que nunca. Podemos entregar estes novos sistemas aos clientes com mais rapidez com nossas instalações de produção em todo o mundo. Os novos sistemas, usando a GPU NVIDIA H200 com interconexões GPU-GPU de alta velocidade NVIDIA® NVLink™ e NVSwitch™ a 900GB/s, agora fornecem até 1,1TB de memória HBM3e de alta largura de banda por nó em nossas soluções de IA de rack em escala para oferecer o mais alto desempenho de paralelismo de modelo para LLMs e IA generativa de hoje. Também estamos empolgados em oferecer o servidor NVIDIA HGX de 8 GPUs com refrigeração líquida mais compacto do mundo, que duplica a densidade de nossas soluções de IA de rack em escala e reduz os custos de energia, a fim de obter a computação ecológica para centrais de dados aceleradas atualmente.”

Saiba mais sobre os servidores Supermicro com GPUs NVIDIA

A Supermicro projeta e fabrica um amplo portfólio de servidores de IA com diferentes fatores de forma. Os populares sistemas de GPU universal 8U e 4U com GPUs NVIDIA HGX H100 de 4 e 8 vias agora estão prontos para que as novas GPUs H200 treinem modelos de linguagem ainda maiores em menos tempo. Cada GPU NVIDIA H200 contém 141 GB de memória com largura de banda de 4,8 TB/s.

“Os próximos projetos de servidores da Supermicro usando NVIDIA HGX H200 ajudarão a acelerar cargas de trabalho generativas de IA e HPC, para que empresas e organizações possam aproveitar ao máximo sua infraestrutura de IA”, disse Dion Harris, Diretor de Soluções de Produtos de Centrais de Dados para HPC, IA e Computação Quântica no NVIDIA. “A GPU NVIDIA H200 com memória HBM3e de alta velocidade será capaz de lidar com grandes quantidades de dados para diversas cargas de trabalho.”

Além disto, os servidores Supermicro MGX recentemente lançados com Superchips NVIDIA GH200 Grace Hopper são projetados para incorporar o GPU NVIDIA H200 com memória HBM3e.

Os novos GPUs NVIDIA permitem a aceleração dos grandes modelos de linguagem (LLMs) atuais e futuros com centenas de bilhões de parâmetros para encaixar em grupos mais compactos e eficientes, a fim de treinar IA generativa em menos tempo e também permitir que diversos modelos maiores se encaixem em um sistema para inferência LLM em tempo real, que sirva IA generativa a milhões de usuários.

Na SC23, a Supermicro apresenta a mais recente oferta, um sistema de GPU universal 4U apresentando o NVIDIA HGX H100 de 8 vias com suas mais recentes inovações de refrigeração líquida que aprimoram ainda mais a densidade e a eficiência para impulsionar a evolução da IA. Com as placas frias de GPU e CPU líderes do setor da Supermicro, CDU (unidade de distribuição de refrigeração) e CDM (coletor de distribuição de refrigeração) projetados para computação ecológica, o novo sistema de GPU universal 4U com refrigeração líquida também está pronto para o NVIDIA HGX H200 de 8 vias, que irá reduzir drasticamente o espaço ocupado pelas centrais de dados, o custo de energia e os obstáculos de implantação através de soluções de rack de refrigeração líquida totalmente integradas da Supermicro e de nossos testes de validação L10, L11 e L12.

Para mais informação, visite o estande da Supermicro na SC23

Sobre a Super Micro Computer, Inc.

Supermicro (NASDAQ: SMCI) é líder mundial em soluções totais de TI otimizadas para aplicativos. Fundada e operando em San José, Califórnia, a Supermicro está comprometida em fornecer inovação pioneira no mercado para infraestrutura de TI empresarial, nuvem, IA e 5G Telco/Edge. Somos um fabricante de soluções totais de TI com servidores, IA, armazenamento, IoT, sistemas de comutação, software e serviços de suporte. A experiência em design de placas-mãe, energia e chassis da Supermicro permite que nosso desenvolvimento e produção seja ainda maior, ao possibilitar inovação de última geração, desde a nuvem até a borda, a nossos clientes internacionais. Nossos produtos são projetados e fabricados internamente (nos EUA, Taiwan e Países Baixos), aproveitando as operações mundiais para obter escala e eficiência, sendo otimizados para melhorar o TCO e reduzir o impacto ambiental (Computação Ecológica). O premiado portfólio Server Building Block Solutions® permite que os clientes otimizem sua carga de trabalho e aplicação exatas, ao selecionar entre uma ampla família de sistemas construídos a partir de nossos blocos de construção flexíveis e reutilizáveis, os quais suportam um conjunto abrangente de soluções de fatores de forma, processadores, memória, GPUs, armazenamento, rede, energia e refrigeração (ar condicionado, refrigeração ao ar livre ou refrigeração líquida).

Supermicro, Server Building Block Solutions e We Keep IT Green são marcas comerciais ou marcas registradas da Super Micro Computer, Inc. 

Todas as outras marcas, nomes e marcas registradas são propriedade de seus respectivos proprietários.

(PRNewsfoto/Super Micro Computer, Inc.)

Foto – https://mma.prnewswire.com/media/2274161/03_2023__4U_8GPU_H200_1080.jpg
Logo – https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg 

 

 

FONTE Super Micro Computer, Inc.

A OESP não é(são) responsável(is) por erros, incorreções, atrasos ou quaisquer decisões tomadas por seus clientes com base nos Conteúdos ora disponibilizados, bem como tais Conteúdos não representam a opinião da OESP e são de inteira responsabilidade da PR Newswire Ltda

Encontrou algum erro? Entre em contato

Compartilhe