Notícias

Nvidia divulga resultado de benchmarking da nova arquitetura Blackwell

Em comunicado enviado à imprensa nessa quarta-feira (13), a Nvidia divulgou alguns benchmarks da Blackwell, plataforma anunciada em março desse ano e cujo maior objetivo é rodar algoritmos de IA com mais velocidade e eficiência em data centers e grandes infraestruturas. A promessa da empresa é que a tecnologia acelere o desempenho de aplicações de IA generativa, inclusive no treinamento de grandes modelos de linguagem.

Os benchmarks divulgados usam a MLPerf Training 4.1, específica para medir a rapidez com que sistemas podem treinar modelos. Segundo a Nvidia, a Blackwell apresentou resultados “impressionantes” em cargas de trabalho em todos os testes – até 2,2x mais desempenho por GPU em benchmarks para grandes modelos, incluindo Llama 2 70B (da Meta) e GPT-3 175B (OpenAI).

Leia também: Visa usa ciências de dados para aprimorar programa de benefícios

É o primeiro envio de treinamento da plataforma Blackwell para o MLCommons Consortium, criadora da MLPerf. O consórcio cria testes padronizados e revisados por pares para indústrias do setor.

“Esse resultado reafirma o compromisso que a NVIDIA tem em oferecer uma plataforma de computação acelerada e com alto desempenho, que atende diversas demandas com precisão. Nosso trabalho permite que clientes e parceiros aproveitem ao máximo toda tecnologia disponível em nossa plataforma”, diz em comunicado Marcio Aguiar, diretor da divisão Enterprise da Nvidia para a América Latina.

Mais resultados

Segundo a Nvidia, a arquitetura da Blackwell inclui novos kernels que fazem uso mais eficiente dos Tensor Cores, como a empresa chama os núcleos de processamento específicos para IA. Kernels são operações matemáticas criadas para fins específicos, como multiplicações de matrizes, que estão no centro de muitos algoritmos de deep learning.

A maior taxa de transferência de computação por GPU da Blackwell e a memória de alta largura de banda prometem usar menos GPUs por carga. Aproveitando a memória HBM3e, 64 GPUs Blackwell foram executadas no benchmark GPT-3 LLM sem comprometer o desempenho por GPU, segundo os testes. O mesmo benchmark usando o Hopper (arquitetura anterior da empresa) precisou de 256 GPUs para o mesmo desempenho.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

2 semanas ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

2 semanas ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

2 semanas ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

2 semanas ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

2 semanas ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

2 semanas ago