Créditos: Divulgação: Nvidia

Nvidia vence em todos os testes do MLPerf, focado em inteligência artificial

Recordes foram alcançados com o A100, GPU aceleradora para HPC
Por Diego Kerber 21/10/2020 18:56 | atualizado 21/10/2020 18:56 Comentários Reportar erro

A Nvidia divulgou novos recordes de performance em processamento de inteligência artificial em sua plataforma Nvidia A100. Os testes foram realizados através da metodologia do MLPerf, um benchmark independente com a participação de múltiplas empresas referência na área de data centers e sistemas computacionais.

O hardware da Nvidia ficou no topo em todas as seis áreas de aplicação cobertas pelos parâmetros comparativos. Os testes vão além dos dois originais para visão computacional, cobrindo também as quatro áreas de IA com crescimento mais rápido: sistemas de recomendação, compreensão de linguagem natural, reconhecimento de fala e imagens médicas.

Essas áreas estão se tornando cada vez mais críticas na medida que mais serviços agregam funções como antecipar demandas dos consumidores, realizar atendimentos automatizados, fazer diagnósticos de imagens médicas com mais rapidez e precisão, entre outros.

A Nvidia anunciou também que pela primeira vez as GPUs Nvidia entregam mais inferências em AI na computação em nuvem no mundo. De acordo com a empresa, a capacidade total dos hardwares da empresa presentes no mercado tem crescido em uma proporção de 10x a cada dois anos.

- Continua após a publicidade -

Essa não é a primeira vez que a Nvidia A100 aparece batendo recordes em testes sintéticos. A placa é a primeira a introduzir a microarquitetura Ampere entre os produtos da empresa, que mais tarde seriam incorporados a linha GeForce com as RTX 30. A A100 foi a primeira a operar com o PCIe 4.0 dentro do line-up da empresa, e utiliza uma litografia em 7 nanômetros.

Como se trata de um hardware para High Performance Computing (HPC), ela traz algumas especificações impressionantes como 40GB de memória HBM2, configuração que é muito custosa para uma placa doméstica mas que é crucial para atingir o alto nível de desempenho nesses cenários usados nos testes do MLPerf. 

Outro diferencial importante da A100 é escalonabilidade, algo muito visível no Nvidia DGX A100. Esse sistema para AI é equipado com nada menos que 8 GPUs A100 se comunicando por 12 canais NVLink, com um total de 320GB de memória HBM. Isso resulta, de acordo com as estimativas da Nvidia, na performance de 1000 processadores de servidor em uma única unidade do DGX A100.

Fonte: Blog Nvidia
  • Redator: Diego Kerber

    Diego Kerber

    Formado em Jornalismo pela Universidade Federal de Santa Catarina (UFSC), Diego Kerber é aficionado por tecnologia desde os oito anos, quando ganhou seu primeiro computador, um 486 DX2. Fã de jogos, especialmente os de estratégia, Diego atua no Adrenaline desde 2010 desenvolvendo artigos e vídeo para o site e canal do YouTube

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.