Créditos: Nvidia

Nvidia A100 com 80GB de memória é anunciada para supercomputação de IA

Utilizando HBM2E, a placa oferece mais de 2 TB por segundo de largura de banda de memória

A Nvidia revelou a placa de vídeo Nvidia A100 80 GB. O público deste tipo de hardware, que utiliza a plataforma de supercomputação Nvidia HGX AI, consiste de pesquisadores e engenheiros. Neste lançamento, a empresa está entregando o dobro de memória em relação a sua antecessora e promete desempenho e velocidade sem precedentes para utilização na próxima onda de IA e novas descobertas científicas. 

A nova A100 utiliza 80 GB memórias HBM2E de alta largura de banda, realizando operações a mais de 2 terabytes por segundo. Esta quantidade de dados é necessária para alimentar a GPU mais rápida para data centers do mundo, permitindo que os pesquisadores aumentem ainda mais a velocidade de suas aplicações e usem conjunto de dados e modelos cada vez maiores.

"Alcançar resultados de ponta em pesquisas de HPC (high-performance computing) e IA exige a construção de maiores modelos, mas estes exigem maior capacidade de memória e largura de banda como nunca."
Bryan Catanzaro, vice-presidente de pesquisa de deep learning aplicada da Nvidia.

"Alcançar resultados de ponta em pesquisas de HPC (high-performance computing) e IA exige a construção de maiores modelos, mas estes exigem maior capacidade de memória e largura de banda como nunca."
Bryan Catanzaro, vice-presidente de pesquisa de deep learning aplicada da Nvidia.

A A100 80 GB inclui diversos recursos presentes na arquitetura Nvidia Ampere:

  • Tensor Cores de terceira geração: fornecem até 20x rendimento de IA em relação a geração Volta com um novo formato TF32, bem como 2,5x FP64 para HPC, 20x INT8 para IA e suporte ao formato BF16;
  • Memória HBM2E maior e mais rápida: dobra a capacidade de memória e é a primeira do setor a oferecer mais de 2 TB por segundo de largura de banda de memória;
  • Tecnologia MIG (Multi-Instance GPU): dobra a memória por cada uma das instâncias isoladas, permitindo até sete MIGs com 10 GB cada. Esta tecnologia permite particionar uma A100 em até 7 instâncias independentes, possibilitando um isolamento seguro para o hardware e permitindo maximizar a utilização da GPU para cargas de trabalho menores;
  • Structural Sparsity: provê uma aceleração em até 2x na capacidade de inferir modelos esparsos;
  • NVLink e NVSwitch de terceira geração: fornece o dobro da largura de banda de GPU-GPU em relação a tecnologia de geração anterior, acelerando as transferências de dados para a GPU para uso em cargas de dados intensivas a 600 gigabytes por segundo.


Créditos: Nvidia

- Continua após a publicidade -

A NVIDIA A100 80 GB estará disponível nos sistemas NVIDIA DGX A100 e NVIDIA DGX Station A100, também anunciados e com lançamento previsto ainda para este trimestre.
Empresas como Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta e Supermicro deverão passar a oferecer sistemas que utilizam placas-base integradas HGX A100 em configuração com quatro ou oito GPUs A100 de 80 GB no primeiro semestre de 2021.

.....

Está pensando em comprar algum produto online? Conheça a extensão Economize do Adrenaline para Google Chrome. Ela é gratuita e oferece a você comparativo de preços nas principais lojas e cupons para você comprar sempre com o melhor preço. Baixe agora.

Fonte: Techpowerup
Tags
  • Redator: João Cardoso

    João Cardoso

    Jogador não mais tão assíduo quanto já foi, mas que vive experiências desde o Atari 2600 e fliperamas. Começou sua jornada no mundo dos hardwares em 2004 e a partir de então começaram buscas cada vez mais aprofundadas sobre tecnologia em geral. Eterno azarado da loteria do silício.

Qual a sua marca de headphones/headsets para jogos preferida? - Pesquisa de Periféricos 2021

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.