Créditos: Nvidia

Nvidia A100 com 80GB de memória é anunciada para supercomputação de IA

Utilizando HBM2E, a placa oferece mais de 2 TB por segundo de largura de banda de memória

A Nvidia revelou a placa de vídeo Nvidia A100 80 GB. O público deste tipo de hardware, que utiliza a plataforma de supercomputação Nvidia HGX AI, consiste de pesquisadores e engenheiros. Neste lançamento, a empresa está entregando o dobro de memória em relação a sua antecessora e promete desempenho e velocidade sem precedentes para utilização na próxima onda de IA e novas descobertas científicas. 

A nova A100 utiliza 80 GB memórias HBM2E de alta largura de banda, realizando operações a mais de 2 terabytes por segundo. Esta quantidade de dados é necessária para alimentar a GPU mais rápida para data centers do mundo, permitindo que os pesquisadores aumentem ainda mais a velocidade de suas aplicações e usem conjunto de dados e modelos cada vez maiores.

"Alcançar resultados de ponta em pesquisas de HPC (high-performance computing) e IA exige a construção de maiores modelos, mas estes exigem maior capacidade de memória e largura de banda como nunca."
Bryan Catanzaro, vice-presidente de pesquisa de deep learning aplicada da Nvidia.

"Alcançar resultados de ponta em pesquisas de HPC (high-performance computing) e IA exige a construção de maiores modelos, mas estes exigem maior capacidade de memória e largura de banda como nunca."
Bryan Catanzaro, vice-presidente de pesquisa de deep learning aplicada da Nvidia.

A A100 80 GB inclui diversos recursos presentes na arquitetura Nvidia Ampere:

  • Tensor Cores de terceira geração: fornecem até 20x rendimento de IA em relação a geração Volta com um novo formato TF32, bem como 2,5x FP64 para HPC, 20x INT8 para IA e suporte ao formato BF16;
  • Memória HBM2E maior e mais rápida: dobra a capacidade de memória e é a primeira do setor a oferecer mais de 2 TB por segundo de largura de banda de memória;
  • Tecnologia MIG (Multi-Instance GPU): dobra a memória por cada uma das instâncias isoladas, permitindo até sete MIGs com 10 GB cada. Esta tecnologia permite particionar uma A100 em até 7 instâncias independentes, possibilitando um isolamento seguro para o hardware e permitindo maximizar a utilização da GPU para cargas de trabalho menores;
  • Structural Sparsity: provê uma aceleração em até 2x na capacidade de inferir modelos esparsos;
  • NVLink e NVSwitch de terceira geração: fornece o dobro da largura de banda de GPU-GPU em relação a tecnologia de geração anterior, acelerando as transferências de dados para a GPU para uso em cargas de dados intensivas a 600 gigabytes por segundo.


Créditos: Nvidia

- Continua após a publicidade -

A NVIDIA A100 80 GB estará disponível nos sistemas NVIDIA DGX A100 e NVIDIA DGX Station A100, também anunciados e com lançamento previsto ainda para este trimestre.
Empresas como Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta e Supermicro deverão passar a oferecer sistemas que utilizam placas-base integradas HGX A100 em configuração com quatro ou oito GPUs A100 de 80 GB no primeiro semestre de 2021.

Fonte: Techpowerup
Tags
  • Redator: João Cardoso

    João Cardoso

    Jogador não mais tão assíduo quanto já foi, mas que vive experiências desde o Atari 2600 e fliperamas. Começou sua jornada no mundo dos hardwares em 2004 e a partir de então começaram buscas cada vez mais aprofundadas sobre tecnologia em geral. Eterno azarado da loteria do silício.

Um dos maiores hypes dos games chegou. Como você vai em Cyberpunk 2077

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.