Créditos: TechPowerUp

AMD anuncia as arquiteturas CDNA e CDNA2 para GPUs profissionais

Essa arquitetura é usada como complemento a RDNA, sem algumas funções
Por Ana Luiza Pedroso 10/03/2020 09:20 | atualizado 10/03/2020 09:20 Comentários Reportar erro

A AMD realizou o seu evento Financial Analyst Day de 2020 dia 5 de março, e nele divulgou novidades para os próximos anos. Outra inovação que a empresa está trazendo para este ano é a CDNA. Ele será usado como complemento para a arquitetura RDNA orientada a gráficos da empresa, que também foi confirmada na segunda versão, RDNA 2.

Essa tecnologia é usada principalmente pelos clientes da linha Radeon Instinct, como Data Centers e HPCs. O CDNA remove alguns dos recursos presentes no RDNA. Isso porque não há utilidade para diversas renderização gráfica da GPU para esse tipo de público. A AMD remove o hardware gráfico raster, os mecanismos de exibição e multimídia e outros componentes associados. Assim, é possível economizar quantidades significativas de área da matriz.

Durante a apresentação, a empresa confirmou que vai apresentar a sua primeira GPU CDNA baseada no processo 7nm em 2020. Ela será uma unidade de computação rival da IPC, com RDNA, e hardware tensor que acelera a construção e o treinamento do AI DNN.

A empresa ainda fala que apresentará sua arquitetura CDNA2 entre 2021 e 2022, mencionando que será em um "processo avançado". Isso pode indicar uma mudança na litografia, que pode tanto ser 7nm ++, como também 5nm. A própria AMD não confirma a informação por ainda estar trabalhando no seu desenvolvimento. Apesar disso, parece estar confiante que até  2022 conseguirá apresentar ainda mais novidades.

- Continua após a publicidade -

Além de aumentar o IPC, o foco do CDNA2 será a hiperescalabilidade. Isso significa que a capacidade de escalar GPUs em vastos conjuntos de memória. Segundo a própria empresa, ela irá  usar sua interconexão de terceira geração Infinity Fabric e memória unificada coerente em cache para tornar a tecnologia possível.

O Infinity Fabric 3.0 oferece suporte a conjuntos de memórias compartilhadas entre CPUs e GPUs, assim como o Compute eXpress Link (CXL) da Intel e o PCI-Express gen 5.0 da Nvidia. Isso possibilita que a escalabilidade consiga ser feita, de forma ainda mais intensa pelos supercomputadores, chamados de "El Capitan" pela AMD. A memória unificada coerente do cache não faz transferências desnecessárias de dados entre a memória DRAM anexada à CPU, nem ao HBM anexado à GPU. 

Os núcleos da CPU tem acesso direto a vários estágios de computação serial de uma operação de computação da GPU. O que faz com que a comunicação possa ser feita de forma direta com o HBM conectado à GPU, sem precisar resgatar dados para sua própria memória principal. O principal efeito é a redução do número de entradas e saídas realizadas.

Como software, a AMD usa a infraestrutura mais recente do código aberto ROCm. Ele consegue fornecer um modelo de programação unificado, assim como o OneAPI da Intel e o Nvidia CUDA. Nele está instalada uma API independente de plataforma, que é compatível com qualquer GPU. O que significa que é implementada uma camada de tradução CUDA para HIP.

Via: TechPowerUp
Tags
amd
  • Redator: Ana Luiza Pedroso

    Ana Luiza Pedroso

Você quer processadores da AMD com gráficos integrados

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.