Créditos: Divulgação: Nvidia

Nvidia divulga performance de servidores em ARM para IA no MLPerf

Arquitetura ARM entrega alta performance e eficiência energética
Por Diego Kerber 24/09/2021 14:51 | atualizado 24/09/2021 14:53 Comentários Reportar erro

A Nvidia apresentou resultados de seus testes com a ferramenta do MLPerf, um benchmark focado em inteligência artificial (AI), introduzindo pela primeira vez testes com servidores baseados em processadores ARM, acelerados por GPUs A100. Além da boa eficiência dos sistemas em arquitetura ARM comparado ao x86, também a ganhos de performance alcançados através de otimizações de software, mensuradas e dessa forma alcançadas através do uso do MLPerf.

O MLPerf é uma ferramenta de testes de aprendizado na máquina separada em diversas etapas, pois há uma grande variedade de aplicações do aprendizado da máquina. Em alguns, há uma necessidade maior de throughput - a quantidade de trabalho realizada em um certo período de tempo -  enquanto outros necessitam de latências mais baixas, não uma quantidade elevada de resultados.

Nesse cenário comparativo, os servidores baseados em ARM mostraram um nível de performance próximo ao dos sistemas baseados em x86, ambos acelerados por chips gráficos A100, baseados na tecnologia Ampere.

Abaixo temos uma comparação com outras plataformas realizando as mesmas ações, o que incluem os sistemas Qualcomm AI 100, Intel Xeon 8380 e as plataformas da Nvidia baseadas tanto no mais acessível A30 quanto nas A100, tanto com ARM e x86. São usados de referência a performance por unidade aceleradora, já que muitas dessas arquiteturas podem ser escalonadas para múltiplos aceleradores combinados, criando assim uma comparação mais justa de performance por solução.

- Continua após a publicidade -

O MLPerf busca ser uma referência para toda a indústria, com ferramentas de validação dos componentes utilizados e dos resultados alcançados de forma auditável para terceiros. Desde sua criação, a ferramenta já traz impactos positivos como a própria otimização de alguns processos, resultados que já foram publicados e disponibilizados para desenvolvedores em Machine Learning. 

Já há uma adoção por parceiros relevantes, como um total de sete OEMs disponibilizando as pontuações de 22 plataformas aceleradas por GPU na plataforma do MLPerf, incluindo nomes relevantes do mercado de servidores como Dell Technologies, Fujitsu, Hewlett Packard Enterprise, Inspur, Lenovo, Nettrix, Supermicro e o Alibaba. Porém ainda é evidente o espaço que o MLPerf ainda precisa correr para se tornar um referencial nesse mercado em expansão, com por exemplo a entrada de mais competição nesses gráficos de barras, com soluções de AMD e especialmente a Intel, que agora está entrando pesado na HPC com suas GPUs baseadas em Intel Xe.

Para quem quiser se aprofundar mais nas ferramentas da Nvidia para Aprendizado da Máquina, há mais sobre o assunto no Nvidia AI Inference Technology Overview. Mais sobre o MLPerf está disponível no site oficial da ferramenta, onde você pode ver a metodologia usada e os resultados. Quem sabe isso não anima algum competidor a dar um pulinho nesse site e tentar tirar algumas das barras verdes do topo do gráfico.

.....

Está pensando em comprar algum produto online? Conheça a extensão Economize do Adrenaline para Google Chrome. Ela é gratuita e oferece a você comparativo de preços nas principais lojas e cupons para você comprar sempre com o melhor preço. Baixe agora.

Fonte: Nvidia
  • Redator: Diego Kerber

    Diego Kerber

    Formado em Jornalismo pela Universidade Federal de Santa Catarina (UFSC), Diego Kerber é aficionado por tecnologia desde os oito anos, quando ganhou seu primeiro computador, um 486 DX2. Fã de jogos, especialmente os de estratégia, Diego atua no Adrenaline desde 2010 desenvolvendo artigos e vídeo para o site e canal do YouTube

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.