ANÁLISE: Nvidia GeForce GTX 580

ANÁLISE: Nvidia GeForce GTX 580

É com imensa satisfação que apresentamos em primeiríssima mão, em carÁter super exclusivo à comunidade brasileira, a review da GeForce GTX 580!

Pertencente à família Fermi, a GTX 580 é baseada no chip GF110, que, conforme veremos no decorrer desta review, trata-se de uma versão baseada no GF100, com alguns refinamentos.

A NVIDIA conseguiu guardar a sete chaves os detalhes do chip, uma vez que foram raras as informações vazadas pela web, sendo que a imensa maioria dos rumores acabaram não se confirmando.

A GeForce GTX 580 chega em um momento crucial para a NVIDIA, jÁ que ela tem a indigesta tarefa de competir com as novas Radeons 6900 da ATi, sobretudo com a 6970, placas que, embora ainda não tenham sido lançadas, herdam toda a fama e prestígio da geração anterior Evergreen.


Modelo de referência da NVIDIA

Levando-se em conta tudo o que se sabe até o momento da linha Cayman (Radeon 6900), ainda mais se considerarmos o percentual de ganho ocorrido da 6800 para a 5700, é muito provÁvel que a NVIDIA consiga repetir o feito com a GTX 580, isto é, conquistar a façanha de possuir a VGA single GPU mais poderosa do mercado. Entretanto, a ATi guarda um trunfo nas mangas: a Antilles, também conhecida como Radeon HD 6990, e que contarÁ com duas GPUs Cayman. HÁ rumores de que a NVIDIA poderia ainda lançar no futuro uma placa 3D equipada com dois chips Fermi, mas apenas o tempo poderÁ nos dizer. O fato é que a disputa pelo título da "Rainha das VGAs" terÁ mais um round pela frente. E que vença a melhor!

A geração Fermi estÁ nitidamente sustentada em duas pilastras: alto poder de processamento e suporte às novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision, CUDA e o novo modo de filtro 32xCSAA (Coverage Sampling Antialiasing), sendo oito do tipo "multisamples" e 24 "coverage samples".

Outro destaque da GeForce GTX 580 estÁ na significativa evolução do GF110. Embora baseado no GF100, o chip recebeu aprimoramentos em sua arquitetura, tornando-se muito mais eficiente em termos de desempenho x consumo de energia. Para se ter ideia, o GF110, além de ser significativamente mais veloz que o GF100, possui ainda um consumo inferior ao seu "irmão mais velho"! E estamos falando em um chip com a mesma litografia em 40nm.

{break::Arquitetura GF110}O GF100 foi sem dúvida para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje: o conceito de grÁficos unificados e computação paralela.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

Conforme mencionado no início desta review, o GF110 é uma versão baseada e aprimorada do GF100. Podemos dizer que os engenheiros da NVIDIA tiraram "leite de pedra" da arquitetura Fermi. Graças a toda uma nova reengenharia pelo que passou o chip, com a utilização de transistores com menos perda de energia e dispostos em um novo arranjo físico, a GeForce GTX 580 conseguiu um maior desempenho com menor consumo que a GTX 480. (244W contra 250W).

- Continua após a publicidade -

Abaixo alguns pontos-chaves da arquitetura Fermi:

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização de forma segura, de uma grande quantidade de GPUs em Data Centers, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso "poder de fogo", trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

- Continua após a publicidade -

Na verdade, o que a NVIDIA fez foi aperfeiçoar o GF100, de tal forma que fosse possível disponibilizar um chip com todo o poder da arquitetura Fermi, ou seja, com todos os 512 CUDA Cores ativos sem, no entanto, comprometê-lo com o consumo de energia e dissipação de calor. Com a mesma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados) e os mesmos três bilhões de transistores em uma Área aproximada de 530mm2 - portanto idêntica ao GF100 - o GF110 teve ainda o benefício de herdar um amadurecimento no processo de fabricação – algo semelhante à atualização de stepping por que passa um processador, mantendo as mesmas características bÁsicas, como o clock, mas com um menor TDP (consumo de energia).


Como pode ser visto acima na estrutura de processamento "host interface" (responsÁvel por gerenciar os comandos do processador), hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de quatro GPCs (Graphics Processing Clusters), seis controladores de memória, partições ROPs e cache L2 com 768KB. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui quatro unidades de Streaming Multiprocessor (SMs) que, por sua vez, são preenchidas por 32 CUDA Cores. Desta forma, a GF110 é composta por 512 Shaders Processors (4 GPCs x 4 SMs x 32 CUDA Cores).

Em relação à quantidade de unidades de rasterização, a GF110 possui os mesmos 48 ROPs da GF100. Isso ocorre porque essas unidades estão arranjadas em um bloco funcional separado dos Stream Processors. Em se tratando das unidades de texturização das memórias, a GeForce GTX 580 tem 64 TMUs contra 60 da GTX 480. Esse aumento deu-se novamente em virtude da ampliação na quantidade de unidades de Stream Processors de 15 para 16, uma vez que cada SM conta com quatro TMUs, ou seja: 15 SMs x 4 TMUs = 60 TMUs (GF100) contra 16 SMs x 4 TMUs = 64 TMUs (GF110).

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existe de "última palavra" em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 512 CUDA Cores consistem em unidades de despachos, coletores de operações, duas unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.



Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi poder ser vista como a mais eficiente em se tratando de unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 32 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SM possui ainda quatro TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU.

Eis aqui um dos principais pontos geradores de discussão pela a web. A AMD possui uma abordagem diferente da NVIDIA quanto à utilização do Tessellation, afirmando que o uso em demasiado do recurso degrada sobremaneira a performance das VGAs sem, no entanto, trazer melhoras visuais perceptíveis. Enquanto isso, a NVIDIA adota uma posição contrÁria, dizendo que quanto maior a utilização do Tess, maior serÁ a qualidade das imagens.

- Continua após a publicidade -

Ao que parece, não se trata de quem estÁ com a razão, mas sim, quem estÁ puxando a "sardinha para a sua brasa". Pelo visto, cada empresa estÁ defendendo o seu ponto de vista de acordo com os seus interesses, ou melhor, com os pontos fortes de suas placas. É fato que as GeForces da geração Fermi se saem muito melhor que as Radeons da geração Evergreen (série 5000) em se tratando de Tessellation. O segredo estÁ na arquitetura de cada VGA. Enquanto as Radeons 5000 contam com apenas uma única unidade de processamento dedicada ao Tess, a NVIDIA equipou as novas GeForces com um conjunto de vÁrias unidades, como é o caso da GeForce GTX 580, que conta com um total de 16 Polymorph Engines. Apesar de a AMD ter aprimorado a unidade de processamento do Tessellation nas Northern Islands (Radeons 6000), prometendo ganho de até 100% sobre as 5000, ainda assim, o fato destas contarem com apenas uma unidade é fator decisivo em favor das GeForces - pelo menos em relação ao uso intensivo do Tesselletion.

Apesar de utilizar a mesma configuração Streaming Multiprocessor da GTX 480, a GeForce GTX 580 recebeu dois aprimoramentos chaves na arquitetura como forma de trazer mais performance. Para começar, a GTX 580 suporta agora toda a velocidade do filtro de textura FP16, o que acelera o processamento de certas aplicações/imagens com muitas texturas. Outra melhoria foi a adição do suporte a novos formatos de polígonos que aprimoram a eficiência do Z-cull. De acordo com a NVIDIA, essas "simples" novidades aprimoraram o desempenho da placa em 5% no Metro 2033 e Heaven 2.1, 6% no HAWX e Crysis Warhead, 10% no NFS: Shift, 13% em DiRT 2 e 14% no 3DMark, só para citar alguns.

Assim como o GF100, o GF110 suporta o filtro de antialiasing modo 32x CSAA (8+24x), com 33 níveis de transparência, com expressivo ganho de desempenho sobre a GT200. O melhor de tudo é que, segundo a NVIDIA, a degradação da performance serÁ muito pouca em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma prova, seguindo o pensamento de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 768KB de L2. Tratam-se de números interessantes. Enquanto a NVIDIA foi em uma direção (colocando mais memória L1 do que L2), a ATi seguiu justamente um caminho oposto, equipando a linha Evergreen com mais cache L2 do que L1.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante do que chega o L2.

Ainda dentro do assunto memória, a arquitetura da Fermi é composta de seis partições de 64 bits, resultando assim em um total de 384 bits de interface de memória! Ao todo, a Fermi é capaz de suportar até 6GB de VRAM, embora a GTX 580 conte com "apenas" 1,5GB.



{break::Os recursos da GTX 580}Abaixo, um resumo das principais especificações da GeForce GTX 580.


• Três bilhões de transistores;
• "Segunda geração" da litografia em 40 nm;
• Área do die (estimado): 530mm2;
• Frequência de operação das texturas e ROPs (GPU): 772MHz;
• 512 CUDA cores/shader processors;
• Frequência de operação dos CUDA cores: 1544MHz;
• Frequência de operação das memórias: 4008MHz (GDDR5);
• Quantidade de memória: 1.5GB;
• Interface de memória: 384bits;
• Consumo de energia/TDP: mÁximo de 244 watts;
• Limiar térmico da GPU em 97° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.3a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM);
- 32 CUDA cores por SM, 4x mais que a GT200;
- Performance até 8x maior em ponto flutuante de precisão dupla em relação a GT200;
- Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
- 64 KB de RAM com uma partição configurÁvel de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Endereçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.

Conforme jÁ mencionado na seção anterior, os engenheiros da NVIDIA se superaram ao construírem uma placa inteiramente baseada na anterior – mantendo o mesmo processo de fabricação – com uma relação entre desempenho e consumo de energia bem mais eficiente. Isso só foi possível graças ao amadurecimento no processo de fabricação em 40nm, além de uma reengenharia e otimização em sua arquitetura.

Para suprir os 244W, a VGA possui dois conectores de alimentação extra, um de seis pinos (75W) e outro de oito pinos (150W). Aliada aos 75W do slot PCIe, a GTX 580 conta com uma margem extra de 56W, que deve ser utilizada em versões overclockadas. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 600W.

Ao se deparar com as especificações da GeForce GTX 580, o usuÁrio poderÁ perceber que, de forma geral, os clocks foram aumentados em cerca de 10% em relação à GTX 480. Foi assim com a GPU, passando de 700Mhz para 772Mhz e com os CUDA Cores, de 1400Mhz para 1544Mhz. JÁ as memórias tiveram um incremento próximo a 8,5%.

Outros importantes avanços foram o aumento na quantidade de CUDA Cores, cerca de 6,5% - passando de 480 para 512 – e no número de TMUs, de 60 para 64, alta de 6,5%. Somando-se isso ao aumento dos clocks e à melhoria na arquitetura (adição do FP16 texture filtering e aprimoramento no Z-cull), a NVIDIA promete um ganho médio entre 15-20% em relação à GTX 480. Ganho expressivo se levarmos em conta novamente o fato de que a placa não trouxe maior consumo de energia, ao contrÁrio. O TDP diminui cerca de 2,5%.



{break::Sistema de refrigeração VCT}Outra importante novidade acrescentada à GeForce GTX 580 foi a utilização de um novo sistema de refrigeração utilizando a reconhecida tecnologia conhecida como Câmara de Vapor (Vapor Chamber Technology -VCT).

As câmaras de vapor são, em sua essência, heatpipes planos/achatados que se utilizam dos princípios da evaporação e condensação para produzirem um ambiente de alta condutividade térmica.

A VCT é uma espécie de câmara selada a vÁcuo composta de três "zonas": de vaporização, condensação e transporte. O funcionamento é relativamente simples. O calor emanado pela GPU aquece o fluído dentro da zona de vaporização, fazendo-o evaporar. O vapor do fluído se move através do vÁcuo até que se choque com a zona de condensação. Nesse estÁgio, o vapor se condensa, voltando ao seu estÁgio inicial líquido (liberando o calor no processo). O fluído é então absorvido pela zona de transporte (por meio do processo de capilaridade) onde é, então, levado de volta para o ponto inicial do processo, a zona de vaporização, fechando o ciclo para então ser repetido.

As câmaras de vapor podem ter uma imensa combinação de tipos de materiais e fluídos, dependendo principalmente da temperatura de operação do sistema de refrigeração. A combinação mais utilizada para dispositivos eletrônicos é formada por cobre e Água porque a sua temperatura de funcionamento poder variar de 10°C a 250°C. Contudo, para se atingir patamares mais extremos, são utilizados outros tipos de materiais e fluídos.

Para se ter ideia da eficiência da tecnologia, a capacidade de condução térmica chegou, em alguns casos, a ultrapassar em mais de 30 vezes a condutividade do cobre e em mais de dez vezes o grafite pirolítico e o diamante.

Além disso, a NVIDIA utilizou uma nova ventoinha, composta por inúmeras melhorias e aperfeiçoamentos com o intuito de aprimorar sua capacidade de exaustão térmica, além de reduzir a sua vibração, consequentemente, gerando menor ruído.


(Detalhe do sistema de refrigeração da GTX 580)

Outro diferencial da GTX 580 é que a placa utiliza um novo algoritmo adaptativo de controle da rotação da ventoinha, que suaviza a "aceleração" e "desaceleração" na rotação da FAN.

Fechando o "pacote" de novidades no quesito cooler, a nova GeForce conta com um novo design na cobertura "carenagem" da placa. As costas da cobertura são agora angulares, o que, de acordo com a NVIDIA, ajuda a jogar o ar quente para o bracket, além de melhorar o fluxo de ar em sistemas multi GPU (SLI).

Dessa forma, a GeForce GTX 580 comprova que a Fermi pode sim ser uma placa que alia alto desempenho com consumo de energia e calor controlados.

{break::Monitoramento de Energia}

Além do tradicional monitoramento que protege as GPUs de eventuais problemas causados pelo excesso de temperatura, a NVIDIA inaugura na GeForce GTX 580 mais um recurso de proteção para a VGA, chamado de monitoramento de energia.

Trata-se de um conjunto de circuitos presentes no PCB da placa, que faz o monitoramento em tempo real da corrente elétrica e voltagem transmitida em cada rail 12V, seja via conector extra de seis pinos, oito pinos ou mesmo via PCI Express.

Assim, o driver é capaz de ajustar dinamicamente (e de forma transparente ao usuÁrio) a performance em certas aplicações de uso pesado, como é o caso do Furmak e OCCT, caso os níveis de corrente e voltagem excedam os limites da VGA.


(Detalhe dos circuitos de proteção de sobrecarga de corrente/voltagem)

{break::Novidades do DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, focada principalmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation jÁ nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão agora "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de "cores"/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Desta forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla Área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.


SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em seqüência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Como podemos ver nas fotos abaixo, jÁ destacamos a diferença do sistema de cooler da 580 comparado ao da 480. A nova placa não possui mais os heatpipes externos, parte da mudança feita pela NVIDIA para o novo sistema VCT.

Tiramos também algumas fotos sem a base protetora do sistema de cooler, dando uma boa noção de como ficou internamente.

Por último, algumas fotos com 580 e 480 lado a lado, mostrando que a maior diferença visual ficou mesmo relacionada ao cooler, além da abertura na parte de baixo da 480 que "sumiu" da 580, provavelmente devido à melhora alcançada com o VCT.

{break::MÁquina/Softwares utilizados}Utilizamos uma mÁquina TOP de linha baseada em uma mainboard Asus Rampage II Gene com processador Intel Core i7 980X, evitando assim qualquer dúvida sobre gargalo do processador.

As placas utilizadas nos comparativos foram, por parte da NVIDIA, os modelo GeForce GTX 580 e GTX 480, jÁ se tratando de AMD (ATI) os modelos selecionados foram a Radeon HD 5970 e a 5870.

Além da GTX 480 trabalhando sozinha, também fizemos testes com a placa em SLI na resolução de 1920x1080.

Abaixo, fotos da GTX 580 montada no sistema.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard Asus Rampage II Gene
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright HR-02 + FAN

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 262.99 Beta: GTX 580
- NVIDIA ForceWare 260.99 WHQL: GTX 480
- ATI Catalyst 10.10d WHQL: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)
- StarCraft II (DX10)

{break::GPU-Z, Temperatura, Ruído}Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da GTX 580 e, mais abaixo, a tela da GTX 480 para comparação.



Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Conforme pode ser conferido abaixo, o sistema de refrigeração com tecnologia Vapor Chamber – VCT cumpriu espetacularmente o seu papel ao ponto de se igualar à Radeon HD 5870 e comprovando que é possível sim colocar uma Fermi TOP trabalhando em condições bastante competitivas frente às suas rivais.

Em Idle, ou seja, em modo ocioso, a GTX 580 apresentou uma temperatura de apenas 40ºC, valor idêntico ao da Radeon 5870. Trata-se de uma eficiência de 20% frente à GTX 480 e de 25% sobre a 5970.

Mesmo quando a placa é posta em prova, a GTX 580 ficou apenas 2ºC mais quente que a Radeon 5870 e 1ºC em relação à 5970. Em compensação, a evolução em comparação a sua "irmã mais velha" foi bastante considerÁvel, de cerca de 10%, ou seja, gerou 8ºC a menos de calor!

{benchmark::1077}

{break::3DMark Vantage, Unigine Heaven 2.1}3DMark Vantage
Embora seja considerado um teste bastante polêmico por parte da comunidade, por ser tachado como um benchs sintético que não reflete muitas vezes a condição da placa no mundo real (leia-se jogos), o 3DMark Vantage é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutÁ-lo neste teste.

A GeForce GTX 580 deu um verdadeiro "baile" em cima de suas rivais. Embora possa parecer pouco o ganho de 4% sobre a Radeon 5970, é bom lembrar que estamos falando de uma VGA single GPU contra uma dual GPU. Na comparação com a 5870, o ganho foi de 42%. JÁ sobre a GTX 480, a evolução obtida foi de 29%. Como esperado, em um outro patamar, a anos luz de diferença entre as demais VGAs, ficou a GTX 480 em SLI, cerca de 9.500 pontos à frente da GTX 580.

{benchmark::1078}

Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro cenÁrio (sem o Tessellation), o SLI de GTX 480 marcou 55,4% mais pontos que a GeForce GTX 580, resultado mais do que esperado por se tratar de uma comparação entre uma dual GPU com uma single GPU. Contudo, a GTX 580 mostrou uma evolução de cerca de 20% sobre a sua "irmã mais velha", ultrapassando inclusive a Radeon 5970 em pouco mais de 1,5%. Em comparação com a Radeon 5870, a GF110 cravou 56% mais pontos.

JÁ com o Tessellation ativado, a GTX 480 em SLI fez 59% mais pontos que a GTX 580, que, por sua vez, marcou quase 10% mais pontos que a dual GPU 5970 e 19% mais pontos que a GTX 480. Numa comparação direta entre GTX 580 e Radeon 5870, a nova GeForce foi 71% mais eficiente.

{benchmark::1079}

{break::Aliens vs Predator}Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Na resolução mais baixa (1280x1024), a GTX 580 foi cerca de 10% mais lenta que a Radeon 5970, mostrando toda a força de uma segunda GPU Cypress. Em compensação, a nova GeForce foi quase 16% mais veloz que a sua "irmã mais velha" e 37% mais rÁpida que a Radeon 5870.

{benchmark::1080}

JÁ em 1680x1050, a GeForce GTX 580 foi 11,5% mais lenta que a Radeon 5970, embora tenha apresentado um desempenho 16% superior frente à GTX 480 e de quase 38% sobre a 5870. 

{benchmark::1081}

Finalmente em 1920x1080, com uma nova competidora: a GTX 480 em SLI, a solução multi GPU da NVIDIA foi 47% mais veloz que a Radeon 5970. A GTX 580 posicionou-se em uma colocação intermediÁria, 11% atrÁs da 5970, mas, em compensação, foi 16% mais veloz que a GTX 480 e 38% que a 5870.

{benchmark::1082}

{break::Crysis Warhead}O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Aqui temos uma situação curiosa. Na medida em que se aumenta a resolução, o desempenho da GeForce GTX 580 melhora frente a suas concorrentes, ao ponto de deixar para trÁs a Radeon HD 5970!

Em 1280x1024, a GTX 580 é pouco mais de 7,5% mais lenta que a 5970, muito embora apresente um desempenho 22% superior que a GTX 480 e 39,5% que a Radeon 5870.

{benchmark::1083}

JÁ em 1680x1050, a GTX 580 fica tecnicamente empatada com a Radeon 5970, com uma diferença ínfima de 0,5% em favor da placa da AMD. Contudo, a GeForce "GF110" é 22% mais rÁpida que a GTX 480 e 39% que a Radeon 5870.

{benchmark::1084}

Finalmente em 1920x1080, a GTX 580 supera a Radeon 5970 em 12%, assim como a GTX 480 e 570 em 22% e 44%, respectivamente. No topo ficou o SLI de GTX 480, com ganho de 56% sobre a nova GeForce.

{benchmark::1085}

{break::DiRT 2}"Colin McRae: Dirt 2", mais conhecido simplesmente como DiRT 2, é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

Em DiRT 2 a GeForce GTX 580 mostra novamente uma excelente performance, superando a Radeon 5970 em todas as resoluções.

Em 1280x1024, a GTX 580 foi 17% mais veloz que a Radeon 5970 e 20% mais veloz que a sua "irmã mais velha". JÁ em relação à 5870, a nova GeForce foi 62% mais poderosa.

{benchmark::1086}

Na resolução intermediÁria de 1680x1050, a GTX 580 foi cerca de 8% mais veloz que a Radeon 5970; 20,5% que a GTX 480 e 52% que a 5870.

{benchmark::1087}

Finalmente em 1920x1080, a SLI de GTX 480 supera a GeForce GTX 580 em 45%. Esta, por sua vez, foi 9% mais veloz que a 5970; 22,5% mais rÁpida que a GTX 480 e 52% mais potente que a Radeon 5870.  

{benchmark::1088}

{break::F1 2010}Em F1 2010, game baseado na engine EGO 1.5 da Codemasters e que estreamos em nossas reviews, a GeForce GTX 580 foi pouco mais de 12,5% superior que a placa dual GPU da AMD e mostrou uma evolução de 15,5% sobre a GTX 480. Em relação à Radeons 5870, o ganho em FPS foi de 17%.

{benchmark::1089}

JÁ em 1680x1050, a GeForce GTX 580 foi cerca de 1% mais veloz que a Radeon 5970; 15% mais rÁpida que a Radeon 5870 e 17% mais rÁpida que a GTX 480.

{benchmark::1090}

Por fim, em 1920x1080, a GeForce GTX 580 é 18,5% mais lenta que a GTX 480 em SLI e 4% mais lenta que a Radeon 5970. Em compensação, a GF110 é 13% mais rÁpida que a Radeon 5870 e 16,6% que a GTX 480.

{benchmark::1091}

{break::Just Cause 2}Se tem um game no qual as placas da série Radeon dominam em todos os segmentos é o Just Cause 2, curiosamente apoiado pela NVIDIA.

Como podemos ver abaixo, as placas da AMD lideram na resolução de 1280x1024, sendo que a 5970 foi 57% mais veloz que a GTX 580. Em relação à 5870, a GTX 580 é 7% mais lenta que a sua rival. Em compensação, a GF110 trouxe uma evolução de 14% sobre a GTX 480.

{benchmark::1092}

Na resolução de 1680x1050 tivemos uma pequena mudança. Pela primeira vez uma GeForce  bate uma Radeon. Contudo, a GTX 580 ainda não é pÁrea para a 5970, com vantagem de 48% para a placa da AMD. A GF110 é menos de 1% mais veloz que a 5870, mas, em compensação, é 15% mais rÁpida que a GTX 480.

{benchmark::1093}

O desempenho das Radeons é vertiginosamente tão superior em relação às GeForces que, pela primeira vez, o SLI de GTX 480 não aparece em primeiro lugar, ficando atrÁs da Radeon 5970 por menos de 1%. A GTX 580 é 33% mais lenta que a solução dual GPU da AMD e fica 3% atrÁs da 5870. Contudo, a GF110 trouxe uma evolução de 11% sobre a GF100.

{benchmark::1094}

{break::Mafia II}Em Mafia II, game que trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50 nos EUA, a GTX 580 foi pouco mais de 2% superior que a Radeon 5970, 14% mais veloz que a GTX 480 e quase 31% mais rÁpida que a 5870.

{benchmark::1095}

Em 1680x1050, a vantagem da GeForce GTX 580 sobre a Radeon 5970 é de 1,5%. JÁ em relação à GTX 480 e à 5870, a superioridade da nova GeForce é de 15% e 25%, respectivamente.

{benchmark::1096}

Finalmente em 1920x1080, o SLI da GTX 480 bate a GTX 580 em 50%. JÁ a superioridade da GTX 580 sobre a Radeon 5970 é de 2%, aumentado para quase 16% sobre a GTX 480 e 24% sobre a 5870.

{benchmark::1097}

{break::Metro 2033}Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Metro 2033 é outro game no qual as placas da NVIDIA conseguem resultados melhores, provavelmente, em parte, pelo intenso uso do Tess.

Em 1280x1024, a GTX 580 trouxe uma evolução de 13% em relação à GTX 480. Em relação às Radeons, a GeForce GTX 580 foi 14,5% mais veloz que a 5970 e 58% mais rÁpida que a 5870.

{benchmark::1098}

Em 1680x1050, a GTX 480 bateu a 5970 em 8,5%, a GTX 480 em 15% e a 5870 em  53%.

{benchmark::1099}

Finalmente em 1920x1080, a GeForce GTX 580 foi 35% mais lenta que o SLI da GTX 480, mas em compensação foi 6% mais rÁpida que a 5970, 13,5% mais veloz que a GTX 480 e 53% mais potente que a 5870.

{benchmark::1100}

{break::StarCraft II}Em nosso último teste utilizamos o game de estratégia StarCraft II, que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente, problema jÁ resolvido e que agora nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes, afinal StarCraft II não possui esse tipo de configuração interna.

Como vemos na resolução de 1280x1024, a 5970 fica empatada tecnicamente com a GTX 580, diferença de apenas 0,2 FPS, se é que podemos chamar isso de diferença. HÁ uma diferença muito pequena também entre 580 e 480, pouco mais de 5%, possivelmente por algum gargalo do game, jÁ que nos testes que fizemos sem filtros ativados as placas ficavam com scores muito semelhantes.

{benchmark::1101}

Aumentando a resolução, temos diferenças mais acentuadas entre as placas, mas a 5970 continua liderando. Ela é seguida de perto pela 580 que, por sua vez, coloca pouco mais de 10% de vantagem sobre a 480, esta por fim, cobtendo quase 20% sobre a 5870.

{benchmark::1102}

Na resolução mais alta com os testes de SLI da 480, vemos que o benefício não foi tão grande como em outros casos, ficando abaixo de 50%. A briga entre 5970 e 580 continua, colocando as placas em pé de igualdade como vemos abaixo.

{benchmark::1103}

{break::Overclock: Temperatura, Vantage}Não poderiamos deixar de overclockar a placa, ainda mais pelo fato de a NVIDIA ter aprimorado o sistema de resfriamento na comparação com a GTX 480, o que, em teoria, dÁ à 580 maiores benefícios em overclock, além, é claro, do controle de voltagem.

Utilizamos a versão 2.1.0 Beta 3 do Afterburner para o overclock, que, como foi lançada antes da placa, ainda não possui um suporte à altura. Entre os principais problemas que encontramos, estÁ o fato de não suportar a mudança de voltagem, portanto não conseguimos ir tão longe, mas jÁ vimos que a placa tem uma margem muito boa.

Reparem na imagem abaixo: colocamos o core trabalhando a 875MHz totalmente estÁvel sem nenhum problema, destaco novamente, sem aumentar as voltagens. Chegamos a 900MHz no core e 4600MHz nas memórias e todos os games rodaram os testes sem nenhum problema, mas o Vantage travava a todo momento. Por isso, conseguimos validar apenas os testes com a configuração abaixo, o que jÁ é muito bom, como poderemos constatar nos testes a seguir.


Temperatura
Os testes de temperatura são animadores, mesmo com aumento considerÁvel nos clocks, a temperatura em IDLE aumentou apenas 2ºC. JÁ com a placa em uso foi um pouco mais, precisamente 5ºC, mas ainda abaixo da 480 que fez 87ºC. Vale destacar que, em outras reviews, usamos uma GTX 480 referência, enquanto nesta utilizamos uma da Point of View(POV), que mesmo com o cooler referência tem gerado menos calor interno.

{benchmark::1104}

3DMark Vantage
Começamos os testes com o Vantage, onde o overclock da GTX 580 mostrou ser muito bom na prÁtica. O score alcançado pela placa foi 10% superior à sua pontuação em stock. Resultado excelente, colocando ainda mais pressão sobre a 5970.

{benchmark::1105}

{break::Overclock: AvsP, Mafia II e Metro 2033}Além do 3DMark Vantage, fizemos testes com a placa overclockada na resolução de 1920x1080 em vÁrios games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Começamos com o Aliens vs Predator, onde a melhora foi de mais de 5 FPS, representando mais de 10% de ganho sobre a placa com clocks referência. Nada mal, ainda mais por ter colado na 5970.

{benchmark::1106}

Mafia II
Rodando o Mafia II, o ganho também foi muito bom. Foram 6,9FPS, quase 10%, deixando a 5970 mais longe, como vemos abaixo.

{benchmark::1107}

Metro 2033
Em nosso último testes, com o game Metro 2033, novamente hÁ um ganho muito bom para a 580 quando overclockada sobre a placa em stock: 5,5 FPS, representando pouco mais de 10%, média geral de ganho da placa overclockada em todos os testes.

{benchmark::1108}

{break::PhysX}Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o Mafia II, um dos games mais recentes a utilizar bastante essa tecnologia.

Como podemos ver abaixo, com PhysX ativado, o desempenho cai consideravelmente. Como jÁ era de se esperar, a 580 fica à frente da 480, mas pouco abaixo dos testes normais com o recurso desativado.

Outro ponto curioso é que mesmo o SLI de 480 não conseguiu colocar as placas muito à frente da 580.

{benchmark::1109}

{benchmark::1110}

{benchmark::1111}

{break::Conclusão}Passado cerca de sete meses do lançamento da GTX 480, a NVIDIA se superou ao conseguir extrair ainda mais desempenho da arquitetura Fermi com a GeForce GTX 580 sem, no entanto, consumir mais energia e gerar mais calor.

A impressão que nos foi passada é que a Fermi é uma espécie de "diamante bruto" semi-lapidado, que foi refinado com a chegada do GF110.

A GeForce GTX 580 trouxe um significativo ganho de desempenho em relação à GTX 480, com média de 15-20%. Vale ressaltar que essa melhora não estÁ unicamente ligada ao aumento dos clocks. A NVIDIA fez uma verdadeira reengenharia na arquitetura do chip GF110, tornando a GPU mais eficiente que a sua "irmã mais velha".

Foi bastante interessante constatar que a GTX 580 conseguir "bater" a solução dual GPU da AMD, ainda mais pelo fato de a Radeon HD 5970 ser, até então, considerada a "Rainha das Placas 3D". Entretanto, as atenções do mercado passam a se voltar para a chegada das Radeons "Cayman" e "Antilles", placas da nova geração Northern Islands da AMD e que prometem um significativo avanço em termos de performance, principalmente no caso da Radeon 6990, que trarÁ dois núcleos da 6970.

Além de grande desempenho, a GeForce GTX 580 mantém todos os destaques da geração Fermi, como o filtro de anti-aliasing 32xCSAA, 3D VISION SURROUND, CUDA e PhysX, só para citar alguns.

Com a chegada da GTX 580, a NVIDIA cala seus críticos em matéria de super aquecimento e alto consumo. O novo sistema de refrigeração VCT baixou a temperatura da placa para os mesmos patamares de suas concorrentes. De quebra, a VGA consome 6W a menos de energia, apesar da evolução no desempenho.

Por fim, a GeForce GTX 580 trouxe um recurso extra de proteção, que é o monitoramento da quantidade de corrente elétrica/voltagem, evitando assim uma sobrecarga no sistema e protegendo a placa de eventuais danos.

Enfim, ao que parece, a NVIDIA teve um grande aprendizado com a GTX 480, apresentando uma nova placa com todos os potenciais da geração anterior, acrescentando outros destaques e o mais importante: sanando os problemas de sua "irmã mais velha". Assim, a GeForce GTX 580 chega como uma forte candidata a se tornar a VGA single GPU mais poderosa do mercado, apesar de toda a promessa da Radeon HD 6970. Contudo, a disputa estÁ lançada: joguem os seus dados e que vença a melhor!


PRÓS
Melhora do sistema de cooler em comparação com a GTX 480
Menor ruído em relação à GTX 480
Ótimo desempenho, batendo a 5970 em vÁrios testes
Melhor placa single chip do mercado
Ótima possibilidade para overclock
CONTRAS
Preço para poucos, apesar do excelente desempenho
Apesar da evolução entre desempenho x consumo, a VGA possui ainda um TDP elevado
Assuntos
Tags
  • Redator: Filipe Braga

    Filipe Braga

    Filipe Braga é um cearense extremamente simpático formado em Ciências da Computação e apaixonado por computadores e tecnologia em geral. Também participa de reviews de hardware, especialmente placas de vídeo, processadores e placas mãe.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.