ANÁLISE: Nvidia GeForce GTX 480

ANÁLISE: Nvidia GeForce GTX 480

Finalmente o grande dia chegou! A NVIDIA lançou no último dia 26 de março as primeiras placas da sua nova geração de GPUs DirectX 11, codinome GF100.

Pertencentes à família Fermi, a linha GF100 (composta pelas GeForces GTX 480 e GTX 470) é voltada aos entusiastas/hard gamers de plantão, situando-se entre os segmentos intermediários de alto desempenho e TOP.

A Adrenaline tem a honra e orgulho de ser o primeiro (e até o momento único) portal de tecnologia do Brasil a receber diretamente da NVIDIA um legítimo exemplar da versão mais robusta da GF100, a GeForce GTX 480.

Modelo de referência da NVIDIA

A mensagem da NVIDIA com o lançamento da Fermi é bastante clara: colocar pressão e "roubar" a qualquer custo da ATi o título de "Rainha das placas 3D". No decorrer desta review os leitores poderão conferir se realmente os objetivos foram atingidos.

A geração Fermi, encabeçada pelas GTX 480 e GTX 470, está nitidamente sustentada em duas pilastras: alto poder de processamento e suporte a novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision, CUDA e o novo modo de filtro 32xCSAA  (Coverage  Sampling  Antialiasing), sendo 8 do tipo "multisamples" e 24 "coverage  samples".

Além disso, a nova geração foi construída com a litografia em 40nm pela TSMC, trazendo assim proporcionalmente um menor consumo de energia e ganhos de escala. Aliás, para quem não se recorda, tal fato gerou um certo "desgaste" entre ambas as companhias, em virtude do atraso na produção das GPUs.

Outro fato positivo, este especialmente interessante para nós consumidores, é que com a chegada das primeiras placas da geração Fermi, o valor das VGAs praticados atualmente irá despencar, ainda mais com a GTX 480 e a GTX 470 tendo preços bastante competitivos.

- Continua após a publicidade -

Em conjunto com a tecnologia CUDA, a GF100 pode ainda ser utilizada para acelerar a execução de diversas tarefas comumente realizadas no dia-a-dia dos usuários, tais como:

- Melhoria na captura de vídeo ou de fotos tiradas de celulares com baixa luminosidade através do uso do software vReveal da MotionDSP;

- Conversão de vídeos HD para dispositivos portáteis utilizando programas como o BadaBoom, Cyberlink Media Show Expresso, Nero Move It e TMPGEnc;

- Edição de filmes em HD e aplicação de filtros via Cyberlink Power Director 7 e Loiloscope Venus;

- Edição de fotos e aplicação de filtros no Adobe Photoshop CS4 (via OpenGL);

- Organização de fotos utilizando a aceleração GPU para o reconhecimento facial através da solução Cyberlink MediaShow 5; dentre outras.

Compatível com a nova versão do Badaboom, software da NVIDIA que permite ao usuário converter vídeos para formatos portáteis através da própria GPU (processo chamado de GPGPU/CUDA). A nova geração de GPUs da NVIDIA traz ainda ganhos expressivos na performance de certas aplicações de uso geral, tais como com o Nero Move It e o vReveal.

Assim como as G 210, GT 220 e GeForce GT 240, a GeForce GTX 480 está entre as primeiras placas 3D da NVIDIA a incluir suporte nativo a especificação HDMI 1.3a, que inclui áudio sem compressão de 7.1 canais, também conhecido como áudio de Blue-Ray.

Por fim, mas não menos importante, a GF100 é compatível com uma das grandes tecnologias dos últimos tempos: a NVIDIA 3D Vision Surround, tecnologia que vai além do 3D Vision "tradicional", onde o usuário, com a ajuda de um kit composto por óculos especiais e 3 monitores especiais de 120Hz, é capaz de ter seus conceitos de interatividade e diversão completamente inovados, graças à "realidade" 3D estereoscópica.

{break::Arquitetura da GF100}A GF100 é, sem dúvida, para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs, desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje como o conceito de gráficos unificados e computação paralela. Já a geração GT200 trouxe uma ampliação no desempenho e nas funcionalidades da G80.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

- Continua após a publicidade -

Abaixo alguns pontos-chaves da nova arquitetura.

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automática, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização de forma segura, de uma grande quantidade de GPUs em Datacenters, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuários solicitaram uma arquitetura real para ajudá-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais Rápida: Muitos usuários desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e gráficos;

• Operações Atômicas mais Velozes:  Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso "poder de fogo", trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

De acordo com os especialistas, a Fermi possui die com área de aproximadamente 530mm2, um pouco menor do que a G80. Contudo, estamos falando aqui de um chip com litografia em 40nm e não em 65nm como da boa e velha GeForce 8800 Ultra. Para se ter idéia do que representa a área do die, um waffer de 300mm2 é capaz de produzir teoricamente apenas 130 chips, na hipótese utópica de uma taxa de 100% de aproveitamento. Ou seja, trata-se de um verdadeiro "monstro", no melhor sentido da palavra. E não é para menos. Afinal, trata-se de uma GPU com 3 bilhões de transistores e estrutura para abrigar até 512 CUDA Cores (também chamado de shader processors) em uma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).


Conforme pode ser visto acima na estrutura de processamento "host interface", há um grande bloco chamado pela NVIDIA de "Gigathread Engine",  composto de 4 GPCs (Graphics Processing Clusters), 6 controladores de memória, partições ROPs e cache L2 com 768KB. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui 4 unidades de Streaming Multiprocessor (SMs), que por sua vez são compostas por 32 CUDA Cores. Desta forma, em tese, a GF100 suporta até 512 Shaders Processors (4 GPCs x 4 SMs x 32 CUDA Cores).

- Continua após a publicidade -

Contudo, por alguma razão desconhecida, a NVIDIA desativou um conjunto de Streaming Multiprocessor na GTX 480. Ou seja, ao invés de 16 SMs, a placa possui 15, resultando desta forma em 480 Stream Processors (15 SMs x 32 CUDA Cores). Já a GTX 470 possui 448 Stream Processors, devido à desativação de um segundo conjunto de SM (14 SMs x 32 CUDA Cores).

Embora não tenha sido informado o motivo, especula-se pelos bastidores que seria o de melhorar a taxa de aproveitamento dos chips. Desta forma, quanto a TSMC estiver em um estágio mais maduro de produção é praticamente dada como certa a chegada de uma "segunda versão da GF100" (GeForce GTX 485?), esta sim, equipada com 512 Stream Processors e provavelmente com clocks mais elevados. Para quem ainda não está convencido do que representam esses números, a GT200 conta com "apenas" 240 Shaders Processors.

Em termos de quantidade de unidades de rasterização, felizmente a inatividade de um conjunto de SM não afetou a quantidade de ROPs da GPU, uma vez que estas unidades estão arranjadas de um bloco funcional em separado dos Stream Processors. Assim, a GTX 480 conta com 48 ROPs, 50% a mais do que as 30 unidades presentes na GT200. Em se tratando Texture Memory Units, são ao todo 60, ao invés de teóricos 64 TMUs. Esta redução deu-se novamente em virtude da redução na quantidade de unidades de Stream Processors de 16 para 15 (15 SMs x 4 TMUs). Novamente uma teórica GTX 485 contará com 64 TMUs. Aliás, esta redução no total de SMS afetará a performance da placa em se tratando das capacidades de "shading", "texturing" e "tessellation".

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existem de "última palavra" em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 480 CUDA Cores consistem de unidades de despachos, coletores de operações, 2 unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.


Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi pode desde já ser vista como a mais eficiente em se tratando de unidade de processamento gráfico. Olhando para a imagem acima, podemos ver que os 32 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Esta comutação dinâmica irá ajudar os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível.

Além disso, há ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc).  O cluster SM possui ainda 4 TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

A Polymorph Engine foi introduzida na Fermi para lidar com uma enorme carga de trabalho que as novas funções necessitam. Uma delas é a técnica conhecida como Tessellation (que é um dos grandes trunfos do DirectX 11), onde o número de triângulos em uma cena pode aumentar de forma exponencial. Desta forma a NVIDIA teve de escolher entre construir uma gigantesca unidade dedicada ao Tessellation, ou dividir a carga de trabalho em diversas partes menores por shader cluster e partir para a eficiência. Como pode ser notado, a NVIDIA escolheu a primeira opção.

As unidades ROPs receberam uma atenção especial por parte da equipe de desenvolvimento. O resultado é que em alguns casos, o ganho de performance pode ser 3 vezes superior em relação a GeForce GTX 285 com o filtro de Anti-aliasing ligado!

Por falar nisso, a Fermi suporta o modo 32x CSAA (8+24x), com 33 níveis de transparência, com expressivo ganho de performance sobre a GT200. O melhor de tudo é que segundo a NVIDIA, a degradação da performance será muito pouco em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma imagem, seguindo o pensamento de que uma imagem vale mais que mil palavras.


Em relação às memórias caches, enquanto que a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 768KB de L2. Trata-se de números interessantes. Enquanto a NVIDIA foi em uma direção (colocando mais memória L1 do que L2), a ATi foi justamente em direção oposta, equipando a linha Evergreen com mais cache L2 do que L1.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante do que chega a L2.

Ainda dentro do assunto memória, a arquitetura da Fermi é composta de 6 partições de 64 bits, resultando assim em um total de 384 bits de interface de memória! Aliado a capacidade de suportar até 6GB de GDDR5 e a melhoria nos ROPs, a NVIDIA tem em mãos - pelo menos em tese - um verdadeiro trunfo frente à sua rival Radeon HD 5870/5970, principalmente em jogos pesados em altas resoluções e filtros de Anisotropic e Anti-Aliasing ligados em força total.


{break::Os recursos da GTX 480}Os destaques da macro arquitetura da Fermi são:

• 3 bilhões de transistores;
• Litografia em 40 nm;
• Área do die (estimado): 530mm2
• Frequência de operação das texturas e ROPs (GPU): 700MHz;
• 480 shader processors/CUDA cores;
• Frequência de operação dos shaders processors/CUDA cores: 1401MHz;
• Frequência de operação das memórias: 3.7GHz (GDDR5);
• Quantidade de memória: 1.5GB;
• Interface de memória: 384bits;
• Consumo de energia/TDP: máximo de 250 watts; 
• Limiar térmico da GPU em 105° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.3a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda: 

• Terceira Geração do Streaming Multiprocessor (SM)
    - 32 CUDA cores por SM, 4x mais que a GT200;
    - Performance até 8x maior em ponto flutuante de precisão dupla em relação a GT200;
    - Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
     - 64 KB de RAM com uma partição configurável de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
     - Espaço de Enderçamento Unificado com suporte completo a C++;
     - Otimização para OpenCL e DirectCompute;
     - Precisão completa para IEEE 754-2008 32-bit e 64-bit;
     - Caminho completo para inteiros de 32-bit e extensões de 64-bit;
     - Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
     - Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
    - Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustável e L2 unificada;
    - Primeira GPU com suporte a memórias ECC;
    - Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
    - 10x mais rápido nas aplicações de alternância de contexto;
    - Execução simultânea de Kernel;
    - Execução de blocos de theads fora de ordem;
    - Engine de transferência de memória com dupla sobreposição.

Conforme antecipado na introdução desta review, um dos pontos chaves da geração Fermi  está na litografia (que é o processo utilizado na fabricação do chip), pois é uma das primeiras GPUs da NVIDIA a utilizar o padrão de 40nm da TSMC, fato decisivo para poder acomodar um chip de tamanha envergadura.

Apesar de alguns percalços no caminho, o fato é que se trata de um importante marco para a companhia, uma vez que resultará em redução de custos na fabricação de tais chips gráficos, apesar de estar longe de poder ser considerada uma GPU barata. Além disso, a nova litografia permitiu com que a placa mantivesse um patamar de consumo de energia (TDP) em níveis aceitáveis, chegando ao máximo de 250W. A título de informação, a GTX 285 tem TDP em 204W e a GTX 295 em 289W.

Sendo assim, para suprir tal demanda de energia, a VGA possui 2 conectores de alimentação extra, um de 6 pinos (75W) e outro de 8 pinos (150W). Aliado aos 75W do slot PCIe, a GTX 480 conta com uma margem extra de 50W, devendo ser utilizada para futuras versões turbinadas. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 600W.

Ao se deparar com as especificações da GeForce GTX 480, o usuário deverá estar bastante atento aos números, especialmente se resolver comparar com as GPUs da geração passada, como é o caso da GTX 285. Enquanto há uma nítida evolução na quantidade de Stream Processors e ROPs (100% no primeiro e 50% no segundo), outros dados podem "enganar" os olhos menos atentos, como é o caso do número de TMUs, valores do clocks e do valor do bus da memória. É que o chip possui uma nova arquitetura, baseada na estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados). Além disso, os 384 bits aliados às memórias do tipo GDDR5 equivalem a uma largura de banda idêntica às antigas GDDR3 com bus de 768bits.

Em relação aos clocks (ainda levando-se em conta da GTX 285), há duas considerações a serem feitas. Enquanto houve uma expressiva evolução nas freqüências de operações das memórias, passando de 2484Mhz para 3696Mhz (graças ao uso das já citadas GDDR5), a GPU evoluiu de forma tímida, passando de 648Mhz para 700Mhz e os shaders regrediram de 1476Mhz para 1401Mhz. Tal fato é em grande parte explicado pela imensa quantidade de transistores, que saltou de 1,4 bilhão para 3 bilhões! Contudo, mais uma vez é bom lembrar: estamos comparando uma GPU de nova geração baseada na arquitetura MIMD (múltiplas instruções, múltiplos dados) com uma ainda amarrada ao antigo paradigma SIMD (única instrução, múltiplos dados).

 

{break::Enfim o DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API gráfica da Microsoft, o DirectX 11, que promete facilitar e agilizar o processo de desenvolvimento dos jogos, além de trazer novas tecnologias ou mesmo melhorias nas atuais, aprimorando ainda mais a qualidade nos gráficos.Apesar de estar 6 meses "atrás" de sua rival Evergreen, a NVIDIA finalmente entre em uma nova era em termos gráficos.

 

As novidades presentes no DX11 são:

- DirectCompute 11
- Hardware Tessellation
- High Definition Ambient Occlusion
- Shader Model 5.0
- Depth of Field
- Renderização Multi-threaded (Multi-threading)


DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trás do termo GPGPU, que "transforma" a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsável por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semitransparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de previnir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto que o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, há também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation já nas Radeons HD série 2000, somente agora tal funcionalidade será utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fácil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rápida.

Assim, os desenvolvedores estão "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos será muito mais simples e rápido, sem contar que permitirá que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. Já o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou ou 4:1 para Alpha.

Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemático às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, está na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção está sendo feita de forma mais acelerada em relação à versão 10. Por enquanto, eis a lista de games que apresentam compatibilidade com a nova API gráfica da Microsoft:

- BattleForge (lançado)
- S.T.A.L.K.E.R. Call of Pripyat (lançado)
- DiRT 2 (lançado)
- Battlefield: Bad Company 2 (lançado)
- Aliens vs. Predator (lançado)
- The Lord of the Rings Online: Siege of Mirkwood (Primeiro trimestre de 2010)
- Dungeons and Dragons Online: Eberron Unlimited (2010)
- Genghis Khan MMO (2010)
- Além das engines gráficas Frostbite 2 e Unigine e Vision Engine

Confiram abaixo o vídeo Unigine "Heaven" DX11 benchmark com tecnologia 3D Vision Surround em uma GTX 480.

{break::Outras tecnologias}

CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip gráfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estágios programáveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não gráficos.

Apresentada inicialmente em 2007, a tecnologia CUDA está presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vários experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano está na arquitetura por trás do chip gráfico, massivamente focado na computação paralela, graças à imensa quantidade de "cores"/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Desta forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos gráficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cálculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que já vem de alguns anos.

Lançado inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU(Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trás da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente tal cálculo da física presente no PhysX? Trata-se da técnica na qual o chip gráfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma já programada. Para os praticantes, os jogos são bons, mas falta o realismo necessário para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessária para produzir a física avançada e realista nos jogos de próxima geração, deixando para trás os efeitos de animação pré-fabricados.

É através do cálculo da física que, por exemplo, uma explosão parece mais real para o usuário, uma vez que se pode gerar um verdadeiro "efeito dominó" por trás deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsável, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsável para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cálculos da parte física sem possuir o PhysX, mas, na prática, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prática do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não está limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plástico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.

Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até 3 monitores simultamente, formando assim uma ampla área de visualização em 3 dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.


SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving)!, que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os gráficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, a tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é a mesma: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação gráfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trás do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada, a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em várias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Este é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em seqüência - uma trabalhando com os frames ímpares e outra ficando responsável pelos pares, um após o outro. Quando a placa escrava/secundária finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessário, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não há grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não há restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip gráfico. No início, a tecnologia restringia o uso de VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Desta forma, o usuário poderá ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programável ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptável: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a área da tela de reprodução;

• Display Gamma Correction: Detecção automática de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rápida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuário poderá realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a máquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuário necessitará apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuário poderá definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Abaixo uma série de fotos da GeForce GTX 480, modelo referência da Nvidia.

Colocamos também algumas fotos da GTX 480 ao lado de uma GeForce GTX 285, placa HIGH com um chip da geração anterior da Nvidia.

{break::Máquina/Softwares utilizados}Nessa review iremos comparar a GeForce GTX 480 com algumas das principais placas de vídeo do mercado no segmento HIGH. Em se tratando de placas da Nvidia, utilizamos uma GeForce GTX 295 da XFX e uma GeForce GTX 285 referência da Nvidia. E por parte da ATI utilizamos uma Radeon HD 5970 da HiS e uma Radeon HD 5870 da XFX, os dois modelos mais potentes da empresa atualmente.

Abaixo, detalhes da máquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

Máquina utilizada nos testes:
- Mainboard ECS X58B-A
- Processador Intel Core i7 920 @ 3.8GHz
- Memórias 6 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Wester Digital Black
- Fonte XFX 850W Black Edition

Sistema Operacional e Drivers:
- Windows Seven 64 Bits
- Intel INF 9.1.1.1025
- Nvidia ForceWare 197.13 Modificado: Nvidia GeForce GTX 480 (referência)
- Nvidia ForceWare 197.13 WHQL: XFX GeForce GTX 295, Nvidia GeForce GTX 285
- ATI Catalyst 10.3 WHQL: HiS Radeon HD 5970, XFX Radeon HD 5870

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing – mode: OFF
- Texture filtering: High-Quality
- Vertical sync: Always OFF / Force OFF
- Demais opções em Default

Games
- Anisotropic filtering: 16x
- Antialiasing – mode: 8x
- Texture filtering: High-Quality
- Vertical sync: Always OFF / Force OFF
- Demais opções em Default

Aplicativos/Games:
- 3DMark06 build 1.1.0 (DX9)
- 3DMark Vantage 1.0.1 (DX10)
- Unigine HEAVEN Benchmark 2.0 (DX11)
- Crysis v1.21 (Cry Engine – DX10)
- FarCry 2 v1.01 (Dunia Engine – DX10)
- Tom Clancys H.A.W.X 1.01 (Engine própria – 10.1)
- World in Conflict v1.0.1.1 (Masstech Game Engine – DX10)
- Batman Arkham Asylum (Unreal Engine 3 – DX10)
- DarkVoid (Unreal Engine 3 – DX10)
- BattleForge 1.02 (Engine própria - DX11)
- DiRT 2 (Engine própria - DX11)
- Just Cause 2 (Engine própria - DX10.1)

{break::GPU-Z e Temperatrura}Capturamos a tela principal do CPU-Z de todas as placas que utilizamos nos comparativos, confiram abaixo.

Temperatura
Antes de começarmos os testes de desempenho da GeForce GTX 480, vamos fazer um teste de temperatura da placa - algo que tem incomodado muita gente, visto que ela tem "esquentado" muito.

Para capturar a temperatura utilizamos o software CPUID Hardware Monitor. O sistema quando em FULL rodamos o "software" Unigine HEAVEN 2.0 na resolução de 1680x1050 com filtros em 8xAA e 16xAF, exigindo bastante das placas(GTX 480 e GTX 285).

A temperatura ambiente durante os testes variou de 26 a 28 graus. Destacando que o ar-condicionado não foi ligado.

Como vemos abaixo, com o sistema ocioso a GTX 480 fica 7,5 graus acima da GTX 285, mas o problema maior vem quando a placa está em uso contínuo, sendo que a GTX 480 chegou a 95 graus - temperatura bem alta e que poderá ser um problema para usuários de muitas regiões de nosso país onde as temperaturas são bem mais altas que aqui no Sul (estamos em Florianópolis-SC).

Um ponto a ser destacado no caso da temperatura da GTX 480 é que utilizamos uma versão modificada do ForceWare 197.13. Consequentemente uma versão final do pacote de drivers da Nvidia poderá ter melhorias na parte de configuração do controle do FAN da placa, que por sua vez acaba melhorando o resfriamento da mesma quando em uso contínuo.

A ATI já conseguiu melhorar muito no quesito temperatura, conseguindo manter as placas da geração 5000 com temperatura bem abaixo das placas da geração passada.

{benchmark::563}

{benchmark::562}

{break::3DMark06, 3DMark Vantage}Começamos os testes com o 3DMark 06, onde a GTX 480 conseguiu alcançar um score muito bom, ultrapassando a 5870 por pouco menos de 700 pontos, mas, como era de se esperar, não consegue fazer frente à 5970, placa dual da ATI.

Em se tratando das comparações com as placas da própria Nvidia, a GTX 480 ultrapassou por pouco mais de 400 pontos a GTX 295, placa com dois chips da geração passada. Na comparação com a 285, modelo "single" mais potente da geração anterior, a diferença é considerável, acima de 15% a favor da GTX 480.

{benchmark::530}

3DMark Vantage
Com o 3DMark Vantage temos uma pequena mudança. A GTX 480 apesar do bom resultado ficou atrás da GTX 295, mas tem uma superioridade de mais de 25% sobre a GTX 285.

Já na comparação com as placas de sua principal concorrente, tirando a 5970 que fica bem à frente, a GTX 480 supera a 5870 por cerca de 10%.

{benchmark::531}

{break::Unigine HEAVEN Benchmark 2.0}Lançada há poucos dias, a versão 2.0 do sistema de benchmark HEAVEN da Unigine é uma das melhores opções do mercado no momento para se medir desempenho de placas de vídeo rodando tecnologias como tessellation.

Fizemos uma série de testes usando esse "software", não apenas com DirectX 11, mas também com DX9 e DX10. Com isso teremos resultados comparando as placas HIGH da geração passada da Nvidia.

Unigine HEAVEN 2.0 - DirectX 9
Começamos com o teste em DirectX 9, onde a GTX 480 ficou atrás da GTX 295 e da 5870, resultado curioso se analisarmos o resultado do 3DMark 06, também baseado em DX9 e com ótimo resultado a GTX 480.

{benchmark::554}

Unigine HEAVEN 2.0 - DirectX 10
Rodando o teste em DirectX 10 temos uma mudança nos resultados, diferente do que aconteceu com o teste em DX9 a GTX 480 conseguiu um resultado muito bom, ficando atrás apenas da 5970, mesmo que a diferença para com a 5870 seja praticamente nula.

Outro fato interessante é que a GTX 480 colocou uma vantagem de mais de 10% sobre a GTX 295, placa dual chip que tem suporte total a DX10. E na comparação com a GTX 285 uma melhora de mais de 40% a favor da nova placa, muito bom.

{benchmark::555}

Unigine HEAVEN 2.0 - DirectX 11 – Tessellation DISABLED
Rodando o teste em DirectX 11, mas com a tecnologia tessellation desativada, a GTX 480 ficou cerca de 10% à frente da 5870. Poderia ser um pouco melhor. Vamos ver o que acontecerá nos próximos testes.

{benchmark::556}

Unigine HEAVEN 2.0 - DirectX 11 – Tessellation NORMAL
Quando ativamos a tecnologia tessellation no modo "normal", a GTX 480 consegue resultados melhores do que as placas da ATI, sendo que a perda de desempenho é menor.

Como podemos ver, a diferença entre 5870 e GTX 480 aumentou, e entre GTX 480 e 5970 diminuiu.

{benchmark::557}

Unigine HEAVEN 2.0 - DirectX 11 – Tessellation EXTREME
Após o teste em modo "normal" para a tecnologia tessellation, agora vamos ao teste em modo "extreme", que é o máximo oferecido pelo Heaven 2.0.

Como podemos ver abaixo, a GTX 480 se mostra uma placa excelente quando rodando essa tecnologia, apesar de que estamos falando de um "aplicativo" de teste e não de um game, por exemplo. Mas, em teoria, no que diz respeito à renderização da tecnologia em si o resultado é muito animador para a Nvidia, gerando uma boa expectativa em games que venham a utilizar tal tecnologia daqui por diante.

{benchmark::558}

{break::Crysis}Começamos os testes em games com o Crysis. Os resultados são bem interessantes, mostrando equilíbrio total entre três modelos, GeForce GTX 480, GTX 295 e Radeon 5870, todas as placas em pé de igualdade.

A 5970 dispara na frente, mostrando o poder de seus dois chips trabalhando juntos.

Um ponto muito interessante é a comparação da GTX 480 com a 285. Normalmente no Crysis a ATI sempre dominava, mas agora a GTX 480 conseguiu se equiparar com a 5870 e mostra seu bom resultado na comparação com a GTX 285. Reparem que a diferença é superior a 30% em média.

{benchmark::532}

{benchmark::533}

{benchmark::534}

{break::Far Cry 2}Mudamos o game e com isso os resultados também mudaram, radicalmente.

Se no Crysis a ATI sempre levou uma pequena vantagem, no Far Cry 2 a Nvidia que sempre dominou, e a GTX 480 mostra que isso não irá mudar. Pelo contrário, conseguiu fazer algo inesperado, já que a principal concorrente na briga pelo topo de melhor performance foi a 5970. Reparem que a 480 chega a ultrapassar a 5970 na resolução de 1280x1024, e nas demais perde por muito pouco.

Na comparação com a 5870, a diferença é muito alta, cerca de 30% em média.

Outro ponto muito interessante é a grande melhora frente à GTX 285, quase 100% na resolução mais baixa, com média superior a 80% no geral, incrível.

{benchmark::535}

{benchmark::536}

{benchmark::537}

{break::Tom Clancy´s H.A.W.X}Como acontece com o Far Cry 2, no game H.A.W.X a Nvidia sempre se mostrou superior. A GTX 480 veio para sacramentar esse fato, conseguindo inclusive ultrapassar a 5970, em todas as resoluções. Na comparação com a 5870 a diferença varia de 40% a favor da GTX 480 na resolução mais baixa, caindo até cerca de "apenas" 30% na resolução mais alta.

Como se não bastasse o excelente resultado frente às placas da Nvidia, a melhoria sobre a GTX 285 foi ainda maior, chegando a dobrar a velocidade na resolução mais alta, um fato alcançado pouquíssimas vezes por uma placa do segmento HIGH sobre uma geração anterior.

{benchmark::538}

{benchmark::539}

{benchmark::540}

{break::World in Conflict}Diferente de Crysis, Far Cry 2 e H.A.W.X, World in Conflict é um dos poucos games onde existe certo equilíbrio entre placas de mesmo segmento de ATI e Nvidia.

Como podemos ver abaixo, a 5970 mostra todo seu poder, ficando em média cerca de 15% à frente da GTX 480, que por sua vez coloca uma vantagem um pouco maior sobre a 5870, beirando os 20%.

Na comparação GTX 480 vs GTX 285 temos um diferença superior a 30% para a placa da nova geração, mostrando novamente o excelente trabalho da Nvidia.

{benchmark::541}

{benchmark::542}

{benchmark::543}

{break::BattleForge}BattleForge foi o primeiro game com suporte a DirectX 11 a chegar ao mercado. Abaixo os testes das placas utilizadas nessa review com suporte a DirectX 11.

Reparem que a GTX 480 novamente faz um ótimo papel e chega muito perto da 5890. Na comparação com a 5870 a placa da Nvidia leva vantagem com diferença média de 30%.

{benchmark::548}

{benchmark::549}

{benchmark::550}

{break::DiRT 2}Assim como o BattleForge, DiRT 2 também teve grande parte de seu marketing feito sobre o DirectX 11, inclusive com uma parceria entre Codemasters e AMD colocando o título como acompanhamento em diversas placas de segmento MID e HIGH da série Radeon HD 5000.

Quanto ao desempenho das placas sobre o game, a ATI não parece ter grande vantagem. Como vemos abaixo nos gráficos, a GTX 480 fica de 15% a 20% a frente da 5870, uma margem considerável. Como é de se esperar a 5970 também coloca uma boa diferença sobre a GTX 480.

{benchmark::551}

{benchmark::552}

{benchmark::553}

{break::Just Cause 2}Fizemos testes com o game Just Cause 2, lançado recentemente e que disponibiliza uma ferramenta de benchmark interna.

Como podemos ver abaixo, as placas da ATI levam uma boa vantagem sobre os modelos da Nvidia. A própria GTX 480 não conseguiu fazer frente à 5870 em nenhuma das resoluções. Resta saber o quanto uma versão nova de drivers poderá melhorar o desempenho nesse game.

{benchmark::559}

{benchmark::560}

{benchmark::561}

{break::Batman, DarkVoid}Rodando o Batman, game baseado na Unreal Engine 3, as placas da Nvidia costumam obter resultados melhores, e é o que continua a acontecer. Além do bom resultado da GTX 295 que fica muito perto da 5970, a GTX 480 também se comporta muito bem, fica relativamente perto das placas dual chip, e colocando uma diferença de cerca de 30# sobre 5870 e GTX 285, ambas que score igual.

{benchmark::544}

DarkVoid
Mais um game baseado na Unreal Engine 3, agora o DarkVoid da Capcom.

Assim como no Batman, rodando o DarkVoid as placas da Nvidia conseguem resultados melhores que as placas da ATI. Reparem que apesar da GTX 480 não fazer frente à 5970, a GTX 295 supera a placa mais potente da ATI.

Na comparação GTX 480 vs 5870, a placa da Nvidia é superior em mais de 80%, sendo cerca de 20% superior a GTX 285.

{benchmark::546}

{break::PhysX}Fizemos testes de física com a tecnologia PhysX nos games Batman Arkham Asylum e DarkVoid. Como já esperado, as placas da ATI por não suportarem tal tecnologia acabam sendo afetadas diretamente em seu desempenho, chegando a resultados ridiculamente baixos, mesmo com a 5970.

Batman Arkham Asylum – PhysX
No teste com PhysX ativado no game do Batman, a GTX 480 se comportou muito bem, melhorando mais de 30% o desempenho na comparação com a GTX 285 - um ótimo salto na velocidade com essa tecnologia que é uma das grandes apostas da Nvidia.

{benchmark::545}

DarkVoid – PhysX
Em cima do DarkVoid, um resultado impressionante. A GTX 480 mais que duplicou o desempenho alcançado pela GTX 285, situação que acontece poucas vezes em placas de geração diferente, mas de mesmo segmento.

{benchmark::547}

{break::Conclusão}"Valeu a pena pela longa espera!" Esta poderia ser muito bem uma frase para resumir a chegada da geração Fermi.

Apesar de ter ficado 6 meses a espreita de sua rival, a NVIDIA "voltou com força total ao jogo" com o advento da GeForce GTX 480. Mesmo sem operar a 100% de suas condições técnicas teóricas, a placa mostrou fôlego mais do que suficiente para destronar a Radeon HD 5870. A exceções de Crysis e Just Cause 2, a nova GPU da NVIDIA não tomou conhecimento de sua concorrente, chegando em alguns casos, a ultrapassar a 5970, placa equipada com dois chips gráficos.

Além de elevar o patamar de desempenho para um outro nível, a GF100 trouxe um recursos bastante interessante para os aficionados pela perfeição das imagens: o novo filtro de anti-aliasing 32xCSAA.

Para quem não dispensa o uso da tecnologia PhysX, a GTX 480 cairá como uma luva em tais games, como é o caso de Dark Void, onde a placa foi 80% mais veloz que a GTX 295, não cabe comparar com as placas da ATI porque seria injusto, já que elas não possuem aceleração para essa tecnologia.

Outro recurso bastante interessante, onde a GF100 "tira de letra", é o 3D VISION SURROUND, tecnologia que transmite a sensação 3D junto a nada mais nada menos do que 3 monitores simultâneos.

Engana-se quem pensa que a Fermi é um produto destinado exclusivamente ao uso doméstico (jogos eletrônicos/home cinema). Na realidade trata-se apenas de um de seus focos (talvez o que menos utilize todas as suas potencialidades).

Com a chegada da nova geração de GPUs, a NVIDIA lançou um verdadeiro divisor de águas na indústria. Graças a sua arquitetura inovadora do tipo MIMD, o chip gráfico é na realidade um verdadeiro "mini-super computador" em um pequeno PCB. Não é a toa que a versão científica da Fermi (chamada de Tesla) está sendo utilizada para equipar os principais super computadores de todo o mundo.

Porém, nem tudo são "flores" para os lados da NVIDIA. Embora possua um alto desempenho e um bom preço para seu segmento, a companhia poderá ter problemas mercadológicos, uma vez que as suas concorrentes da linha Evergreen da ATi contam com um trunfo: menor custo de produção, o que abre margem para uma redução no preço final das Radeons. Aliás, com a chegada da GF100, já é possível encontra uma 5870 por menos de US$400!

Outro ponto preocupante é a temperatura da placa em uso contínuo como rodando games, principalmente em países com clima quente, nosso caso. Mas como só existe versão beta de drivers até isso pode ser melhorado com ajustes no controle do FAN.

Contudo, a disputa está lançada: "joguem os seus dados" e que vença a melhor!

ATUALIZAÇÃO: Erramos na hora de dar a nota final, deixando uma das características("Diferenciais") com nota acima do merecido, com isso a nota fical acabou sendo mais alta do que realmente queriamos. Para não deixar o erro, hoje fizemos a correção, peço desculpas(DioLa) pelo ocorrido, foi falta de cuidado em analisar a nota final diante dos prós e contras da placa.

PRÓS
- Desempenho excelente
- Suporte as melhores tecnologias do mercado: DirectX 11, 3D Vision Surround, 32xCSAA, PhysX
CONTRAS
- Temperatura bastante alta em full load
- Consome bastante energia e requer fonte boa
Tags
  • Redator: Redação

    Redação

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.