ANÁLISE: Nvidia GeForce GTX 570

ANÁLISE: Nvidia GeForce GTX 570

Passada "euforia" da GTX 580, placa single GPU mais poderosa do mundo (pelo menos até a chegada da Radeon HD 6970), eis que a NVIDIA apresenta a GeForce GTX 570, placa que compartilha o mesmo chip GF110 que a sua "irmã maior", e que chama bastante atenção do mercado pela possibilidade de conferir uma boa relação de custo x benefício para o segmento intermediÁrio de alto desempenho.

Assim como ocorreu com o lançamento da GTX 580, a Adrenaline recebeu em carÁter super exclusivo da NVIDIA uma exemplar da GeForce GTX 570. Trata-se de um verdadeiro "presente" para toda a comunidade brasileira, e principalmente para os nossos assíduos leitores, que poderão conferir em primeiríssima mão todos os detalhes e o desempenho da placa.

Conforme jÁ antecipado na review da GTX 580, o GF110 é uma versão aprimorada do GF100 (GTX 480/470), contando com um novo rearranjo em alguns componentes internos, sendo mais eficiente em termos de potência x consumo de energia (e dissipação de calor) que o chip da geração anterior. E estamos falando em uma GPU com a mesma litografia em 40nm.


Modelo de referência da NVIDIA

A nova série GTX 500 chega em um momento crucial para a NVIDIA, jÁ que ela tem a difícil missão de competir com as novas Radeons 6900 da ATi, placas que, embora ainda não tenham sido lançadas, herdam toda a fama e prestígio da geração anterior Evergreen.

A sua "irmã mais velha", a GTX 470, recebeu muitas críticas por parte do mercado, uma vez que era taxada como um produto de pouco apelo comercial, ficando "apagada" pelo desempenho da GTX 480 e pelo custo benefício da GTX 460. Agora, a NVIDIA pretende acabar com esse conceito, ao prometer uma VGA com alto valor agregado, ou seja, ótimo desempenho com preço bastante razoÁvel para o seu segmento.

Vale lembrar que a geração Fermi estÁ nitidamente sustentada em duas pilastras: grande poder de processamento e suporte às novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision, CUDA e o novo modo de filtro 32xCSAA (Coverage Sampling Antialiasing), sendo oito do tipo "multisamples" e 24 "coverage samples".

{break::Arquitetura GF110}O GF100 foi sem dúvida para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje: o conceito de grÁficos unificados e computação paralela.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

- Continua após a publicidade -

Conforme mencionado no início desta review, o GF110 é uma versão baseada e aprimorada do GF100. Podemos dizer que os engenheiros da NVIDIA tiraram "leite de pedra" da arquitetura Fermi. Graças a toda uma nova reengenharia pelo que passou o chip, como a utilização de transistores com menos perda de energia dispostos em um novo arranjo físico, a GeForce GTX 570 conseguiu um desempenho praticamente similar ao da GTX 480, com um consumo de energia bem mais eficiente (219W contra 250W).

Abaixo alguns pontos-chaves da arquitetura Fermi:

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização de forma segura, de uma grande quantidade de GPUs em Data Centers, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso "poder de fogo", trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

Na verdade, o que a NVIDIA fez com o GF110 foi aperfeiçoar o GF100, de tal forma que fosse possível disponibilizar um chip com todo o poder da arquitetura Fermi, ou seja, com todos os 512 CUDA Cores ativos sem, no entanto, comprometê-lo com o consumo de energia e calor. Com a mesma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados) e os mesmos três bilhões de transistores em uma Área aproximada de 520mm2 - portanto idêntica ao GF100 - o GF110 teve ainda o benefício de herdar um amadurecimento no processo de fabricação – algo semelhante à atualização de stepping por que passa um processador, mantendo as mesmas características bÁsicas, como o clock, mas com um menor TDP (consumo de energia).

- Continua após a publicidade -

Como pode ser visto acima na estrutura de processamento "host interface" (responsÁvel por gerenciar os comandos do processador) do chip GF110, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de quatro GPCs (Graphics Processing Clusters), seis controladores de memória, partições ROPs e cache L2 com 640KB. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui quatro unidades de Streaming Multiprocessor (SMs) que, por sua vez, são preenchidas por 32 CUDA Cores. Dessa forma, a GF110 é composta por 512 Shaders Processors (16 SMs x 32 CUDA Cores).

Como jÁ é de praxe das fabricantes de GPUs, os modelos menos potentes contam com algumas restrições em sua arquitetura/especificação, como forma de se manter a um passo atrÁs das versões mais robustas. No caso específico da GeForce GTX 570, a placa conta com uma unidade de Streaming Multiprocessor a menos do que a GTX 580, totalizando assim 480 Shaders Processors (15 SMs x 32 CUDA Cores). Outro diferencial estÁ na quantidade de controladores de memória, passando de seis para cinco, totalizando assim um bus de 320 bits (5x64 bits), contra 384 bits (6x64 bits), das GTX 580 e 480.

Em relação à quantidade de unidades de rasterização, a GTX 570 possui 40 ROPs, uma vez que hÁ cinco conjuntos de oito ROPs, embora a arquitetura da GF100 suporte seis unidades, perfazendo um total de 48 ROPs, como é o caso da GTX 580. Em se tratando das unidades de texturização das memórias, a GeForce GTX 570 tem 60 TMUs, mesmo valor que na GTX 480, mas quatro a menos do que na GTX 580. Essa limitação deu-se novamente em virtude da redução na quantidade de unidades de Stream Processors de 16 para 15, uma vez que cada SM conta com 4 TMUs, ou seja: 15 SMs x 4 TMUs = 60 TMUs (GTX 570/480) contra 16 SMs x 4 TMUs = 64 TMUs (GTX 580).

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existe de última palavra em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 480 CUDA Cores consistem em unidades de despachos, coletores de operações, duas unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.


Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi poder ser vista como a mais eficiente em se tratando de unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 32 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SM possui ainda quatro TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU.

Eis aqui um dos principais pontos geradores de discussão pela a web. A AMD possui uma abordagem diferente da NVIDIA quanto à utilização do Tessellation, afirmando que o uso em demasiado do recurso degrada sobremaneira a performance das VGAs sem, no entanto, trazer melhoras visuais perceptíveis. Enquanto isso, a NVIDIA adota uma posição contrÁria, dizendo que quanto maior a utilização do Tess, maior serÁ a qualidade das imagens.

Ao que parece, não se trata de quem estÁ com a razão, mas sim, quem estÁ puxando a "sardinha para a sua brasa". Pelo visto, cada empresa estÁ defendendo o seu ponto de vista de acordo com os seus interesses, ou melhor, com os pontos fortes de suas placas. É fato que as GeForces da geração Fermi se saem muito melhor que as Radeons da geração Evergreen (série 5000) em se tratando de Tessellation. O segredo estÁ na arquitetura de cada VGA. Enquanto as Radeons 5000 contam com apenas uma única unidade de processamento dedicada ao Tess, a NVIDIA equipou as novas GeForces com um conjunto de vÁrias unidades, como é o caso da GeForce GTX 570, que conta com um total de 15 Polymorph Engines. Apesar de a AMD ter aprimorado a unidade de processamento do Tessellation nas Northern Islands (Radeons 6000), prometendo ganho de até 100% sobre as 5000, ainda assim, o fato destas contarem com apenas uma unidade é fator decisivo em favor das GeForces - pelo menos em relação ao uso intensivo do Tesselletion.

Apesar de utilizar a mesma configuração Streaming Multiprocessor da GTX 480, a GeForce GTX 570 recebeu dois aprimoramentos chaves na arquitetura como forma de trazer mais performance. Para começar, a VGA suporta agora toda a velocidade do filtro de textura FP16, o que acelera o processamento de certas aplicações/imagens com muitas texturas. Outra melhoria foi a adição do suporte a novos formatos de polígonos que aprimoram a eficiência do Z-cull. De acordo com a NVIDIA, essas "simples" novidades aprimoraram o desempenho da placa em 5% no Metro 2033 e Heaven 2.1, 6% no HAWX e Crysis Warhead, 10% no NFS: Shift, 13% em DiRT 2 e 14% no 3DMark, só para citar alguns.

- Continua após a publicidade -

Assim como o GF100, o GF110 suporta o filtro de antialiasing modo 32x CSAA (8+24x), com 32 níveis de transparência, com expressivo ganho de desempenho sobre a GT200. O melhor de tudo é que, segundo a NVIDIA, a degradação da performance serÁ muito pequena em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma prova, seguindo o pensamento de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 640 KB (768KB na GTX 580) de L2. Tratam-se de números interessantes. Enquanto a NVIDIA foi em uma direção (colocando mais memória L1 do que L2), a ATi seguiu justamente um caminho oposto, equipando a linha Evergreen com mais cache L2 do que L1.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante ao que chega o L2.

Ainda dentro do assunto memória, a arquitetura da Fermi é composta de seis partições de 64 bits, resultando assim em um total de 384 bits de interface de memória (GTX 570 estÁ limitada a 320 bits conforme detalhado no início desse tópico). Ao todo, a Fermi é capaz de suportar até 6GB de VRAM, embora a GTX 570 conte com "apenas" 1,25GB.



{break::Os recursos da GTX 570}Abaixo, um resumo das principais especificações da GeForce GTX 570.

• Três bilhões de transistores;
• "Segunda geração" da litografia em 40 nm;
• Área do die: 520mm2;
• Frequência de operação das texturas e ROPs (GPU): 732MHz;
• 480 CUDA cores/shader processors;
• Frequência de operação dos CUDA cores: 1464MHz;
• Frequência de operação das memórias: 3800MHz (GDDR5);
• Quantidade de memória: 1.25GB;
• Interface de memória: 320bits;
• Consumo de energia/TDP: mÁximo de 219 watts;
• Limiar térmico da GPU em 97° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.3a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM);
- 32 CUDA cores por SM, 4x mais que a GT200;
- Performance até 8x maior em ponto flutuante de precisão dupla em relação a GT200;
- Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
- 64 KB de RAM com uma partição configurÁvel de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Endereçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.

Conforme jÁ mencionado na seção anterior, os engenheiros da NVIDIA se superaram ao construírem uma placa inteiramente baseada na anterior – mantendo, contudo, o mesmo processo de fabricação – com uma relação entre desempenho e consumo de energia bem mais eficiente. Isso só foi possível graças ao amadurecimento no processo de fabricação em 40nm, além de uma reengenharia e otimização na arquitetura.

Para suprir os 219W, a VGA possui dois conectores de alimentação extra, ambos de seis pinos (75W), que somados aos 75W do slot PCIe, garantem 225W à GTX 570. Assim, o fator overclock pode ficar de certa forma comprometido pelo "gargalo" energético. Assim, é bem provÁvel que os modelos turbinados e especiais contem com um conector de oito pinos no lugar do segundo de seis, garantindo assim 75W adicionais. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 550W, em virtude dos demais componentes do computador, sobretudo se o processador for de alto desempenho.

O interessante é que, embora a GTX 570 seja a sucessora da GTX 470, a comparação com as especificações da GTX 480 é imediata, uma vez que ambas possuem números praticamente idênticos, como é o caso da quantidade de CUDA Cores e TMUs, respectivamente em 480 e 60. Por mais que a GTX 570 conte em seu favor com clocks mais elevados que a GTX 480 (GPU/CUDA Cores/Memória respectivamente em 732Mhz/1464Mhz/3800Mhz e 700Mhz/1401Mhz/3696Mhz), dois pontos pesam negativamente para a GTX 570: a quantidade de ROPs e bus/quantidade de memória. Eis os grandes motivos que impediram que a placa tivesse um desempenho global bem melhor em relação à GTX 480. Não fosse isso, a GeForce GTX 570 deveria, em tese, ser de 5% a 7% mais veloz que a GTX 480, graças às melhorias advindas na arquitetura (adição do FP16 texture filtering e aprimoramento no Z-cull). Em compensação, o consumo em relação à GTX 480 caiu 14%, passando assim de 250W para 219W.



{break::Sistema de refrigeração VCT}Outra importante novidade acrescentada à GeForce GTX 580/570 foi a utilização de um novo sistema de refrigeração utilizando a reconhecida tecnologia conhecida como Câmara de Vapor (Vapor Chamber Technology -VCT).

As câmaras de vapor são, em sua essência, heatpipes planos/achatados que se utilizam dos princípios da evaporação e condensação para produzirem um ambiente de alta condutividade térmica.

A VCT é uma espécie de câmara selada a vÁcuo composta de três zonas: de vaporização, condensação e transporte. O funcionamento é relativamente simples. O calor emanado pela GPU aquece o fluído dentro da zona de vaporização, fazendo-o evaporar. O vapor do fluído se move através do vÁcuo até que se choque com a zona de condensação. Nesse estÁgio, o vapor se condensa, voltando ao seu estÁgio inicial líquido (liberando o calor no processo). O fluído é então absorvido pela zona de transporte (por meio do processo de capilaridade) onde é, então, levado de volta para o ponto inicial do processo, a zona de vaporização, fechando o ciclo para então ser repetido.

As câmaras de vapor podem ter uma imensa combinação de tipos de materiais e fluídos, dependendo principalmente da temperatura de operação do sistema de refrigeração. A combinação mais utilizada para dispositivos eletrônicos é formada por cobre e Água porque a sua temperatura de funcionamento poder variar de 10°C a 250°C. Contudo, para se atingir patamares mais extremos, são utilizados outros tipos de materiais e fluídos.

Para se ter ideia da eficiência da tecnologia, a capacidade de condução térmica chegou, em alguns casos, a ultrapassar em mais de 30 vezes a condutividade do cobre e em mais de dez vezes o grafite pirolítico e o diamante.

Além disso, a NVIDIA utilizou uma nova ventoinha, composta por inúmeras melhorias e aperfeiçoamentos com o intuito de aprimorar sua capacidade de exaustão térmica, além de reduzir a sua vibração, consequentemente, gerando menor ruído.


(Detalhe do sistema de refrigeração da GTX 580)

Outro diferencial da GTX 580/570 é que a placa utiliza um novo algoritmo adaptativo de controle da rotação da ventoinha, que suaviza a "aceleração" e "desaceleração" na rotação da FAN.

Fechando o "pacote" de novidades no quesito cooler, a nova GeForce conta com um novo design na cobertura "carenagem" da placa. As costas da cobertura são agora angulares, o que, de acordo com a NVIDIA, ajuda a jogar o ar quente para o bracket, além de melhorar o fluxo de ar em sistemas multi GPU (SLI).

Dessa forma, a GeForce GTX 570 comprova mais uma vez que a Fermi pode sim ser uma placa que alia alto desempenho com consumo de energia e calor controlados.

{break::Monitoramento de Energia}

Além do tradicional monitoramento que protege as GPUs de eventuais problemas causados pelo excesso de temperatura, a NVIDIA traz na GTX 570 um recurso de proteção inaugurado na GeForce GTX 580, chamado de monitoramento de energia.

Trata-se de um conjunto de circuitos presentes no PCB da placa, que faz o monitoramento em tempo real da corrente elétrica e voltagem transmitida em cada rail 12V, seja via conector extra de seis pinos, oito pinos ou mesmo via PCI Express.

Assim, o driver é capaz de ajustar dinamicamente (e de forma transparente ao usuÁrio) a performance em certas aplicações de uso pesado, como é o caso do Furmak e OCCT, caso os níveis de corrente e voltagem excedam os limites da VGA.


(Detalhe dos circuitos de proteção de sobrecarga de corrente/voltagem)

{break::Novidades do DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, focada principalmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation jÁ nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão agora "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de "cores"/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Desta forma, aplicações voltadas para a biologia, física, simulações, criptografia, dentre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Desta forma, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação seqüencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla Área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.


SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em seqüência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Como pode ser visto nas imagens abaixo, a GeForce GTX 570 (assim como a GTX 580) não possui mais os heatpipes externos presentes na geração passada (GF100). Essa mudança ocorreu, em grande parte, pelo uso do novo sistema de refrigeração VCT.

Tiramos também algumas fotos da placa sem a base protetora do sistema de cooler, dando uma boa noção de como ficou internamente.

Por último, algumas fotos com a GTX 570 e 480 lado a lado, mostrando que a maior diferença visual ficou mesmo relacionada ao sistema de refrigeração, além da abertura na parte de baixo da GTX 480 que sumiu nas novas GTX 580 e 570, provavelmente devido à melhora alcançada com o VCT.

{break::MÁquina/Softwares utilizados}Utilizamos uma mÁquina TOP de linha baseada em um processador Intel Core i7 980X overclockado para 4.2GHz, evitando assim qualquer dúvida sobre gargalo do processador.

As placas utilizadas nos comparativos foram, por parte da NVIDIA, logicamente a GeForce GTX 570, além da GeForce GTX 580 e GTX 480. JÁ se tratando de AMD (ATi) os modelos selecionados foram a Radeon HD 5970 e a 5870.

Abaixo, uma foto da GTX 570 montada no sistema.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard Asus Rampage II Gene / Gigabyte GA-X58A-UD9
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 263.09: GTX 570
- NVIDIA ForceWare 262.99: GTX 580
- NVIDIA ForceWare 260.99 WHQL: GTX 480, GTX 470
- ATI Catalyst 10.10d WHQL: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)
- StarCraft II (DX10)

{break::GPU-Z, Temperatura, Ruído}Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da GTX 570.


Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Conforme pode ser conferido abaixo, o sistema de refrigeração com tecnologia Vapor Chamber – VCT cumpriu espetacularmente o seu papel ao ponto de se igualar à Radeon HD 5870, comprovando que é possível sim colocar uma Fermi TOP trabalhando em condições bastante competitivas frente às suas rivais.

No modo ocioso, quando a placa tem pouco esforço computacional, a GTX 570 ficou em 39ºC, um grau a menos em relação a sua "irmã maior" e da Radeon 5870. Comparada às GTX 470 e GTX 480, a melhora foi respectivamente de 3ºC e 6ºC.

Quando a placa é submetida à intensa carga de trabalho, a GeForce GTX 570 chega a 79ºC, valor idêntico ao da GTX 580, mas 5ºC a menos que a GTX 470 e 8ºC mais fria que a GTX 480.

{benchmark::1213}

{break::3DMark Vantage, Unigine Heaven 2.1}3DMark Vantage
Embora seja considerado um teste bastante polêmico por parte da comunidade, por ser tachado como um benchs sintético que não reflete muitas vezes a condição da placa no mundo real (leia-se jogos), o 3DMark Vantage é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutÁ-lo neste teste.

Em primeiro lugar ficou a GTX 580, seguida da Radeon 5970. A GTX 570 ficou na terceira posição com 26.357 pontos, 13% a menos que a sua "irmã maior". Em compensação a placa marcou 12,5% mais pontos em relação à GTX 480 e quase 36% mais poderosa que a GTX 470.

{benchmark::1214}

Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro cenÁrio (sem o Tessellation), nenhuma surpresa, com a GTX 580 em primeiro, seguida da Radeon 5970. Um pouco mais atrÁs ficou a GTX 570, praticamente empatada com a GTX 580. Em compensação, a vantagem da nova GeForce para a sua "irmã mais velha", a GTX 470 foi de 26%.

Quando se ativa o Tessellation, o cenÁrio praticamente é o mesmo do anterior, ou seja, GTX 580 em primeiro, seguida da Radeon 5970, com a GTX 470 em terceira posição, colada com a GTX 480, mas com expressiva vantagem sobre a GTX 470, na casa dos 26%.

{benchmark::1215}

{break::Aliens vs Predator}Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Em 1280x1024, a Radeon 5970 ficou em primeiro lugar, seguida da GTX 580. A disputa pela terceira colocação foi bastante disputada, com a GTX 480 sendo apenas 3% mais veloz que a GTX 570. Esta por sua vez é 15% mais rÁpida que a Radeon 5870 e 20% mais poderosa que GTX 470. Na última colocação ficou a Radeon 6870.

{benchmark::1216}

Em 1680x1050 o cenÁrio não muda, ou seja, Radeon 5970 no topo, seguida da GTX 580, com GTX 480 e GTX 570 se engalfinhando pela briga pela terceira posição, com leve vantagem (3%) para a GF100. A nova VGA da NVIDIA é 15,5% mais veloz que a Radeon 5870 e 21% mais rÁpida que a GTX 470. A Radeon 6870 fechou o teste na última posição.

{benchmark::1217}

Nenhuma novidade em 1920x1080, com as placas mantendo as mesmas posições que nas duas resoluções anteriores. Mais uma vez a GTX 480 foi 3% mais rÁpida que a GTX 570, sendo esta 16% mais veloz que a Radeon 5870 e 21% mais poderosa que a GTX 470.

{benchmark::1218}

{break::Crysis Warhead}O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Nos 3 testes realizados, as posições não se alteraram. Contudo, duas novidades em relação ao bench do AvP. A primeira foi a Radeon 5970 ultrapassando a GTX 580, e a segunda foi a GTX 570 "roubando" a terceira posição da GTX 480.

Em 1280x1024 a vantagem da GTX 570 sobre a GTX 580, Radeon 5870 e GTX 470 foi respectivamente de 3%, 18% e 28%.

{benchmark::1219}

JÁ em 1680x1050 a GTX 570 foi 3,5% mais veloz que a GTX 480, 18% mais rÁpida que a Radeon 5870 e 28% mais poderosa que a GTX 470.

{benchmark::1220}

Finalmente em 1920x1080, a vantagem da GTX 570 sobre a GTX 480, Radeon 5870 e GTX 470 foi respectivamente de 3,5%, 22% e 28,5%.

{benchmark::1221}

{break::DiRT 2}"Colin McRae: Dirt 2", mais conhecido simplesmente como DiRT 2, é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

Assim como em Crysis, em Dirt2, as posições não mudam à medida que se aumenta a resolução. A GTX 580 retorna à primeira colocação, com a Radeon 5970 no segundo lugar. Mais uma vez a GTX 570 alcançou a terceira posição, com vantagem de 2% sobre a GTX 480, 25% sobre a GTX 470 e de 38% em relação à Radeon 5870 (resolução de 1280).

{benchmark::1222}

Na resolução intermediÁria, a vantagem para a GTX 480, GTX 470 e Radeon 5870 foi respectivamente de 2,5%, 27% e 29%.

{benchmark::1223}

Finalmente em 1920x1080, a GTX 570 foi 4% mais rÁpida que a GTX 480 e 29% mais veloz que a GTX 470 e Radeon 5870.

{benchmark::1224}

{break::F1 2010}As Radeons se deram muito bem em F1 2010, game baseado na engine EGO 1.5 da Codemasters.

Em 1280x1024, embora a Radeon 5970 não tenha sido pÁrea para bater a GTX 580, ficando em segundo lugar, a Radeon 5870 foi apenas 1FPS mais lenta do que a GTX 480, ficando assim na quarta posição, 8,5% a frente da GTX 570. Até mesmo a Radeon 6870 reagiu, deixando a lanterna para a GTX 470. A vantagem da GTX 570 para a GTX 470 foi de 11%.

{benchmark::1225}

Em 1680x1050, hÁ praticamente um empate técnico entre as atuais VGAs mais poderosas do mundo, ficando a GTX 580 com uma tênue vantagem sobre a Radeon 5970. A terceira colocação foi ocupada pela Radeon 5870, deixando a GTX 480 em quarta posição. O quinto lugar foi bastante disputado entre a GTX 570 e a Radeon 6870, com vantagem de 1 FPS para a placa da NVIDIA. Embora a GTX 570 tenha sido cerca de 7,5% mais lenta que a GTX 480, a nova GeForce foi 13% mais veloz que a GTX 470.

{benchmark::1226}

Finalmente em 1920x1080, a Radeon 5970 conseguiu tirar a primeira posição da GTX 580, com 5870 em terceiro e GTX 480 em quarto, esta com 9% de vantagem sobre a GTX 570. Empatada com a nova GeForce ficou a Radeon 6870. Vale ressaltar que ambas foram 12% mais rÁpidas que a GTX 470.

{benchmark::1227}

{break::Just Cause 2}Se tem um game no qual as placas da série Radeon dominam em todos os segmentos é o Just Cause 2, curiosamente apoiado pela NVIDIA.

A Radeon 5970 foi absoluta nos três testes, com a 5870 na segunda posição, seguida de perto da GTX 580 em terceiro. Apenas em 1680x1050 que a placa da NVIDIA bate por muito pouco a VGA da AMD.

O desempenho das Radeons é tão bom, que a 6870, placa da categoria intermediÁria (MID), consegue bater a GTX 480 e a GTX 570. A última posição foi ocupada pela GTX 470. Em termos de comparação entre a antiga GF100 da nova GF110, a GTX 570 segue de perto a GTX 480, com vantagem média de apenas 3% para a GF100. A superioridade média da GTX 570 sobre a GTX 470 é de 21%.

{benchmark::1228}

{benchmark::1229}

{benchmark::1230}

{break::Mafia II}Em Mafia II, game que trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50 nos EUA, o primeiro lugar (resolução de 1280x1024) é ocupado pela GTX 580, seguida de perto pela Radeon HD 5970. Outra intensa briga ocorre pela terceira posição, com vantagem mínima de 1% da GTX 480 sobre a GTX 570. Em compensação, a nova GeForce é respectivamente 13%, 21% e 24,5% mais veloz que a Radeon 5870, GTX 470 e Radeon 6870.

{benchmark::1231}

Em 1680x1050, a única novidade que ocorre é em relação à sexta posição, com a Radeon 6870 ultrapassando a GTX 470. A disputa entre GTX 480 e GTX 570 continua acirradíssima, com a nova GeForce sendo 9,5% mais veloz que a 5870 e 22% mais rÁpida que a última colocada, a GTX 470.

{benchmark::1232}

No último cenÁrio, nenhuma mudança em relação à resolução anterior, isto é, GTX 580 em primeiro, seguida de perto da Radeon 5970, GTX 480 e GTX 570 em intensa disputa pelo terceiro lugar, com Radeon 5870 em quinto, 6870 em sexto e GTX 470 na sétima posição. A vantagem da GTX 570 para a 5870 é de 6%, e de 22% sobre a GTX 470.

{benchmark::1233}

{break::Metro 2033}Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Metro 2033 é outro game no qual as placas da NVIDIA conseguem resultados melhores, provavelmente, em parte, pelo intenso uso do Tess.

Em 1280x1024, a GTX 580 ocupa a primeira posição com folga. Contudo, o segundo lugar tem uma intensa disputa entre três placas: GTX 480, Radeon 5970 e GTX 570. Melhor para a GF100, seguida pela placa da AMD. Vale ressaltar que a diferença entre a terceira (GTX 480) e a sexta (GTX 570) é de apenas 2,5 FPS. Mais atrÁs ficaram GTX 470, Radeon 5870 e 6870 respectivamente em quinto, sexto e sétimo lugares. A vantagem da GTX 570 sobre sua "irmã mais velha" foi de 19%.

{benchmark::1234}

Em 1680x1050, a única mudança no segundo lugar, com a Radeon 5970 ultrapassando a GTX 480. A diferença entre a GF100 para a nova GF110 é de apenas 3%. Contudo, a GTX 570 é 20% superior em relação à GTX 470.

{benchmark::1235}

O último cenÁrio é uma "cópia" da anterior, ou seja, GTX 580 em primeiro, Radeon 5970 em segundo, seguidas pelas GTX 480 e GTX 570. Esta última é 19,5% mais veloz que a quinta colocada GTX 470.

{benchmark::1236}

{break::StarCraft II}Em nosso último teste, utilizamos o game de estratégia StarCraft II, que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente, problema jÁ resolvido e que agora nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes, afinal StarCraft II não possui esse tipo de configuração interna.

Começamos com a resolução de 1280x1024, com a 5970 no topo com 100 FPS cravados e a GTX 580 em sua cola. A GTX 570 fica atrÁs da 480 por menos de 2 FPS, mais um empate técnico entre esses modelos. Vemos também que a GTX 570 colocou uma diferença de 12% sobre a 5870, e quase 20% sobre a 470.

{benchmark::1237}

Em 1680x1050 não temos mudanças de posições, mas sim de diferença entre as placas. A 480 conseguiu se distanciar um pouco, ficando 6% à frente. JÁ a distância da 570 em relação à 5870 também caiu um pouco, agora em 10%. A superioridade da 570 sobre a 470 continua relativamente alta, 18%, resultado vÁlido também na comparação com a 6870.

{benchmark::1238}

Para finalizar, em resolução FULL HD temos apenas uma mudança na tabela, onde vemos a 6870 ultrapassar a 470 na parte de baixo. JÁ em cima/meio continuamos com as mesmas posições, sem grandes mudanças nos comparativos.

{benchmark::1239}

{break::Overclock: Temperatura, Vantage}Assim como a 580, não poderiamos deixar de overclockar a 570. Ainda mais pelo fato de a NVIDIA ter aprimorado o sistema de resfriamento na comparação com a GTX 470, o que, em teoria, dÁ à 570 maiores benefícios em overclock como também aconteceu com a 580, além, é claro, do controle de voltagem.

Utilizamos a versão 2.1.0 Beta 4 do Afterburner para o overclock, que, como foi lançada antes da placa, ainda não possui um suporte à altura. Entre os principais problemas que encontramos, estÁ o fato de não suportar a mudança de voltagem, portanto não conseguimos ir tão longe, mas jÁ vimos que a placa tem uma margem muito boa. Isso também aconteceu com a 580 e mesmo assim a placa se saiu bem.

Abaixo, na tela principal do GPU-Z, podemos ver que colocamos a placa com core trabalhando a 815MHz totalmente estÁvel sem nenhum problema e, destaco novamente, sem aumentar as voltagens. Chegamos a 875MHz no core e 4400MHz nas memórias, mas o Metro 2033 e o 3DMark não finalizavam seus testes. Por isso, conseguimos validar apenas os testes com a configuração abaixo, com destaque para o clock do core trabalhando 11% acima do padrão.


Temperatura
Como vemos, a temperatura da placa quando overclockada sobe muito pouco, apenas 2ºC quando em modo ocioso, e 4ºC em uso. Nada fora do normal, ainda mais se compararmos com a temperatura da 470, que mesmo com clocks padrões ficou 1ºC acima.

{benchmark::1240}

3DMark Vantage
Começamos os testes com o Vantage, onde a 570 teve aumento de quase 2.000 pontos, que representam 7% de ganho, colocando ela muito perto de uma 5970, o que é impressionante. Outro destaque é que ela ficou a apenas 6,7% da 580.

{benchmark::1241}

{break::Overclock: AvsP, Mafia II e Metro 2033}Além do 3DMark Vantage, fizemos testes com a placa overclockada na resolução de 1920x1080 em vÁrios games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Começamos com o AvsP, em que o ganho foi de 2,9FPS quando overclockada, representando cerca de 7%. Outro destaque é que o overclock fez a 570 superar a 480, mas ainda assim ficou longe da 580.

Quando estÁvamos fazendo os testes de overclock, quando conseguimos deixar a placa a 875MHz e finalizar o teste com o Aliens vs Predator, ela tinha alcançado 45,0 FPS, bastante próxima da 580.

{benchmark::1242}

Mafia II
Com o Mafia II temos resultados semelhantes ao AvsP, o ganho da placa quando overclockada sobre clock padrões é dos mesmos 7%, o esperado pelo overclock feito. A diferença em comparação com a 580 também ficou na casa dos 7%.

{benchmark::1243}

Metro 2033
Para finalizar, com o Metro 2033 novamente 7% de ganho quando a 570 overclockada, proporção que aconteceu em todos os testes, e que por tabela fez a 570 ultrapassar a 480.

{benchmark::1244}

{break::PhysX}Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o Mafia II, um dos games mais recentes a utilizar bastante essa tecnologia.

Como podemos ver abaixo, com PhysX ativado, o desempenho cai consideravelmente.

Vemos que a 570 se comporta bem frente às outras placas TOP da NVIDIA. Na resolução mais baixa, fica entre a 580 e a 480, sendo apenas 2,4 FPS à frente da 580, diferença que aumenta um pouco nas resoluções mais altas.

{benchmark::1245}

{benchmark::1246}

{benchmark::1247}

{break::Conclusão}A GeForce GTX 570 pode muito bem ser analisada por dois prismas. De um lado, a comparação imediata com a GTX 470 mostra que a nova GeForce trouxe ganhos bastantes significativos, mas por outro lado, incorporou alguma "gordura" em seu preço. Através de um outro ângulo, a placa trouxe um excelente custo x benefício ao oferecer um desempenho praticamente idêntico ao da GTX 480, custando expressivos US$150-170 a menos. AliÁs, trata-se de uma anÁlise bem semelhante à das novas Radeons 6800.

Graças à nova reengenharia por que passou, o GF110 trouxe uma relação entre desempenho e consumo de energia bem mais eficiente e harmoniosa que a da antiga GF100.

Além do alto desempenho, a GeForce GTX 570 mantém todos os destaques da geração Fermi, como o filtro de anti-aliasing 32xCSAA, 3D VISION SURROUND, CUDA e PhysX, só para citar alguns.

Com a chegada da GTX 570, a NVIDIA pretende apagar a mÁ impressão deixada com a GTX 470. Não que esta seja ruim, muito pelo contrÁrio, mas com a GTX 480 de um lado e a GTX 460 de outro, a GTX 470 ficou "espremida" entre o alto desempenho de sua "irmã maior" com a ótima relação de custo benefício de sua "irmã menor".

Assim como na GeForce GTX 580, a GTX 570 trouxe um recurso extra de proteção, que é o monitoramento da quantidade de corrente elétrica/voltagem, evitando assim uma sobrecarga no sistema e protegendo a placa de eventuais danos.

Aliando desempenho, preço interessante para o segmento, e baixo consumo de energia e dissipação de calor graças ao novo sistema de refrigeração VCT, a GeForce GTX 570 tem todos os requisitos para se tornar um dos grandes sonhos de consumo deste Natal, conquistando o seu espaço em um dos segmentos mais cobiçados pelo mercado.


PRÓS
Melhora do sistema de cooler em comparação com a GTX 480
Menor ruído em relação à GTX 480
Ótimo desempenho, praticamente no mesmo patamar da GTX 480
Ótimo preço pelo que a placa oferece
CONTRAS
Overclock "limitado" pelo gargalo na alimentação de energia
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.