ANÁLISE: ECS GeForce GTX 560

ANÁLISE: ECS GeForce GTX 560

O lançamento do chip GF104 pode ser considerado como a "redenção" da NVIDIA no segmento intermediÁrio. As GeForces da linha GTX 460 novamente deram, à companhia, o "status" e a posição de mercado da época das 9800 e 8800, que havia definhando com a série GTX 260.

Dez meses depois da chegada do GF104, a NVIDIA introduziu uma versão refinada do chip, o GF114, que aprimorou ainda mais a relação entre desempenho e consumo de energia/dissipação de calor, mantendo um patamar de preço bastante interessante para a categoria.

Não foi por acaso que a NVIDIA deu a devida atenção à GeForce GTX 560 Ti. Afinal de contas, a placa pertence a um dos segmentos de maior lucratividade da indústria de VGAs.

A companhia de Jen-Hsun Huang muito provavelmente jÁ tinha em mente o lançamento de mais uma VGA baseada no chip GF114 (assim como ocorreu na época do GF104, com um total de 3 placas: GTX 460 de 1GB, GTX 460 de 768MB e GTX 460 SE). Contudo, a chegada da Radeon HD 6790 representou uma ameaça real e imediata às pretensões da companhia, acelerando a chegada da nova GeForce.

Desta forma, passado pouco mais de um mês e meio da chegada da Radeon 6790, a NVIDIA lança a GeForce GTX 560.

Com a chegada da VGA, a NVIDIA acaba ainda com o "vazio" existente entre as atuais GTX 550 Ti (US$149) e 560 Ti (US$ 249) colocando, de quebra, ainda mais pressão sobre as Radeons HD 6850 e 6870.

Apesar da VGA ter sido "batizada" com um nome que fora matéria de discussão pela a web, a nossa impressão é que a nomenclatura utilizada é bem mais propícia do que, por exemplo, na época das GeForces GTX 460.


Modelo de referência da NVIDIA

- Continua após a publicidade -

Conforme poderÁ ser visto com riquezas de detalhes mais adiante, a GeForce GTX 560 possui, a grosso modo, as mesmas especificações da GTX 460. As diferenças estão nos clocks – bem mais elevados que na sua irmã mais velha, além da reengenharia na arquitetura do chip grÁfico, otimizando assim a relação de performance por mm² vs. consumo (e dissipação de calor).

A placa recebida pela Adrenaline pertence à ECS, modelo NGTX560-1GPI-F, que tem como grande destaque, a presença da tecnologia CooFast (maiores detalhes no decorrer desta review), que promete aumentar em 20% a dissipação de calor, reduzindo assim a temperatura da GPU.

Para quem ainda não sabe, a Elitegroup Computer Systems, mais conhecida simplesmente pela sigla ECS, estÁ estabelecida em Taiwan desde 1987, onde vem ao longo dos últimos anos, se dedicando ao desenvolvimento de produtos diferenciados de alta qualidade. Um bom exemplo disso foi a criação da linha Black Series, voltada para o público mais exigente, sobretudo para o segmento intermediÁrio de alto desempenho/entusiasta.

{break::Arquitetura GF114}O GF100 foi, sem dúvida para a NVIDIA, o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje: o conceito de grÁficos unificados e computação paralela.

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo.

Abaixo, alguns pontos-chaves da arquitetura Fermi:

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte a ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização, de forma segura, de uma grande quantidade de GPUs em Data Centers, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los no desenvolvimento das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

- Continua após a publicidade -

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou um chip com imenso poder de fogo, trazendo ainda muitas inovações tecnológicas e que oferece um alto grau de programação e eficiência computacional.

Baseada no GF104 (GTX 460) o chip GF114 é uma versão mais "enxuta" em relação ao GF110 (GTX 580/570), muito embora traga em sua estrutura uma relação mais otimizada em termos de Shader Processors por clusters que o seu "irmão maior" (48 CUDA Cores contra 32), traduzindo em uma performance mais eficiente por mm².

Em outras palavras, podemos dizer que os engenheiros da NVIDIA conseguiram tiraram "leite de pedra" da arquitetura Fermi. Graças a toda uma nova reengenharia pela qual passou o chip, como a utilização de transistores com menos perda de energia dispostos em um novo arranjo físico, foi possível manter o consumo de energia praticamente inalterado em relação à GTX 460, apesar da ativação de todos os CUDA Cores, bem como do expressivo aumento no clock.

Para quem ainda não se convenceu do avanço, basta dizer que a GeForce GTX 560, apesar de possuir clocks bem mais elevados que a GTX 460, possui TDP de 150W contra 160W de sua "irmã mais velha". JÁ a versão Ti, com desempenho similar à GTX 470, tem TDP bem menor (170W contra 215W).

Com a mesma estrutura de computação conjugada MIMD (Múltiplas Instruções, Múltiplos Dados) e os mesmos 1,95 bilhão de transistores em uma Área aproximada de 318mm² - portanto, idêntica ao GF104 - o GF114 teve ainda o benefício de herdar um amadurecimento no processo de fabricação – algo semelhante à atualização de stepping por que passa um processador, mantendo as mesmas características bÁsicas, como o clock, mas com um menor TDP (consumo de energia).


(Arquitetura do chip GF114 - versão GTX 560)

Como pode ser visto acima na estrutura de processamento "host interface" (responsÁvel por gerenciar os comandos do processador) do chip GF114, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine" composto de 2 GPCs (Graphics Processing Clusters), 4 controladores de memória, partições ROPs e cache L2 com 512KB.

Vale ressaltar que cada GPC (que são, na realidade, grandes unidades de processamento e se comportam como mini GPUs independentes) possui 4 unidades de Streaming Multiprocessor (SMs), cada uma sendo composta por 48 CUDA Cores, e estando associada a uma Polymorph Engine. Dessa forma, a GF114 conta com um total de 384 Shaders Processors (8 SMs x 48 CUDA Cores) e 8 Polymorph Engines.

Vale ressaltar que, como forma de diferenciar os produtos, a NVIDIA optou em desativar uma unidade de Streaming Multiprocessor na GTX 560, resultando assim em um chip com 336 CUDA Cores (7 SMs x 48 CUDA Cores) e 7 Polymorph Engines.

- Continua após a publicidade -

Em se tratando Texture Memory Units, a GPU possui 56 unidades (7 SMs x 8 TMUs), contra 64 da versão Ti, em virtude da presença de uma unidade SM a mais na GPU (8 SMs x 8 TMUs).

JÁ em relação à quantidade de unidades de rasterização (ROPs), o GF114 possui um total de 32 unidades de rasterização (4 partições x 8 ROPs), independente da versão da GTX 560. Isso é possível graças à desassociação na relação entre ROPs e unidade SM

Um dos grandes segredos do GF114 herdado do GF104 estÁ no design e na disposição de algumas estruturas internas, como é o caso da relação entre SM e CUDA Cores. Enquanto no GF100/110 hÁ 32 CUDA Cores por SM, no GF114 hÁ 48 por Streaming Multiprocessor. Dessa forma, os SMs do chip da GTX 560 Ti são capazes de processar as informações de forma mais eficiente que a de sua irmã maior. Enquanto o GF100/110 possui 4 TMUs por SM, o GF114 possui 8 por SM, outro benefício da mudança de design. Além disso, pelo fato do chip das GTX 480/470/465/580/570 possuir duas dispatch units por SM, o GF114 conta com o dobro de unidades, ou seja, 4, resultando assim em uma maior eficiência.

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existe de última palavra em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 336 CUDA Cores consistem em unidades de despachos, coletores de operações, duas unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.

Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura Fermi poder ser vista como a mais eficiente em se tratando de unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 48 CUDA Cores foram "empacotados" junto com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, graças à arquitetura bastante flexível.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32-bit – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SM possui ainda 8 TMUs, cache de textura, e o mais importante de tudo: Polymorph Engine.

As unidades de Polymorph Engines foram introduzidas na Fermi para lidar com uma enorme carga de trabalho imposta pelas novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo o mÁximo da GPU.

Eis aqui um dos principais pontos geradores de discussão pela a web. A AMD possui uma abordagem diferente da NVIDIA quanto à utilização do Tessellation, afirmando que o uso em excesso do recurso degrada muito a performance das VGAs sem, no entanto, trazer melhoras visuais perceptíveis. Enquanto isso, a NVIDIA adota uma posição contrÁria, dizendo que quanto maior a utilização do Tess, maior serÁ a qualidade das imagens.

Ao que parece, não se trata de quem estÁ com a razão, mas de quem estÁ puxando a "sardinha para a sua brasa". Pelo jeito, cada empresa estÁ defendendo o seu ponto de vista de acordo com os seus interesses, ou melhor, com os pontos fortes de suas placas. É fato que as GeForces da geração Fermi se saem muito melhor que as Radeons da geração Evergreen (série 5000) e mesmo das novas Northern Islands (série 6000) no que diz respeito ao Tessellation. O segredo estÁ na arquitetura de cada VGA. Enquanto as Radeons 5000/6000 contam com apenas uma única unidade de processamento dedicada ao Tess (à exceção das 6970/6950 – com duas – e a 6990 com quatro), a NVIDIA equipou as novas GeForces com um conjunto de vÁrias unidades, como é o caso da GeForce GTX 580, que conta com um total de 16 Polymorph Engines. JÁ a GTX 560 Ti possui 8 Polymorph Engines, enquanto que a GTX 560 possui 7.

Apesar de utilizar a mesma configuração Streaming Multiprocessor da GTX 460, a GeForce GTX 560 recebeu dois aprimoramentos chaves na arquitetura como forma de trazer mais desempenho. Para começar, a VGA suporta agora toda a velocidade do filtro de textura FP16, o que acelera o processamento de certas aplicações/imagens com muitas texturas. Outra melhoria foi a adição do suporte a novos formatos de polígonos que aprimoram a eficiência do Z-cull. De acordo com a NVIDIA, essas "simples" novidades aprimoraram o desempenho da placa, em média, entre 5% e 10% nos principais games.

Assim como o GF100/110/104, o GF114 suporta o filtro de antialiasing modo 32x CSAA (8+24x), com 32 níveis de transparência, com expressivo ganho de desempenho sobre o GT200. O melhor de tudo é que, segundo a NVIDIA, a degradação da performance serÁ muito pouca em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma prova, seguindo o pensamento de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São, ao todo, 1MB de cache L1 e 512KB de L2.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante ao que chega o L2.

Ainda dentro do assunto memória, a arquitetura da GF114 é composta de 4 partições de 64 bits, o que resulta em um total de 256 bits de interface de memória. Vale ressaltar que a Fermi é capaz de suportar um total de até 6GB de VRAM. No entanto, atualmente apenas a GTX 590 que conta com 3GB. JÁ a GTX 560, a princípio, ficarÁ com 1GB, embora se cogite em modelos com 2GB.


Por fim, é interessante destacar que, diferentemente da GTX 460, que possui três versões (336 CUDA Cores/1GB/256bits; 336 CUDA Cores/768MB/192bits; e 228 CUDA Cores/1GB/256bits), a GTX 560 deverÁ se limitar a duas variantes: a Ti com 384 CUDA Cores e 64 TMUs; e a "não Ti", com 336 CUDA Cores e 56 TMUs.

{break::Os recursos da GTX 560}Abaixo, um resumo das principais especificações da GeForce GTX 560 Ti.


• 1,95 bilhão de transistores;
• "Segunda geração" da litografia em 40 nm;
• Área do die (estimado): 318 mm2;
• 7 Polymorph Engines;
• Frequência de operação das texturas e ROPs (GPU): 810-950MHz;
• 336 CUDA cores/shader processors;
• Frequência de operação dos CUDA cores: 1620-1900MHz;
• Frequência de operação das memórias: 4008-4488MHz (GDDR5);
• Quantidade de memória: 1GB;
• Interface de memória: 256bits;
• Consumo de energia/TDP: mÁximo de 150 watts;
• Limiar térmico da GPU em 100° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX,  PureVideo HD Technology, Badaboom, HDMI 1.4a, OpenGL 4.1, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM);
- 48 CUDA cores por SM;
- Performance até 8x maior em ponto flutuante de precisão dupla em relação à GT200;
- Dual Warp Scheduler, que simultaneamente agenda e despacha instruções de duas rasterizações independentes;
- 64 KB de RAM com uma partição configurÁvel de memória compartilhada e cache L1.

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Endereçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.

Conforme jÁ mencionado na seção anterior, os engenheiros da NVIDIA se superaram ao construírem uma placa inteiramente baseada na anterior – mantendo, contudo, o mesmo processo de fabricação – com uma relação entre desempenho e consumo de energia bem mais eficiente. Isso só foi possível graças ao amadurecimento no processo de fabricação em 40nm, além de uma reengenharia e otimização na arquitetura.

Para suprir os 150W, a GTX 560 possui dois conectores de alimentação extra, ambos de seis pinos (75W) que, somados aos 75W do slot PCIe, garantem 225W à placa, conferindo uma boa folga para o overclock. AliÁs, por falar em OC, como serÁ possível verificar mais a frente na seção específica sobre o assunto, vocês perceberão que a VGA é extremamente receptiva ao aumento nos clocks, traduzindo em um considerÁvel ganho extra de performance. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 450W, em virtude dos demais componentes do computador, sobretudo se o processador for de alto desempenho.

Fazendo uma comparando nas especificações da placa, podemos perceber a substancial evolução nos números em relação à sua irmã mais velha. Embora não haja mudanças nas quantidades de CUDA Cores, TMUs e ROPs (pelo menos se comparada a GTX 460 de 1GB/256 bits), respectivamente em 336, 56 e 32, a GeForce GTX 560 pode ser considerada como uma GTX 460 super turbinada. O aumento nos clocks da GPU, shaders e memórias foi respectivamente de 20%, 20% e 11%. Se compararmos com os modelos turbinados, o ganho é ainda mais impressionante, chegando a 41%, 41% e 25%.

Para ser ainda mais justo e preciso, podemos considerar a GeForce GTX 560 como a sucessora da GTX 460 768MB/192 bits, enquanto que a GTX 560 Ti como a placa que ficou no lugar da GTX 460 1GB/256 bits. Desta forma, o ganho em desempenho é ainda mais espetacular, dado ainda o aumento na quantidade de CUDA Cores, ROPs e largura de banda de memória.

Outro ponto positivo da nova GeForce (jÁ adiantado no tópico anterior) é o consumo de energia. Enquanto a GTX 460 de 1GB tem TDP de 160W, a GTX 560 sofreu uma redução de 10W! Trata-se de um feito impressionante, dado o grande aumento nos clocks da placa.


{break::CoolFast}A GeForce GTX 560 enviado pela ECS, modelo NGTX560-1GPI-F, conta com o sistema de refrigeração especial equipado com a tecnologia CoolFast, onde os 2 heatpipes se unem ao fundo do bloco dissipador, que por sua vez, fazem contato com a GPU.

De acordo com a companhia, o sistema CooFast aprimora a dissipação do calor em 20%. Conforme pode ser visto mais adiante, o cooler mostrou-se bastante eficiente, mesmo quando submetido a um intenso overclock.

{break::Novidades do DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, focada principalmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation jÁ nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude nas placas 3D modernas, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão agora "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.




High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.

Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Logo, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi, de início, motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem-sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla Área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.

SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando fantasmas e trepidações durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que, ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Abaixo algumas fotos da GeForce GTX 560 da ECS, mostrando a placa de vÁrios ângulos diferentes.


Abaixo algumas fotos comparando uma GTX 560 Ti referência da Nvidia com a GTX 560 da ECS, onde podemos constatar que o PCB da 560 Ti é maior do que o da 560.

{break::MÁquina/Softwares utilizados}Utilizamos uma mÁquina TOP de linha baseada em um processador Intel Core i7 980X overclockado para 4.2GHz, evitando assim qualquer dúvida sobre gargalo do processador.

As placas utilizadas nos comparativos foram, por parte da NVIDIA, a placa analisada, GeForce GTX 560, além da GeForce GTX 560 Ti, 550 Ti e as GTX 460 de 1GB e 768Mb. JÁ os modelos da AMD (ATi) foram a Radeon HD 6870, 6850 e 6790.

Abaixo, uma foto da GTX 560 montada no sistema.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard Gigabyte G1.Assassin
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 6 GB DDR3-1600MHz G.Skill Trident
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.2.0.1030
- NVIDIA ForceWare 275.27 Beta: ECS GeForce GTX 560
- NVIDIA ForceWare 270.61 WHQL: Placas Nvidia
- ATI Catalyst 11.5 WHQL: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o "Starcraft II", que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.1.0 (DX10)
- 3DMark 11 1.0.1 (DX11)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- "Aliens vs Predator" (DX11)
- "Crysis Warhead" (DX10)
- "DiRT 2" (DX11)
- "F1 2010" (DX11)
- "Tom Clancy´s HAWX 2" (DX 11)
- "Just Cause 2" (DX10/10.1)
- "Mafia II" (DX9)
- "Metro 2033" (DX11)
- "StarCraft II" (DX10)

{break::GPU-Z, Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da ECS GeForce GTX 560.


Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Começamos pelo grÁfico mostrando as temperaturas das placas quando em modo ocioso, em espera na tela de desktop do Windows. Podemos ver que a GTX 560 se sai muito bem, ficando com a temperatura mais baixa de todos os modelos comparados: apenas 27 graus.

{benchmark::1800}

JÁ quando em uso rodando o 3DMark 11 a temperatura da placa sobe para 67 graus, cinco a menos que a GTX 560 Ti e um a mais que a GTX 550 Ti. Na comparação com as placas da ATI, a 6850 consegue ficar 4 graus abaixo.

{benchmark::1801}

{break::3DMark Vantage, 3DMark 11}3DMark Vantage
Embora considerados testes bastante polêmicos por parte da comunidade, por serem tachados como benchs sintéticos que não refletem, muitas vezes, a condição da placa no mundo real (leia-se jogos), a série 3DMark é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutÁ-los

No primeiro teste de performance, vemos que a GTX 560 se comporta bem, ficando bastante próxima da 6870, e a 10% do resultado da GTX 560 Ti.

{benchmark::1802}

3DMark 11
No 3DMArk 11, a 6870 assume a liderança, seguida de perto pela GTX 560 Ti, que fica pouco mais de 6% a frente da GTX 560.

{benchmark::1803}

{break::Unigine Heaven 2.1}Unigine HEAVEN 2.1 - DirectX 11
Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas à 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

Começando pelo teste com tessellation desativado, com as placas da Nvidia dominando, vemos que a diferença da GTX 560 para a 560 Ti não é grande, representando menos de 10%.

{benchmark::1804}

Assim como no teste com tessellation desativado, com essa tecnologia em modo normal não temos mudança nas primeiras colocações da tabela,  apesar de uma leve melhora das placas da AMD. A diferença entre GTX 560 Ti e 560 continua ficando abaixo dos 10%.

{benchmark::1805}

{break::Aliens vs Predator}Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por "Aliens vs Predator", game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Como podemos ver nos grÁficos, a 560 Ti fica pouco acima de 10% superior a 560 em média, comparação que vale também para com a 6870, jÁ que ela fica empatada tecnicamente com a 560 Ti.

{benchmark::1806}

{benchmark::1807}

{benchmark::1808}

{break::Crysis Warhead}O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Diferente do "Aliens vs Predator", no "Crysis Warhead" a GTX 560 briga de igual com a 6870, com a GTX 560 Ti ficando um pouco a frente, na casa de 7% em média.

{benchmark::1809}

{benchmark::1810}

{benchmark::1811}

{break::DiRT 2}"Colin McRae: Dirt 2", mais conhecido simplesmente como "DiRT 2", é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

Finalmente a GTX 560 passa a 6870, ficando em média 7/8% a frente, semelhante ao ganho da GTX 560 Ti sobre a 560.

{benchmark::1812}

{benchmark::1813}

{benchmark::1814}

{break::F1 2010}As Radeons se deram muito bem em "F1 2010", game baseado na engine EGO 1.5 da Codemasters.

Como podemos ver abaixo, a 6870 fica na liderança, seguida pela GTX 560 Ti, 6850 e na quarta colocação a GTX 560, consideravelmente atrÁs da primeira colocada.

{benchmark::1815}

{benchmark::1816}

{benchmark::1817}

{break::Tom Clancy´s HAWX 2}"HAWX 2" foi um dos primeiros games a fazer uso da tecnologia tessellation do DirectX 11. Agora, se existe um game no qual as placas da AMD não têm chance contra as da NVIDIA, é "HAWX 2" rodando com a tecnologia tessellation ativada.

Se a AMD domina quando falamos de "F1 2010", a Nvidia faz o mesmo com "HAWX 2", com suas placas conseguindo performance bem superior.

Abaixo podemos ver as duas placas da série GTX 560 na ponta da tabela, com a Ti a frente logicamente. O ganho da GTX 560 sobre a 6870 é pouco acima dos 10%.

{benchmark::1818}

{benchmark::1819}

{benchmark::1820}

{break::Just Cause 2}Outro game no qual as placas da série Radeon dominam em todos os segmentos é "Just Cause 2", curiosamente apoiado pela NVIDIA.

Abaixo podemos ver que em todas as resoluções ambas as placas da série 6800 ficam na frente das placas da série GTX 560. Como na maioria dos testes até o momento, tirando a resolução mais baixa, a diferença entre GTX 560 Ti e 560 fica na casa de 10%.

{benchmark::1821}

{benchmark::1822}

{benchmark::1823}

{break::Mafia II}"Mafia II" é um game que trouxe a continuação do aclamado título de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50 nos EUA.

"Mafia II" é um game onde não existe vantagem acentuada para nenhuma empresa. A GTX 560 Ti consegue a liderança em todos os testes com a 6870 na segunda colocação, que por sua vez fica pouco a frente da GTX 560.

{benchmark::1824}

{benchmark::1825}

{benchmark::1826}

{break::Metro 2033}Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Temos uma briga bastante boa entre GTX 560 e 6870 em "Metro 2033". Abaixo podemos ver que a placa da Nvidia se sai melhor na resolução mais baixa, mas é superada nas duas resoluções mais altas. A diferença da nova placa para com a GTX 560 Ti é inferior a 10%.

{benchmark::1827}

{benchmark::1828}

{benchmark::1829}

{break::StarCraft II}Em nosso último teste utilizamos o game de estratégia "StarCraft II" que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente, problema jÁ resolvido e que agora nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes. Afinal, "StarCraft II" não possui esse tipo de configuração interna.

Felizmente, "StarCraft II" não é um jogo pesado, se não falariamos que se você quiser jogar ele compre uma placa da Nvidia, porque a vantagem de seus modelos sobre as placas da AMD é muito grande.

Como podemos ver abaixo, ambas as placas da série GTX 560 conseguem colocar uma diferença bem grande sobre as placas da série 6800, até mesmo a GTX 460 de 1GB consegue fazer frente as placas da AMD.

{benchmark::1830}

{benchmark::1831}

{benchmark::1832}

{break::Overclock: Temperatura, 3DMark 11}Assim como as duas outras placas da geração 500, a GTX 560 se sai muito bem em overclock, alias, provavelmente a melhor placa dessa geração nesse sentido.

Utilizando o software Afterburner, aumentamos a voltagem de 1.0 para 1.08 e dessa forma conseguimos deixar a placa estÁvel em nada menos que 975MHz no core (20% de ganho) e 5.1GHz nas memórias (27,5% de ganho), números incríveis. Abaixo podemos ver a tela principal dao GPU-Z mostrando as principais características técnicas da placa quando overclockada.

Reparem que o clock padrão do core é 810MHz e, das memórias. 4GHz (1GHz x 4).


Temperatura
Agora vamos ver se na prÁtica teremos bons resultados. Começamos pelo teste de temperatura, onde vemos que hÁ pouco aumento em modo ocioso: apenas 2 graus.

{benchmark::1833}

Em modo de uso contínuo a temperatura subiu 6 graus. Normal, considerando o alto overclock.

{benchmark::1834}

3DMark 11
A expectativa era grande pela placa ter conseguido resultados muito bons no aumento de clocks e, felizmente. na prÁtica em desempenho o ganho também foi alto. Abaixo, podemos ver que no 3DMark 11 a placa pulou de 4.087 para 4.819, ganho de 18%, excelente e visto em pouquissimos modelos, pelo mesmo em overclock sem mudança física na placa.

{benchmark::1835}

{break::Overclock: AvsP, Mafia II e Metro 2033}Além do 3DMark Vantage, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Rodando o "AvsP" o ganho foi ainda maior, na resolução de 1680x1050 a placa quando overclockada subiu de 33,5 para 40,0, ganho de 22%.

{benchmark::1836}

Mafia II
O ganho com o "Mafia II" foi semelhante, saltando de 55,0 para 66,5, representando 20%.

{benchmark::1837}

Metro 2033
Assim como no "Mafia II", o ganho com o Metro 2033 foi de 20% para a placa quando overclockada, ganho visto em pouquíssimas placas de vídeo.

{benchmark::1838}

{break::PhysX}Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o "Mafia II", um dos games mais recentes a utilizar bastante essa tecnologia.

Abaixo podemos ver que na resolução mais baixa temos empate técnico entre as placas da série GTX 560, jÁ nas demais o modelo Ti fica pouco a frente, com a 560 "normal" cerca de 20% a frente da GTX 460 de 1GB.

{benchmark::1839}

{benchmark::1840}

{benchmark::1841}

{break::Conclusão}Conforme mencionado logo no início desta review, a GTX 560 chegou em um momento estratégico para a NVIDIA, que é o da disseminação das GeForces de nova geração no segmento de maior lucratividade do mercado, o intermediÁrio.

A placa pega carona na fama de sua irmã maior, e dÁ ao consumidor mais uma opção de compra até então restrita à GTX 550 Ti, ou à GTX 560 Ti.

A GeForce GTX 560 trouxe uma boa evolução em termos de performance frente à GTX 460, graças sobretudo aos elevados clocks do chip, além do aprimoramento na arquitetura no GF114 – que traz uma melhora de performance entre 5-10% sobre o GF104.

De modo geral a placa se posicionou entre as Radeons HD 6850 e 6870, ficando mais próxima desta última e pouco atrÁs da GTX 560 Ti.

O fato a lamentar diz respeito aos elevadíssimos impostos em nosso país. Enquanto que nos EUA a placa custa US$ 199, no Brasil, a VGA tem preço sugerido de R$ 899,00. Entretanto, esse patamar deve cair rapidamente, uma vez que é possível encontrar algumas GTX 560 Ti abaixo dos R$ 800,00.

Outro fato a destacar é a forte concorrência que a placa sofre em termos de preço com a Radeon HD 6870, e de desempenho com a própria GTX 560 Ti, que custa alguns poucos dólares a mais.

Além da alta performance, a GeForce GTX 560 mantém todos os destaques da geração Fermi, como o filtro de anti-aliasing 32xCSAA, 3D VISION SURROUND, CUDA e PhysX, só para citar alguns.

O modelo em questão da ECS - NGTX560-1GPI-F, tem ainda a grande vantagem de ser equipado com um sistema de refrigeração de alto padrão, contando com a tecnologia CoolFast, garantindo uma excelente eficiência na dissipação térmica, mesmo quando submetida a um expressivo overclock. Por falar nisso, a GTX 560 é uma das GeForces de nova geração com melhor desempenho para OC, resultando em um ganho acima dos 20%.

CaberÁ agora ao usuÁrio decidir dentre as ótimas opções existentes no mercado aquela que mais se aproxime de suas necessidades.

PRÓS
Ótimo custo / benefício (levado em conta a VGA em overclock)
MID com desempenho de TOP
Sistema de cooler excelente com baixo ruído
Alto potencial para overclock, a melhor da geração 500
CONTRAS
Preço x performance em forte concorrência com a Radeon 6870 e GTX 560 Ti
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.