ANÁLISE: NVIDIA GeForce GTX 760

ANÁLISE: NVIDIA GeForce GTX 760

A NVIDIA iniciou o processo de atualização de sua linha de placas 3D no dia 23 de maio, com o lançamento da GeForce GTX 780. Embora tenha "músculo" de sobra para encarar os desafios mais pesados do mercado, mesmo em condições insanas (leia-se resoluções em 2560x1920 – ou até mais, via múltiplos monitores, por exemplo – e todos os filtros de aumento de qualidade das imagens habilitados no mÁximo), a placa tem como "Calcanhar de Aquiles" o preço. Afinal, não é todo mundo que tem condições (ou estÁ disposto) a pagar US$ 649 em uma VGA, mesmo com todos os atributos da GeForce topo de linha.

Passado exato uma semana do lançamento da GTX 780, a NVIDIA apresentou a GTX 770. Se por um lado, a placa não tem todo o "charme" de sua irmã maior (enquanto que a GTX 780 conta com o GK110 – presente na TITAN, a GTX 770 é equipada com o bom e velho GK104 – o mesmo das GTX 680/670/660Ti), por outro, a VGA oferece uma ótima relação de custo x benefício (percebam que a GTX 770 é basicamente a mesma GTX 680, mas custando US$ 100 a menos!).

Ainda que a GeForce GTX 770 ofereça um alto desempenho por um preço atraente para o segmento, o fato é que ainda não são todos os consumidores capazes/dispostos a "investir" US$ 399 em uma placa 3D. E foi pensando justamente neste fato, que a NVIDIA apresenta hoje ao mercado, a GeForce GTX 760.

A linha intermediÁria da NVIDIA é uma das "queridinhas" dos gamemaníacos, pelo fato de oferecer um desempenho bastante decente, ou seja, capaz de enfrentar todos os games do mercado em ótimas condições de jogabilidade, a um preço muito mais próximo de sua realidade.

A GeForce GTX 760 é equipada com o mesmo GK104 de suas "irmãs mais velhas", bem como da sua "irmã maior". Contudo, como veremos na seção seguinte, esta possui uma configuração de processadores grÁficos inusitada. Com a GTX 770 possuindo basicamente a mesma configuração da GTX 680, era de se supor que a GTX 760 fosse uma GTX 670Ti "rebatizada". Mas não é!

Apesar de possuir a GPU GK104, a nova placa intermediÁria da NVIDIA conta com o suporte às novas tecnologias da companhia, como é o caso do GPU Boost 2.0 com recursos avançados, como é o caso de ajustes finos de temperatura, definição de FPS, overclock de monitor (display overclocking) e sobretensão (overvoltaging); e do GeForce Experience, que de modo simples, promete facilitar os ajustes finos nas configurações grÁficas, de forma a proporcionar um desempenho ideal com base no hardware do PC.

Além disso, a GTX 760 conta ainda com o controle de temperatura adptativa, que tem o objetivo de reduzir as flutuações das rotações da ventoinha, estabilizando assim  melhor a sua velocidade, e como benefício, reduzir a percepção do ruído.

Legítima herdeira da geração Kepler, a VGA mantém inalterada a filosofia "velocidade e suavidade", oferecendo ainda suporte aos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

Nas próximas seções, os leitores da Adrenaline poderão conferir todos os detalhes da GeForce GTX 760, avaliando o comportamento da placa frente a uma série de competidoras diante de uma intensiva bateria de testes.

- Continua após a publicidade -

{break::Arquitetura GK104} O GK104 é composto de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphics Processing Clusters) continua a ser o bloco de hardware de alto nível dominante na atual arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas no GPC.

Como pode ser visto abaixo, na estrutura de processamento da Kepler, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de quatro GPCs, quatro controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM). 


(Detalhe do Bloco de Diagrama do chip GK104 presente na GTX 770)


(Detalhe do Bloco de Diagrama do chip GK104 presente na GTX 760)


Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK104 (assim como suas variantes) possuem nada menos do que impressionantes 192 CUDA Cores! Desta forma, a NVIDIA conseguiu alcançar uma grande quantidade de processadores grÁficos. No caso específico da GK104, hÁ 1.536 CUDA Cores (4 GPC x 2 SMX x 192 CUDA Cores ou simplesmente 8 SMX x 192 processadores grÁficos). A título de comparação, o GK110 chega à impressionante quantidade de 2.880 CUDA Cores (15 SMX x 192 CUDA Cores), embora a versão presente na GTX 780 tenha "apenas" 2.304 processadores grÁficos, em virtude da desativação de 3 SMX.

Como forma de segmentar suas placas 3D, a NVIDIA utiliza a estratégia de desativar alguns dos recursos do chip grÁfico, como é o caso da GTX 760. Em vez de contar com 8 SMX da GTX 770, a versão do GK104 presente na GeForce intermediÁria possui somente 6 SMX, totalizando assim 1.152 processadores grÁficos (15 SMX x 192 CUDA Cores). Eis aqui algo inesperado. É que o mercado acreditava que a GeForce teria a mesma quantidade de stream processors da GTX 670, ou seja, 1.344.

Outra mudança visível na comparação entre os chips grÁficos GK110 e o GK104 diz respeito à interface de memória (mais conhecido como bus). Em vez de seis blocos de 64 bits, hÁ somente quatro, totalizando assim um bus de 256 bits (4 blocos x 64 bits) para a dupla GTX 770/760, contra 384 bits da GTX 780.

Em relação à quantidade de unidades de rasterização (responsÁvel por converter vetores em pixels para a construção das imagens), o GK104 possui um total de 32 ROPs, contra 48 do GK110. Essa diferença ocorre em virtude da quantidade de blocos rasterizadores existentes no Gigathread Engine dos chips. Assim, enquanto a GTX 780 possui seis blocos rasterizadores, cada um composto por 8 ROPs – totalizando 48 ROPs (6 blocos x 8 ROPs), a GTX 760 (assim como a sua "irmã maior") possui quatro blocos, explicando-se assim a quantidade de 32 ROPs (4 blocos x 8 ROPs).

Quanto às unidades de mapeamento das texturas (responsÁveis por rotacionar e redimensionar um bitmap para ser colocado sobre um plano arbitrÁrio de um objeto 3D como uma textura), cada SMX é composto por 16 TMUs, totalizando assim 96 unidades de mapeamento das texturas (6 SMX x 16 TMUs) na GTX 760, contra 128 (8 SMX x 16 TMUs) na GTX 770, e 192 unidades (12 SMX x 16 TMU) na GTX 780.

Por dentro do SMX

Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento do GK104 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


- Continua após a publicidade -

(Detalhe do Streaming Multiprocessor - SMX do GK104)


Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição fartos 512KB de cache L2.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda oito TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas inicialmente na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

{break::Os recursos da GTX 760} 

- Continua após a publicidade -

Abaixo hÁ um resumo das principais especificações da GeForce GTX 760.

• 3,54 bilhões de transistores; 

• Nova litografia em 28 nm; 

• Área do die: 294mm2; 

• Frequência de operação das texturas e ROPs (GPU): 980MHz (1033Mhz via GPU Boost); 

• 1152 CUDA Cores/shader processors; 

• Frequência de operação das memórias: 6008MHz (GDDR5); 

• Quantidade de memória: 2GB e 4GB; 

• Interface de memória: 256bits; 

• TDP: mÁximo de 170 watts; 

• Limiar térmico da GPU em 95° C; 

• Suporte às tecnologias: CUDA (GPGPU com FP64), DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), GeForce Experience, Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL e DirectCompute.


    (Detalhe do chip GK104)


    Sem o refinamento na litografia (processo de fabricação dos chips) por parte de sua parceira TSMC (que "tira" o chip do papel, produzindo-o fisicamente), a NVIDIA se viu obrigada a rever os seus planos. Ou postergaria a chegada da família GTX 700, ou utilizaria de um plano B para o lançamento das novas GeForces. Como visto, a companhia optou pela segunda opção. 

    A solução encontrada para a GTX 780 foi a utilização do GK110 (o cérebro por trÁs da linha científica Tesla - mais precisamente o modelo K20X). Trata-se de uma GPU extremamente poderosa e complexa, mas que paga um "alto preço" por isso: ter uma enorme Área de die. Como se sabe, no mundo dos processadores e chips grÁficos, quanto maior for a Área do die, maior serÁ o seu custo de fabricação e de dissipação térmica.

    O resultado desta equação foi o lançamento de uma placa de imenso poder de processamento grÁfico, mas com um custo proibitivo (US$ 649) para a grande maioria da comunidade, inibindo até mesmo uma parcela dos consumidores do segmento topo de linha.

    Com um chip extremamente caro de se fabricar, a adoção do GK110 na GeForce GTX 770 estaria praticamente descartada, ao menos se a NVIDIA estivesse pensando em obter lucro com a venda da VGA. A saída encontrada pela companhia foi a utilização de um chip menor (e, portanto, mais barato de se produzir) e com poder suficientemente grande para brigar com as suas competidoras. Foi aí que entrou o bom e velho GK104 (até então presente na dupla GTX 680/670).

    Para a GeForce GTX 760, a NVIDIA não teve outra opção a não ser utilizar o GK104 como "cérebro", visto que o GK106 não oferece condições para oferecer um desempenho a altura da placa. É que o GK106 possui no mÁximo 960 CUDA Cores, configuração presente na GTX 660 (versão não Ti).

    O que causa surpresa com a versão do GK104 presente na nova placa intermediÁria da NVIDIA, é a sua quantidade de processadores grÁficos. Enquanto que a GTX 660Ti possui 1.344 CUDA Cores, a GTX 760 conta com "apenas" 1.152 stream processors. Trata-se de algo inusitado, ainda mais se for levado em conta que a placa é, em tese, a sucessora da GTX 660Ti. 

    Vale a pena esclarecer que de acordo com o material enviado pela companhia, a GTX 760 deverÁ ser a última GeForce da linha GTX 700. Assim, caso a NVIDIA não mude de ideia, não deverÁ haver GTX 760Ti, ou GTX 750. AliÁs, os mais atentos podem perceber que a empresa resolveu não mais adotar o sufixo Ti em suas novas placas 3D.

    Ainda conforme revela o material técnico da NVIDIA, o seu portfólio para 2013 serÁ composto de modelos da "nova" geração GTX 700, com alguns modelos da GTX 600. É possível que a companhia mude os planos com a chegada das Radeons HD 8000 no terceiro trimestre. Principalmente se for levado em conta os "tímidos" números por trÁs da GTX 760.

    Outro ítem inusitado estÁ na quantidade de unidades de texturização. Enquanto que a GTX 660Ti possui 112 TMUs, a GTX 760 conta com apenas 96. Trata-se de uma redução de cerca de 15%.

    Nem mesmo a frequência de operação da GPU se salvou. O clock sofreu uma leve redução de 4%, caindo de 1020Mhz para 980Mhz. JÁ as memórias permaneceram inalteradas em 6008Mhz.

    Felizmente a nova placa intermediÁria da NVIDIA possui algumas evoluções. A primeira delas diz respeito à quantidade de unidades rasterizadoras. Enquanto que a GTX 660Ti tem 24 ROPs, a GTX 760 tem 32, ou seja, um aumento de 33%.

    Apesar da frequência de operação das VRAMs terem se mantido inalterados, a boa notícia neste ponto é que o barramento da memória foi ampliada de 192 para 256 bits. Com isso, a largura de banda passou de 144,2 GB/s para 192,3 GB/s. 

    Junto com uma vazão de dados de memória maior, a GTX 760 tem ainda como destaque, uma farta quantidade de memória. É que além dos tradicionais 2GB, haverÁ um modelo com 4GB. Essa combinação entre farta largura de banda com grande quantidade de VRAM, são muito bem-vindas para a utilização de configuração em 1920x1080 pixels,  ou mesmo em 1920x1200 pixels. 

    Em relação à dissipação térmica mÁxima, a GTX 760 tem TDP de 170W, contra 150W da GTX 660Ti.

    Para suprir energia suficiente, a NVIDIA disponibilizou dois conectores de energia de 6 pinos (75W por conector), fornecendo assim um total de 225W (lembrando que o barramento PCI Express disponibiliza 75W). De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 500W.


    {break::As novidades da série GeForce 700}

    GPU Boost

    O GPU Boost trabalha de forma transparente para o usuÁrio (segundo plano), combinando recursos de hardware com software para o ajuste dinâmico nos clocks (overclock), com o objetivo de disponibilizar a quantidade de megahertz necessÁria para o bom funcionamento das tarefas. Tudo, claro, com base em certas condições de operação da GPU.

    Originalmente lançado no ano passado com a GeForce GTX 680, a primeira iteração da tecnologia de overclock dinâmico foi projetado para atingir a maior velocidade possível, permanecendo dentro de um limite predefinido de consumo de energia. No caso da GTX 680, esse "teto" é 170 watts.


    (Funcionamento da primeira geração do GPU Boost. O recurso monitora o consumo de energia em tempo real e aumenta o clock da GPU quando hÁ condições disponíveis.)

    Com as GeForces GTX 700 e TITAN, o recurso foi revisto e aprimorado, passando a se chamar  GPU Boost 2.0. Após uma cuidadosa avaliação dos engenheiros da NVIDIA determinaram que o consumo de energia da GPU estava desnecessariamente limitando o desempenho quando as temperaturas eram baixas. Assim, para o GPU Boost 2.0, o fator condicionante para a tecnologia funcionar foi alterado do consumo de energia para a temperatura.  Esta nova meta é agora de 80 graus Celsius. Portanto, a freqüência de operação das novas GeForces irÁ automaticamente aumentar para o patamar mais elevado, desde que a temperatura da GPU não ultrapasse os 80oC. Vale ressaltar que o recurso monitora constantemente a GPU, ajustando o clock e tensão ("voltagem") em tempo real para manter  a temperatura dentro deste limite.

    Outro benefício do GPU Boost 2.0 é a diminuição no nível de ruído do sistema de refrigeração – através da redução na velocidade das ventoinhas – desde que o usuÁrio faça um controle mais rígido no limite da temperatura. Na realidade, é possível realizar um controle personalizado na tecnologia de overclock dinâmico. Para tanto, basta alterar o limite padrão de 80oC para mais, ou para menos. Assim, o usuÁrio poderÁ optar entre um controle mais rígido no nível de ruído, ou, aumentar o potencial de overclock.

    Vale esclarecer que, apesar da mudança no fator condicionante do consumo de energia (170W) para a temperatura (80oC – padrão), hÁ obviamente o limite do TDP da placa. Contudo, é possível ampliar este limite.

    GPU Boost 2.0: Overclocking/Overvoltaging

    Uma função presente no GPU Boost 2.0 muito bem vinda para os overclockers é o controle da sobretensão de energia. 

    Uma vez que o nível de tensão (também conhecido de forma errada como "voltagem") e o Boost Clock das GTX 700/TITAN estão "amarrados" ao limite de temperatura, os engenheiros da NVIDIA permitiram agora aumentar a tensão da GPU, possibilitando atingir clocks ainda mais elevados. Mais uma vez a Adrenaline não recomenda tal prÁtica, principalmente para o usuÁrio inexperiente). 


    (Diferença de performance entre o GPU Boost, GPU Boost 2.0 e GPU Boost com sobretensão (overvoltage)

    É bom que se diga que as tensões padrões nas novas GeForces estão limitadas a uma variação totalmente testadas e qualificadas pela NVIDIA. Esta faixa de tensão tem como objetivo proteger os circuitos integrados de danos com uso a longo prazo. Entretanto, os entusiastas podem querer ultrapassar esse limite, aumentando ainda mais a tensão mÁxima.

    O GPU Boost 2.0 permite que essa capacidade de sobretensão, requerendo, no entanto, que os usuÁrios reconheçam o risco para a sua GPU, clicando através de um aviso. Vale ressaltar que cada fabricante de VGA pode limitar o grau da sobretensão suportada em suas placas, ou mesmo desativar o recurso através de alteração na VBIOS. 

    GPU Boost 2.0: Display Overclocking

    Muitos jogadores gostam de jogar com sincronização vertical (VSync) habilitado uma vez que não conseguem suportar o efeito de tremulação (tearing) que ocorre quando VSync estÁ desligado. Se por um lado isso evita o temido "tearing", por outro, limita a taxa de quadros (frame rate) para a taxa de atualização (refresh rate) do monitor, normalmente em 60Hz para a maioria das telas LCD. Como resultado, o jogo fica limitado a 60 quadros por segundo (FPS), não importando  se a VGA tenha capacidade de ir além deste limite. 


    (FPS limitado pela taxa de atualização do monitor)

    Com o GPU Boost 2.0, hÁ um novo recurso, chamado de "Overclock de Tela (Display Overclocking) que quebra este limite. Usando ferramentas fornecidas pela NVIDIA e seus parceiros, é possível overclockar a velocidade do pixel da tela, possibilitando atingir taxas de atualização mais elevadas. Vale ressaltar que não são todos os monitores que suportam o overclock. 


    (GPU Boost 2.0: Display Overclocking entra em ação para aumentar os FPS do jogo)


    {break::GeForce Experience} Junto com a GeForces GTX 700, a NVIDIA trouxe para o mercado, uma nova geração de drivers "ForceWare" – versão R320.xx, contendo alguns recursos extras interessantes.

    Como forma de conferir uma maior qualidade nos jogos, e levando em conta a grande diversidade de hardware existente nos PCs/notebooks, os estúdios vêm disponibilizando no ambiente de configuração dos games, uma série de ajustes finos, de forma a permitir que o jogador opte pela combinação que melhor se adapte à sua realidade. 


    Isso é fantÁstico, pois permite que o game rode em uma série de equipamentos diferentes, dos mais simples, às super mÁquinas de mais de R$ 7 mil. Contudo, um gamer menos experiente poderÁ sentir dificuldades na escolha as opções que melhor se adeque ao seu hardware, superestimando-o ou subestimando-o.

    Pensando nestes casos, a NVIDIA ofertou como pacote adicional aos drivers da geração 320.xx, o GeForce Experience (GFE). Assim, ao invés de ajustar manualmente as configurações grÁficas, o recurso GFE faz todo o trabalho para o gamer. Com um simples clique do mouse, todas as suas configurações grÁficas podem ser ajustadas para proporcionar um desempenho ideal com base no hardware do PC/notebook. Compatível com mais de 70 games, as configurações ideais propostas pelo GeForce Experience maximizam a qualidade da imagem, mantendo um excelente desempenho, de modo a obter a melhor experiência de jogo para o usuÁrio.

    Além disso, o GFE pode notificar o jogador quando novas versões de drivers tiverem sido disponibilizadas pela NVIDIA, podendo, inclusive, fazer o download automaticamente.

    A companhia promete ampliar a lista de jogos compatíveis com o GeForce Experience, e adicionar novidades ao recurso, como é o caso da personalização de Configurações JogÁveis Ótimas (OPS, ou Optimal Playable Settings), suporte para o NVIDIA SHIELD e o ShadowPlay.



    Utilizando o encoder de vídeo H.264 embutido nas GPUs da geração Kepler, o ShadowPlay  Â– que trabalha em segundo plano, de forma transparente para o usuÁrio – grava os 20 minutos finais da "jogatina".

    De acordo com a NVIDIA, comparado com outros programas existentes no mercado, como o reconhecido FRAPS, o ShadowPlay  utiliza menos recursos do hardware, degradando assim bem menos na performance geral do PC/notebook.


    {break::Outras tecnologias #1}DirectX 11.1
    Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

    Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11.

    As principais novidades do DX11.1 são:

    • Rasterização independente de objeto;
    • Interoperabilidade flexível entre computação grÁfica e vídeo;
    • Suporte nativo ao Stereo 3D.

    FXAA

    Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

    Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

    Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

    Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

    Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

    TXAA

    Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

    Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler.

    O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

    O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

    Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


    Adptive VSync

    O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


    (Tearing artifacts)

    Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


    (Problema de sincronismo vertical - VSync)

    Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

    Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


    (Adptive V-Sync em funcionamento)

    NVENC

    A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

    Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

    Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

    O NVENC é capaz de lidar com as seguintes situações:

    - Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

    - Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

    - Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D; 

    - "Encodamento" para resolução de até 4096x4096 pixels.

    É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.


    PCIe Gen 3
    Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

    Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

    Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

    Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.


    CUDA 

    Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units). 

    Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

    Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x. 

    De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA. 

    No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...) 

    Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

    {break::Outras tecnologias #2}

    PhysX 

    Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos. 

    Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia. 

    Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs. 

    Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total. 

    A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão. 

    Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados. 

    É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça. 

    O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

    • Explosões com efeitos de poeira e destroços; 
    • Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas; 
    • Novos e incríveis efeitos nos efeitos dos disparos de armas; 
    • Tecidos que se enrugam e rasgam naturalmente; 
    • Fumaça e névoa formadas em torno de objetos em movimento.


    (Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


    (Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

    3D Vision Surround 

    Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado. 

    Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate). 

    Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho). 

    Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game. 

    Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos. 

    Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões. 

    Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes: 

    • Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico. 

    • Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real. 

    • Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.  

    • Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX. 

    • Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


    (Kris Rey da NVIDIA jogando Skyrim em 3 monitores, 
    enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)

    O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões. 

    Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores. 

    SLI 
    Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época. 

    Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D. 

    Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

    Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos: 

    • SFR (Split Frame Rendering ou Renderização por Divisão de Quadros) 

    Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo. 

    • AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros) 

    Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI. 

    • AFR de SFR 

    Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI. 

    • SLI Antialiasing 

    Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI. 

    Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8. 

    Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado. 

    PureVideo 

    Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web. 

    O PureVideo possui os seguintes recursos: 

    • Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU; 
    • Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD; 
    • Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade; 
    • Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos; 
    • 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução; 
    • Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução; 
    • Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

    {break::Fotos}Visualmente a GeForce GTX 760 não segue o design e acabamento da GTX 770, 780, TITAN e 690, ela é muito parecida com uma GTX 670, praticamente um clone.

    Aquele visual com acabamento metÁlico que até então dominava as placas da série GeForce 700 não se mostra presente em sequer uma grama, um pouco frustrante para quem esperava algo a mais nesse quesito.

    Como podem ver abaixo, ela é praticamente uma GTX 670, na verdade inclusive nas especificações como jÁ comentamos.

    Nas fotos abaixo temos lado a lado a GTX 760, GTX 670 e GTX 660, todos modelos bastante parecidos, mas como é possível notar, a GTX 760 é idêntica a GTX 670, inclusive com os dois conectores PCI-E de 6 pinos.

    Nas fotos abaixo temos a GTX 760 ao lado da GTX 770, mostrando a diferença gritante de todo o layout e material entre as duas placas.

    {break::MÁquina/Softwares utilizados}Como de costume, utilizamos uma mÁquina TOP de linha baseada em uma mainboard ASUS Rampage IV Extreme e processador Intel Core i7 3960X overclockado para 4.6GHz para os testes. Abaixo, algumas fotos da placa montada no sistema:

    A seguir, o preço médio de placas semelhantes as utilizadas nos comparativos (pesquisa feita no dia 25/06/2013 no site newegg.com), detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

    - NVIDIA GeForce GTX 770 - U$ 399
    - NVIDIA GeForce GTX 760 - U$ 249
    - NVIDIA GeForce GTX 670 - U$ 340
    - NVIDIA GeForce GTX 660 Ti - U$ 280
    - NVIDIA GeForce GTX 660 - U$ 210

    - AMD Radeon HD 7950 - U$ 290
    - AMD Radeon HD 7870 - U$ 200

    MÁquina utilizada nos testes:
    - Mainboard ASUS Rampage IV Extreme
    - Processador Intel Core i7 3960X @ 4.6GHz
    - Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
    - SSD Intel 330 Series 180GB
    - HD 2TB Sata3 Western Digital Black
    - Fonte Cooler Master Silent Pro Hybrid 1300w
    - Cooler Master Hyper 212 EVO

    Sistema Operacional e Drivers
    - Windows 7 64 Bits 
    - Intel INF 9.3.0.1020
    - NVIDIA GeForce 320.39
    - AMD Catalyst 13.6

    Configurações de Drivers
    3DMark 
    - Anisotropic filtering: OFF 
    - Antialiasing - mode: OFF 
    - Vertical sync: OFF 
    - Demais opções em Default

    Games: 
    - Anisotropic filtering: Variado através do game testado 
    - Antialiasing - mode: Variado através do game testado 
    - Texture filtering: High-Quality 
    - Vertical sync: OFF 
    - Demais opções em Default 

    Aplicativos/Games
    - 3DMark 11 (DX11) 
    - 3DMark (DX11) 
    - Unigine HEAVEN Benchmark 4.0 (DX11)
    - Unigine Valley Benchmark 1.0 (DX11)

    - Aliens vs Predator (DX11)
    - BioShock Infinite (DX11)
    - Crysis 3 (DX11)
    - F1 2012 (DX11)
    - Hitman Absolution (DX11)
    - Metro Last Light (DX11)
    - Tomb Raider (DX11)

    {break::GPU-Z e Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GeForce GTX 780, como podem ver, bastante semelhantes a de uma GTX 680 referência, justamente pelo fato de ambas serem baseadas no mesmo GPU.


    Temperatura
    Iniciamos nossa bateria de testes com um bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

    Para o teste da placa em uso, medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo.

    {break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que dÁ a noção exata do que cada VGA consome. "Vale destacar que o valor é o consumo total da mÁquina e não apenas da VGA, dessa forma comparações com testes de outros sites podem dar resultados bem diferentes."

     

    No teste de carga, rodamos o 3DMark 11. O aplicativo exige um pouco mais do sistema e da placa de vídeo do que grande maioria dos games.

    OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11, consideramos 15w como margem de erro, devido à grande variação que acontece testando uma mesma placa.

    {break::3DMark 11, 3DMark}

    3DMark 11
    Começamos os testes com os benchmarks da Futuremark utilizando a ferramenta 3DMark 11, um dos mais utilizados no mundo para medir desempenho de placas de vídeo.

     

    3DMark
    Mudando para a versão mais recente, rodamos os três testes da nova ferramenta: o Ice Storm, Cloud Gate e Fire Strike. Abaixo os resultados nessa sequência:

    {break::Unigine Heaven 4.0, Valley 1.0}

    Unigine HEAVEN Benchmark 4.0
    Agora em sua nova versão, O HEAVEN 4.0 é um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

    O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation em modo "extreme", ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

    O primeiro teste, com o Tessellation desativado:

    E o segundo com o tessellation ativado em modo EXTREME:

    Unigine Valley Benchmark 1.0
    Esse é outro benchmark sintético da Unigine, sendo o mais recente e que traz um cenÁrio bem diferente do anterior, mas também bom belos efeitos.

    {break::Aliens vs Predator}

    Começamos os testes em jogos com "Aliens vs Predator", game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Aliens vs Predator Benchmark Tool".

    {break::BioShock Infinite}


    O game "BioShock Infinite" é um grande sucesso de crítica (inclusive aqui no Adrenaline) desenvolvido pela 2K Games. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

    {break::Crysis 3}

    Sendo o game Crysis 3 um dos mais incríveis jÁ desenvolvidos quando o assunto é grÁfico, não poderiamos deixar ele de fora de nossos testes em anÁlises de placas de vídeo.

    {break::F1 2012}

    "F1 2012" é o game mais recente da série de simulador de Fórmula 1. O game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

    {break::Hitman Absolution}

    Produzido pela dinamarquesa IO Interactive e distribuído pela Square Enix, "Hitman Absolution" marca o retorno definitivo da franquia de espionagem e do mortal Agent 47. Desenvolvido com as ferramentas da não tão conhecida engine Glacier 2, o game é capaz de renderizar cenÁrios gigantescos, com mais de 1200 personagens na tela (com comportamentos distintos) e detalhamento grÁfico bastante apurado. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

    {break::Metro Last Light}


    Outro excelente teste que exige ao mÁximo das placas de vídeo é o o game Metro Last Light, sendo junto com o Crysis 3, referência quando se trata de qualidade grÁfica em games para PC.

    {break::Tomb Raider}


    O game marca o reboot da histórica franquia de Lara Croft, desenvolvido pela Crystal Dynamics com sua engine própria, a Crystal Dynamics Engine. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

    {break::PhysX: Metro Last Light}


    Passamos a utilizar o game Metro Last Light para os testes com a tecnologia PhysX.

    Abaixo os resultados das placas com suporte a essa tecnologia:

    {break::Overclock: Temperatura, Consumo Energia}Assim como grande parte dos modelos das últimas gerações da NVIDIA, a GTX 760 se comporta bem quando overclockada. Colocamos o core do modelo referência que analisamos trabalhando em 1100MHz, 120MHz acima do padrão. JÁ as memórias subimos para 6408MHz, 400MHz acima do padrão, bom overclock por se tratar de uma placa referência e por não modificarmos a voltagem.

    O software utilizado foi o MSI Afterburner. 


    Temperatura
    A temperatura quando overclockada ficou igual a placa com seus clocks padrões, bastante alta.

    Consumo de Energia
    Abaixo os testes de consumo de energia do sistema quando overclockamos a placa.

    {break::Overclock: 3DMark 11, AvP, BioShock Infinite, Tomb Raider}3DMark 11
    Começamos os testes de desempenho sobre o 3DMark 11, confiram abaixo o desempenho:

    Aliens vs Predator
    Dando sequência nos testes, agora é a vez do Aliens vs Predator.

    BioShock Infinite
    JÁ com o BioShock Infinite, game de FPS lançado em 2013 o comportamento em overclock foi o seguinte:

    Tomb Raider
    O game Tomb Raider é outro lançado esse ano com bons grÁficos, abaixo o desempenho sobre ele.

    {break::Conclusão}Conforme pôde ser visto em nossos testes, a GeForce GTX 760 obteve um sólido desempenho. Contudo, a exceção de Aliens Vs. Predator e F1 2012, o ganho sobre a GTX 660 Ti foi um tanto decepcionante, oscilando entre 3-10%.

    O motivo para este tímido ganho sobre a sua "irmã mais velha" estÁ na quantidade de processadores grÁficos. Houve um retrocesso no número de CUDA Cores sobre a GTX 660 Ti, caindo de 1.344 para 1.152. Assim, o expressivo desempenho em Aliens Vs. Predator e F1 2012 (ganho respectivo de 22% e 40% sobre a GeForce da geração anterior) nos faz acreditar em duas hipóteses: otimização no driver; e aumento na largura da banda de memória.

    Por falar em F1 2012, o jogo foi utilizado mais uma vez em nossa bateria de testes, visto que GRID 2 apresenta resultados diferentes a cada vez que se roda a bateria de testes, tornando-o ainda inviÁvel para uso em uma anÁlise. Vamos torcer que o game(ou serÁ os drivers?) ganhe correções em um futuro próximo, para que possamos utilizÁ-lo em futuros reviews.

    Em compensação, a boa nova estÁ no preço – US$ 250 para o modelo com 2GB, contra US$ 299 para a GTX 660Ti – além da opção de uma versão com 4GB, que aliado ao bus de 256 bits, permitirão o uso de altas resoluções em monitores de grandes proporções.

    A placa oferece os demais atrativos da geração Kepler, como é o caso dos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. 

    Contudo, a NVIDIA foi além, aprimorando o interessante recurso de overclock automÁtico dinâmico, o GPU Boost. Chamado agora de GPU Boost 2.0, a tecnologia conta agora com a possibilidade de aumentar a tensão de funcionamento do chip (Overvoltaging), além de permitir aumentar a quantidade de FPS com a sincronização vertical (VSync) habilitada.

    Outro ponto diz respeito à evolução no pacote de drivers, o R320, que agregou novos recursos, como é o caso do GeForce Experience – que ajusta automaticamente a melhor configuração para um determinado jogo – e do ShadowPlay – que grava os 20 minutos finais da "jogatina".

    Com ótima relação de custo x benefício, a GeForce GTX 760 é uma opção bastante interessante para os gamers rodar os jogos mais exigentes do mercado em boas condições, a um preço mais atrativo.

    PRÓS
    Preço dentro da realidade do mercado;
    Suporte ao que existe de melhor em tecnologias;
    GPU Boost 2.0 adiciona novas funcionalidades de overclock;
    Opção com 4GB de memória VRAM GDDR5;
    Barramento de 256 bits.
    CONTRAS
    Placa baseada no chip GK104 (GTX680/670/660Ti);
    A dissipação térmica mÁxima e a temperatura poderiam ser um pouco menores;
    Poderia ter a mesma quantidade de CUDA Cores da GTX 660Ti;
    Ganho de desempenho sobre a GTX 660Ti bastante irregular.
    Assuntos
    Tags
    • Redator: Fabio Feyh

      Fabio Feyh

      Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

    O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.