ANÁLISE: NVIDIA GeForce GTX 780

ANÁLISE: NVIDIA GeForce GTX 780

Em fevereiro, a NVIDIA surpreendeu o mercado com a GeForce GTX TITAN, placa que chegou com nomenclatura inusitada, e mais importante, com o status de ser a VGA mais poderosa do mercado, graças ao aguardado chip grÁfico GK110.

Com a chegada da TITAN, boa parte do mercado imaginava que a NVIDIA só lançaria as GeForces GTX 700 no final do ano, com a presença de GPUs de nova geração. Contudo, este tese começou a "cair por terra", com os primeiros rumores de que a GTX 780 seria baseada no GK110.

Com o lançamento da VGA, a NVIDIA confirma as especulações, utilizando o ótimo chip grÁfico presente na TITAN em sua nova placa single GPU de alto desempenho.

AliÁs, para quem ainda não sabe, o GK110 é o cérebro por trÁs da linha científica Tesla (mais precisamente o modelo K20X). Trata-se de uma GPU extremamente poderosa e complexa, mas que paga um "alto preço" por isso: ter uma enorme Área de die, traduzindo em elevado custo de produção e dissipação térmica relativamente elevada (mais detalhes serão abordados na seção "Os recursos da GTX TITAN").


- Continua após a publicidade -


Em termos de posicionamento de mercado, a GeForce GTX 780 se situa entre a GTX 680 (sua substituta natural) e a TITAN. Ao que parece, a NVIDIA aproveitou a GTX TITAN para lançar uma espécie de placa "fora de série", com um desempenho monstruoso, mas com um preço para poucos felizardos. US$ 999. AliÁs, muito poucos. O passo natural deveria batizar a TITAN de GTX 780, e a sua irmã menor, a GTX 770, com as especificações da GTX 780 "real".

Seguindo os mesmos predicados da TITAN, a GeForce GTX 780 possui outros destaques interessantes, como é o caso do GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), além de fornecer performance completa para computação de precisão dupla (particularmente interessante para o conceito de GPGPU – computação geral).

A VGA mantém inalterada a filosofia da geração Kepler (velocidade e suavidade), oferecendo suporte aos novos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

Outra novidade é a presença de um pacote de softwares complementares aos drivers "ForceWare" 320.xx, chamado pela companhia de GeForce Experience, que de modo simples, promete facilitar os ajustes finos nas configurações grÁficas, de forma a proporcionar um desempenho ideal com base no hardware do PC. 

Nas próximas seções, nossos leitores poderão conferir todos os detalhes da GeForce GTX 780, avaliando o comportamento da placa frente a uma intensiva bateria de testes.  

{break::Arquitetura GK110} Em termos de macro estrutura de alto nível, o GK110 é muito semelhante ao GK104 da GeForce GTX 680, sendo composto de inúmeros blocos de hardware distintos (cada um especializado em tarefas específicas), com o GPC (Graphics Processing Cluster, ou do português, Cluster de Processamento GrÁfico) continuando a ser o bloco de hardware de alto nível dominante. O GPC conta com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas neste Cluster.

Como pode ser visto abaixo na estrutura de processamento da Kepler, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto por cinco GPCs, seis controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento, e se comportam como mini GPUs independentes, possui três unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM). Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK110 (assim como os demais chips da geração Kepler) possuem nada menos do que impressionantes 192 CUDA Cores! Desta forma, o GK110 chega à impressionante quantidade de 2.880 CUDA Cores (5 GPCs x 3 SMXs x 192 CUDA Cores – ou simplesmente, 15 SMXs x 192 CUDA Cores). 


(Detalhe do Bloco de Diagrama do chip GK110 presente na GTX TITAN)


(Detalhe do Bloco de Diagrama do chip GK110 presente na GTX 780)


Seguindo a estratégia das fabricantes de chips grÁficos de desabilitar alguns componentes do hardware como forma de "segmentar" suas GPUs (e por conseguinte, as VGAs), a NVIDIA desativou uma unidade de Streaming Multiprocessor na GK110 da TITAN. Desta forma, o chip grÁfico 14 SMX, que junto com os 192 CUDA Cores anexos, conferem um total de 2.688 processadores grÁficos.

Na GTX 780, a NVIDIA desativou um total de 3 unidades de Streaming Multiprocessor, totalizando assim 2.304 CUDA Cores (12 SMX x 192 CUDA Cores). A título de comparação, o GK104 (GTX 680) possui 1.536 processadores grÁficos (8 SMXs x 192 CUDA Cores).

A nova GeForce possui uma interface de memória (também conhecido como "bus" ou barramento) de 384 bits, graças a presença dos seis blocos de 64 bits (6 blocos x 64 bits).

Em relação à quantidade de unidades de rasterização (responsÁvel por converter vetores em pixels para a construção das imagens), o GK110 possui um total de 48 ROPs, contra 32 do GK104. Essa diferença ocorre em virtude da quantidade de blocos ROPs existentes no Gigathread Engine. Assim, enquanto a GTX 780 possui seis blocos rasterizadores, cada um composto por oito ROPs – totalizando 48 ROPs (6 blocos x 8 ROPs), a GTX 680 possui quatro blocos, explicando-se assim a quantidade de 32 ROPs (4 blocos x 8 ROPs).

Quanto às unidades de mapeamento das texturas (responsÁveis por rotacionar e redimensionar um bitmap para ser colocado sobre um plano arbitrÁrio de um objeto 3D como uma textura), cada SMX é composto por 16 TMUs, totalizando assim 192 unidades de mapeamento das texturas (12 SMXs x 16 TMUs), contra 128 unidades da GK104 (8 SMXs x 16 TMUs) e 224 TMUs (14 SMXs x 16 TMUs) na GTX TITAN.

Por dentro do SMX

Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento do GK110 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

Além disso, é aí que se encontram as unidades de mapeamento das texturas que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


(Detalhe do Streaming Multiprocessor - SMX do GK110)

Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição fartos 1536KB de cache L2.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda oito TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas inicialmente na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

A Computação Científica do GK110

Apesar do GK110 ser bastante semelhante ao GK104 em termos de macro estruturas, a GPU por trÁs da GTX 780 e TITAN possui algumas diferenças claras e importantes em relação ao chip da GTX 680 (e demais GeForces da série 600).

O GK110 é um chip originalmente voltado para a computação científica. Tanto é verdade que tal GPU é o cérebro da Tesla K20X (presente no supercomputador Cray TITAN). Desta forma, as GTX 780 e TITAN são as primeiras placas para desktops da NVIDIA a disponibilizar processamento integral à computação de precisão dupla (DP).

Em GeForces anteriores, poucas unidades responsÁveis por lidar com as strings DP foram incluídas à GPU. A própria GTX 680 é um exemplo. O SMX do GK104 possui 192 CUDA Cores de ponto flutuante de precisão simples (SP) e apenas 8 CUDA Cores de precisão dupla. Como resultado, as operações de DP por ciclo de clock trabalham efetivamente a 1/24 da taxa de SP.  



Com as GTX 780 e TITAN, a NVIDIA incluiu robustos 64 CUDA Cores  de dupla precisão por SMX aos 192 CUDA Cores de precisão simples), otimizando assim a razão entre núcleos DP e SP de 1/24 para 1/3, tornando assim a placa muito mais poderosa no que se refere ao processamento de fluxos de trabalho que exijam precisão dupla (como é o caso das complexas tarefas profissionais e científicas).

De acordo com a NVIDIA, a adição de um maciço suporte à execução de tarefas de precisão dupla nas novas GeForces, teve como objetivo, permitir que os desenvolvedores pudessem tirar o mÁximo proveito da computação acelerada de GPU (conceito conhecido como GPGPU), fornecendo assim aos estudantes, pesquisadores, engenheiros e demais profissionais,  mais de 1 TeraFLOP de poder computacional de precisão dupla nos PCs domésticos.

Para mais informações sobre a arquitetura do GK110, basta clicar aqui (em inglês).


{break::Os recursos da GTX 780} 

Abaixo hÁ um resumo das principais especificações da GeForce GTX 780.

  • 7,1 bilhões de transistores;
  • Litografia em 28 nm;
  • Área do die: 561mm2;
  • Frequência de operação das texturas e ROPs (GPU): 863MHz (900Mhz via GPU Boost);
  • 2304 CUDA Cores/shader processors;
  • Frequência de operação das memórias: 6008MHz (GDDR5);
  • Quantidade de memória: 3GB;
  • Interface de memória: 384bits;
  • Quantidade de cache L2: 1,5MB;
  • TDP: mÁximo de 250 watts;
  • Limiar térmico da GPU em 95° C;
  • Suporte às tecnologias: CUDA (GPGPU com FP64), DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL e DirectCompute.

- Continua após a publicidade -



(Detalhe do chip GK110)

Embora não tenha o mesmo "status" da TITAN, a GeForce GTX 780 possui fartos números quando se trata de especificações. O aumento na quantidade de processadores grÁficos (um dos principais itens responsÁveis pelo desempenho de uma VGA) em relação à GTX 680 é de expressivos 50%, passando assim de 1.536 para 2.304 CUDA Cores. Esse número, é, no entanto, 14% menor que na TITAN. Vale ressaltar que o processo de litografia não passou por qualquer refinamento, mantendo o atual padrão em 28nm!

Outros números são igualmente impressionantes, como é o caso das unidades de rasterização (também conhecido como unidades de saída de renderização - ROPs) e das unidades de mapeamento das texturas. Enquanto que a GTX 680 possui 128 TMUs, a nova GeForce tem um total de 192 TMUs, ou seja, um "upgrade" de 50%. Com isso, a taxa de preenchimento de texturas salta de 128,8 GigaTextels/s para 165,7 GigaTexels em velocidade padrão, chegando a picos de 172,8 GigaTexels em modo turbinado. JÁ a TITAN, com os seus 224 TMUs, a taxa de preenchimento é de 187,3 GigaTextels/s, com pico de 196,2 GigaTextels/s.

JÁ nos ROPs, o aumento foi de 50%, pulando de 32 (GTX 680) para 48 (mesma quantidade que a GTX TITAN), suficiente para elevar a taxa de preenchimento dos pixels de 32,2 GigaPixels/s para 41,4 GigaPixels/s em velocidade padrão, e 43,2 GigaPixels/s em Boost Clock.

Não menos surpreendente diz respeito à dupla: largura de banda de memória e quantidade de VRAM – itens fundamentais para possibilitar o uso de múltiplos monitores, ou tela de grande proporção, com o uso de filtros de melhoria de imagens (como é o caso do Anisotropic e AntiAliasing) sem causar travamentos. Enquanto que a GTX 680 possui 2GB de GDDR5 e largura de banda de 192,3 GB/s, a GTX 780 vem com 3GB e 288,4 GB/s de vazão de fluxo de dados para a memória, aumento de 50%. Esse incremento só foi possível graças à elevação no barramento das memórias de 256 bits para 384 bits, uma vez que os clocks mantiveram-se inalterados em 6.008Mhz. JÁ na TITAN, a NVIDIA foi ainda mais generosa, equipando a placa com impressionantes 6GB.


(GeForce GTX 780 vs TITAN "desnudas", revelando detalhes de seus PCBs)


Contudo, os engenheiros da NVIDIA não tiveram como realizar "milagres". Os expressivos aumentos nos números por trÁs das especificações da nova GeForce resultaram em um chip com uma imensa quantidade de transistores e die com Área gigantesca. Assim, enquanto que o GK104 (GTX 680) possui 3,54 bilhões de transistores distribuídos em 294 mm2, o GK110 tem 7,1 bilhões em 561 mm2. O resultado disso? Uma GPU com dissipação térmica mais elevada – e para piorar – um chip caro de se produzir, uma vez que se reduz a quantidade suportada no wafer de silício.

Falando em dissipação térmica, o resultado até que pode ser considerado bom, se analisado o desempenho da placa como um todo, e quando comparada com outras GeForces. Enquanto que a GTX 680 tem TDP em 195W e a GTX 580, 244W, a dupla GTX 780 e TITAN tem TDP em 250W. É bom que se diga que esse resultado só não foi maior, em virtude do "pé no freio" na frequência de operação da GPU. Assim, o clock que era de 1006Mhz na GTX 680, passou para 863 MHz em modo padrão, podendo chegar a 900 MHz em Boost. AliÁs, esta "segurada" no core clock foi outro fator que influenciou o resultado na taxa de preenchimento dos pixels.

Com dissipação térmica mÁxima em 250W, a NVIDIA equipou a GTX TITAN com um conjunto de conectores extras de energia do tipo 6+8 pinos, garantindo assim respectivamente 75W e 150W aos 75W fornecidos pelo link do PCI Express. Assim, a placa tem ao seu dispor, 300W, uma boa margem de segurança para overclock. AliÁs, a nova GeForce conta com um sistema de alimentação de força de 6 fases com capacidade para sobretensão para o chip. Outro sistema de regulação de energia (VRM) de 2 fases é dedicado para as memórias GDDR5. De acordo com a companhia, tanto a GTX 780 quanto a TITAN podem ultrapassar a impressionante barreira de 1.1Ghz. É importante frisar que a Adrenaline não recomenda tal prÁtica, principalmente para os usuÁrios inexperientes em se tratando de overclock. Para dar conta de uma placa deste porte, a NVIDIA recomenda uma fonte de energia (PSU) real de 600W.


{break::As novidades da série GeForce 700}

GPU Boost

- Continua após a publicidade -

O GPU Boost trabalha de forma transparente para o usuÁrio (segundo plano), combinando recursos de hardware com software para o ajuste dinâmico nos clocks (overclock), com o objetivo de disponibilizar a quantidade de megahertz necessÁria para o bom funcionamento das tarefas. Tudo, claro, com base em certas condições de operação da GPU.

Originalmente lançado no ano passado com a GeForce GTX 680, a primeira iteração da tecnologia de overclock dinâmico foi projetado para atingir a maior velocidade possível, permanecendo dentro de um limite predefinido de consumo de energia. No caso da GTX 680, esse "teto" é 170 watts.


(Funcionamento da primeira geração do GPU Boost. O recurso monitora o consumo de energia em tempo real e aumenta o clock da GPU quando hÁ condições disponíveis.)

Com as GeForces GTX 780 e TITAN, o recurso foi revisto e aprimorado, passando a se chamar  GPU Boost 2.0. Após uma cuidadosa avaliação dos engenheiros da NVIDIA determinaram que o consumo de energia da GPU estava desnecessariamente limitando o desempenho quando as temperaturas eram baixas. Assim, para o GPU Boost 2.0, o fator condicionante para a tecnologia funcionar foi alterado do consumo de energia para a temperatura.  Esta nova meta é agora de 80 graus Celsius. Portanto, a freqüência de operação das GeForces equipadas com o GK110 irÁ automaticamente aumentar para o patamar mais elevado, desde que a temperatura da GPU não ultrapasse os 80oC. Vale ressaltar que o recurso monitora constantemente a GPU, ajustando o clock e tensão ("voltagem") em tempo real para manter  a temperatura dentro deste limite.

Outro benefício do GPU Boost 2.0 é a diminuição no nível de ruído do sistema de refrigeração – através da redução na velocidade das ventoinhas – desde que o usuÁrio faça um controle mais rígido no limite da temperatura. Na realidade, é possível realizar um controle personalizado na tecnologia de overclock dinâmico. Para tanto, basta alterar o limite padrão de 80oC para mais, ou para menos. Assim, o usuÁrio poderÁ optar entre um controle mais rígido no nível de ruído, ou, aumentar o potencial de overclock.

Vale esclarecer que, apesar da mudança no fator condicionante do consumo de energia (170W) para a temperatura (80oC – padrão), hÁ obviamente o limite do TDP da placa (250W no caso da GTX 780). Contudo, é possível ampliar este limite. Assim, colocando o GPU Boost 2.0 para trabalhar a 106%, a dissipação térmica mÁxima vai para 265W.

GPU Boost 2.0: Overclocking/Overvoltaging

Uma função presente no GPU Boost 2.0 muito bem vinda para os overclockers é o controle da sobretensão de energia. 

Uma vez que o nível de tensão (também conhecido de forma errada como "voltagem") e o Boost Clock da dupla GTX 780/TITAN estão "amarrados" ao limite de temperatura, os engenheiros da NVIDIA permitiram agora aumentar a tensão da GPU, possibilitando atingir clocks ainda mais elevados (segundo a companhia, é possível atingir 1.1Ghz com o sistema de refrigeração padrão. Mais uma vez a Adrenaline não recomenda tal prÁtica, principalmente para o usuÁrio inexperiente). 


(Diferença de performance entre o GPU Boost, GPU Boost 2.0 e GPU Boost com sobretensão (overvoltage)

É bom que se diga que as tensões padrões na nova GeForce estão limitadas a uma variação totalmente testadas e qualificadas pela NVIDIA. Esta faixa de tensão tem como objetivo proteger os circuitos integrados de danos com uso a longo prazo. Entretanto, os entusiastas podem querer ultrapassar esse limite, aumentando ainda mais a tensão mÁxima.

O GPU Boost 2.0 permite que essa capacidade de sobretensão, requerendo, no entanto, que os usuÁrios reconheçam o risco para a sua GPU, clicando através de um aviso. Vale ressaltar que cada fabricante de VGA pode limitar o grau da sobretensão suportada em suas placas, ou mesmo desativar o recurso através de alteração na VBIOS. 

GPU Boost 2.0: Display Overclocking

Muitos jogadores gostam de jogar com sincronização vertical (VSync) habilitado uma vez que não conseguem suportar o efeito de tremulação (tearing) que ocorre quando VSync estÁ desligado. Se por um lado isso evita o temido "tearing", por outro, limita a taxa de quadros (frame rate) para a taxa de atualização (refresh rate) do monitor, normalmente em 60Hz para a maioria das telas LCD. Como resultado, o jogo fica limitado a 60 quadros por segundo (FPS), não importando  se a VGA tenha capacidade de ir além deste limite. 


(FPS limitado pela taxa de atualização do monitor)

Com o GPU Boost 2.0, hÁ um novo recurso, chamado de "Overclock de Tela (Display Overclocking) que quebra este limite. Usando ferramentas fornecidas pela NVIDIA e seus parceiros, é possível overclockar a velocidade do pixel da tela, possibilitando atingir taxas de atualização mais elevadas. Vale ressaltar que não são todos os monitores que suportam o overclock. 


(GPU Boost 2.0: Display Overclocking entra em ação para aumentar os FPS do jogo)


{break::GeForce Experience} Junto com a GeForces GTX 700, a NVIDIA trouxe para o mercado, uma nova geração de drivers "ForceWare" – versão R320.xx, contendo alguns recursos extras interessantes.

Como forma de conferir uma maior qualidade nos jogos, e levando em conta a grande diversidade de hardware existente nos PCs/notebooks, os estúdios vêm disponibilizando no ambiente de configuração dos games, uma série de ajustes finos, de forma a permitir que o jogador opte pela combinação que melhor se adapte à sua realidade. 


Isso é fantÁstico, pois permite que o game rode em uma série de equipamentos diferentes, dos mais simples, às super mÁquinas de mais de R$ 7 mil. Contudo, um gamer menos experiente poderÁ sentir dificuldades na escolha as opções que melhor se adeque ao seu hardware, superestimando-o ou subestimando-o.

Pensando nestes casos, a NVIDIA ofertou como pacote adicional aos drivers da geração 320.xx, o GeForce Experience (GFE). Assim, ao invés de ajustar manualmente as configurações grÁficas, o recurso GFE faz todo o trabalho para o gamer. Com um simples clique do mouse, todas as suas configurações grÁficas podem ser ajustadas para proporcionar um desempenho ideal com base no hardware do PC/notebook. Compatível com mais de 70 games, as configurações ideais propostas pelo GeForce Experience maximizam a qualidade da imagem, mantendo um excelente desempenho, de modo a obter a melhor experiência de jogo para o usuÁrio.

Além disso, o GFE pode notificar o jogador quando novas versões de drivers tiverem sido disponibilizadas pela NVIDIA, podendo, inclusive, fazer o download automaticamente.

A companhia promete ampliar a lista de jogos compatíveis com o GeForce Experience, e adicionar novidades ao recurso, como é o caso da personalização de Configurações JogÁveis Ótimas (OPS, ou Optimal Playable Settings), suporte para o NVIDIA SHIELD e o ShadowPlay.



Utilizando o encoder de vídeo H.264 embutido nas GPUs da geração Kepler, o ShadowPlay  Â– que trabalha em segundo plano, de forma transparente para o usuÁrio – grava os 20 minutos finais da "jogatina".

De acordo com a NVIDIA, comparado com outros programas existentes no mercado, como o reconhecido FRAPS, o ShadowPlay  utiliza menos recursos do hardware, degradando assim bem menos na performance geral do PC/notebook.


{break::Outras tecnologias #1}DirectX 11.1
Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11.

As principais novidades do DX11.1 são:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação grÁfica e vídeo;
• Suporte nativo ao Stereo 3D.

FXAA
Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler.

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D; 

- "Encodamento" para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.


PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.


CUDA 

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units). 

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x. 

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA. 

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...) 

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

{break::Outras tecnologias #2}

PhysX 
Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos. 

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia. 

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs. 

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total. 

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão. 

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados. 

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça. 

O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços; 
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas; 
• Novos e incríveis efeitos nos efeitos dos disparos de armas; 
• Tecidos que se enrugam e rasgam naturalmente; 
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround 
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado. 

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate). 

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho). 

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game. 

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos. 

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões. 

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes: 

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico. 

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real. 

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.  

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX. 

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores, 
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)

O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões. 

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores. 

SLI 
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época. 

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D. 

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos: 

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros) 

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo. 

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros) 

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI. 

• AFR de SFR 

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI. 

• SLI Antialiasing 

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI. 

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8. 

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado. 

PureVideo 

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web. 

O PureVideo possui os seguintes recursos: 

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU; 
• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD; 
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade; 
• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos; 
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução; 
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução; 
• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

{break::Fotos e Vídeo review}A GeForce GTX 780 segue o design da GTX 690 e da GTX TITAN, modelos bem diferenciados quando comparadas a placas mais antigas.

Seu corpo com bastante metal na carcaça que faz a proteção dos componentes do PCB dão a placa um ar muito bonito e imponente. Outro destaque é que fica bem nítido na placa qual é o modelo da mesma, jÁ que cada placa tem seu modelo estampado no metal.


Reparem abaixo que a GTX 780 é um pouco maior que a GTX 680, ela também tem 1 conector de força de 8 pinos e outro de 6 pinos, ao contrÁrio da 680 que tem dois conectores de 6 pinos, além é claro da mudança radical no design visual da placa:

JÁ nas fotos abaixo temos a GTX 780 ao lado da TITAN, onde vemos que ambas as placas são bem semelhantes e usam o mesmo projeto do PCB, com pequenas alterações.

Nas fotos abaixo colocamos lado a lado a GeForce GTX 690, GTX TITAN, GTX 780 e GTX 680, as principais placas da NVIDIA no que diz respeito a desempenho.

Abaixo a vídeo review da placa:

{break::MÁquina/Softwares utilizados}Como de costume, utilizamos uma mÁquina TOP de linha baseada em uma mainboard ASUS Rampage IV Extreme e processador Intel Core i7 3960X overclockado para 4.6GHz para os testes. Abaixo, algumas fotos da placa montada no sistema:

A seguir, o preço de cada placa utilizada nos comparativos e alguns modelos concorrentes (pesquisa feita no dia 23/05/2013 no site newegg.com), detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes. 

  • NVIDIA GeForce GTX 690 - U$ 999
  • NVIDIA GeForce GTX TITAN - U$ 1019
  • NVIDIA GeForce GTX 780 - U$ 649
  • NVIDIA GeForce GTX 680 - U$ 469

  • AMD Radeon HD 7990 - U$ 999
  • AMD Radeon HD 7970 GHz Edition - U$ 449
  • AMD Radeon HD 7970 - U$ 399

MÁquina utilizada nos testes:
- Mainboard ASUS Rampage IV Extreme
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
- SSD Intel 330 Series 180GB
- HD 2TB Sata3 Western Digital Black
- Fonte Cooler Master Silent Pro Hybrid 1300w
- Cooler Master Hyper 212 EVO

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- NVIDIA GeForce 320.00
- AMD Catalyst 13.4

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 (DX11) 
- 3DMark (DX11) 
- Unigine HEAVEN Benchmark 4.0 (DX11)
- Unigine Valley Benchmark 1.0 (DX11)

- Aliens vs Predator (DX11)
- BioShock Infinite (DX11)
- Crysis 2 (DX11)
- Crysis 3 (DX11)
- F1 2012 (DX11)
- Hitman Absolution (DX11)
- Metro Last Light (DX11)
- Tomb Raider (DX11)

{break::GPU-Z e Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GeForce GTX 780.


Temperatura
Iniciamos nossa bateria de testes com um bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Neste primeiro teste, com o sistema em espera, a GTX 780 atingiu 31ºC. A temperatura alcançada é igual a da GTX 680 e dois graus mais fria que a da HD 7970 GHz Edition. A placa que menos esquentou foi a GTX 690.

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Reparem que a da GTX 780 foi a segunda mais alta, chegando a 79ºC, quatro acima da GTX 680. A HD 7970 e a GTX 690 foram as que atingiram a menor temperatura. Ambas ficaram na casa dos 71ºC.

{break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que dÁ a noção exata do que cada VGA consome. Vale destacar que o valor é o consumo total da mÁquina e não apenas da VGA, dessa forma comparações com testes de outros sites podem dar resultados bem diferentes.

Em modo ocioso (também conhecido como idle), a GTX 780 teve o melhor resultado e consumiu 173 watts. Logo em seguida, com 177 watts, vem a Titan. Em terceiro, tanto a HD 7970 quanto a HD 7970 GHz Edition consumiram 178 watts cada, enquanto a GTX 680, em quarto, 180 watts.

 

No teste de carga, rodando o 3DMark 11, a 780 não se saiu tão bem e ficou na quarta posição. Ela consumiu, no sistema inteiro, 449 watts. A HD 7970 GHz Edition ficou mais de 5% à frente, com 426 watts. A que menos consumiu foi a GTX 680.

OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11, consideramos 15w como margem de erro, devido à grande variação que acontece testando uma mesma placa.

{break::3DMark 11, 3DMark}

3DMark 11
Começamos os testes com os benchmarks da Futuremark utilizando a ferramenta 3DMark 11.

Neste benchmark, a 780 ficou mais de 27% à frente da GTX 680 e mais de 21% à frente da HD 7970 GHz Edition. O SLI com duas GTX 680 e o CrossFire com duas HD 7970 foram, logicamente, os primeiros colocados.

 

3DMark
Mudando para o software mais recente, rodamos três testes da nova ferramenta: o Ice Storm, Cloud Gate e Fire Strike. Nas duas primeiras categorias, a GTX 780 ficou na quinta colocação, com 177.187 e 30.951 pontos, respectivamente. No Fire Strike, a placa subiu uma posição. Em todos os modos, a placa analisada ficou uma posição à frente da HD 7970 GHz Edition. A GTX 680 foi a que teve o segundo pior desempenho.

{break::Unigine Heaven 4.0, Valley 1.0}

Unigine HEAVEN Benchmark 4.0
Agora em sua nova versão, trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation em modo "extreme", ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o Tessellation desativado, além do Crossfire e do SLI, a Titan e a GTX 690 também ficaram à frente da GTX 780. A HD 7970 GHz Edition vem logo atrÁs com 1.332 pontos. A placa da geração anterior ficou em último, com 1.157 pontos.

Usando o tessellation ativado em modo EXTREME, o resultado não foi diferente. A única diferença entre o teste anterior (além dos números em pontos) é que a GTX 680 ultrapassou a HD 7970 neste modo e foi a segunda "pior".

Unigine Valley Benchmark 1.0
Neste benchmark, a 780 figura na mesma posição. A diferença entre ela e a GTX 680, que ficou na penúltima colocação, é de mais de 45%. A GTX 780 fez 2527 e ficou à frente, também, da HD 7970 GHz Edition que fez 1876 pontos.

{break::Aliens vs Predator}

Começamos os testes em jogos com "Aliens vs Predator", game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Aliens vs Predator Benchmark Tool".

Tanto na resolução de 1680x1050 quanto na de 1920x1080, as placas ficaram na mesma posição e com, praticamente, a mesma diferença percentual entre elas. Em ambos os testes, a GTX 680 ficou com o pior desempenho. A HD 7970 GHz Edition ficou logo atrÁs da placa analisada.

{break::BioShock Infinite}


O game "BioShock Infinite" é um grande sucesso de crítica (inclusive aqui no Adrenaline) desenvolvido pela 2K Games. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

Com o BioShock a posição das placas foi a mesma nas duas resoluções. Entre todas as comparações (incluindo o CrossFire e o SLI), a GTX 780 continua com o quinto melhor desempenho.

{break::Crysis 2}

Para os testes com "Crysis 2", utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool, que lançamos no ano passado e é utilizada por praticamente todos os sites internacionais para benchmarks com o game. "Crysis 2", como todos sabem, é referência em qualidade de imagem, e no mês de junho 2011 finalmente ganhou seu patch com suporte ao DirectX 11, jÁ que originalmente o título vinha apenas em DX9.

Na resolução 1620x1050, houve empate técnico entre o SLI, o CrossFire, a Titan e a GTX 780. Ambos atingiram uma média de 94 FPS. Em seguida, vem a HD 7970 GHz Edition. A 680 alcançou 81.7 FPS e ficou em último.

JÁ à 1920x1080, a diferença entre a placa analisada e a HD 7970 GHz Edition, que vem logo atrÁs, foi de mais de 11%. A 680, com 70.6 FPS, continua sendo a que teve o pior desempenho.

{break::Crysis 3}

Sendo o game Crysis 3 um dos mais incríveis jÁ desenvolvidos quando o assunto é grÁfico, ele passarÁ a fazer parte de nossos testes em algumas anÁlises de placas de vídeo.

Na resolução 1620x1050, A GTX 780 superou a TITAN na tabela, mas como o game tem a mesma limitação do Crysis 2, não se sabe se devido os drivers ou bug do próprio jogo, em alguns raros casos o desempenho de placas TOP e combinações multi-placas supera a casa dos 100 FPS, vimos que isso aconteceu com o Crossfire de 7970 GHz Edition.

Devido o problema o ganho de desempenho da 780 sobre a 680 também foi afetado, ficando em apenas 7%.

Em 1920x1080 a diferença entre as placas testadas foi semelhante a resolução de 1680x1050. 

{break::F1 2012}

"F1 2012" é o game mais recente da série de simulador de Fórmula 1. O game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Com o F1 2012, a GTX 780 sobe para a segunda posição nas duas resoluções. Ela ficou mais de 3% e 4%, respectivamente, atrÁs da GTX Titan. A 7970 GHz Edition teve o terceiro pior desempenho nos dois testes. Quando comparamos a 680, o ganho foi superior a 30%.

{break::Hitman Absolution}

Produzido pela dinamarquesa IO Interactive e distribuído pela Square Enix, "Hitman Absolution" marca o retorno definitivo da franquia de espionagem e do mortal Agent 47. Desenvolvido com as ferramentas da não tão conhecida engine Glacier 2, o game é capaz de renderizar cenÁrios gigantescos, com mais de 1200 personagens na tela (com comportamentos distintos) e detalhamento grÁfico bastante apurado. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

Se no F1 a 780 se saiu bem melhor, aqui ela voltou a ficar atrÁs não só da Titan e da 690 como da HD 7970 GHz Edition e da HD 7970 em ambas as resoluções. As placas da AMD ficaram nas primeiras colocações. A placa analisada ficou mais de 11% e 13%, respectivamente, atrÁs da GPU que teve o melhor desempenho. A diferença entre a 780 e a 680 foi de menos de 1%.

{break::Metro Last Light}


ATUALIZAÇÃO 29/05/2013 - Refizemos todos os testes removendo o filtro "SSAA", que faz o desempenho cair muito mesmo em placas mais recentes topo de linha, sem grande contrapartida visual no gameplay. Todas as demais configurações estão setadas no mÁximo.

O Metro Last Light passa agora a fazer parte de nossas reviews de placas de vídeo. O game traz grÁficos tão bonitos quanto o Crysis 3, virando outra referência nesse quesito.

Aqui, a GTX 780 novamente se comportou muito bem, com mais de 20% de ganho de desempenho sobre a GTX 680 e 7970 GHz Edition em ambas as resoluções testadas. A diferença sobre a TITAN ficou em 10%, mostrando que a GTX 780 é uma opção com custo benefício bem melhor.

DOWNLOAD - Fila de testes utilizada 

{break::Tomb Raider}


O game marca o reboot da histórica franquia de Lara Croft, desenvolvido pela Crystal Dynamics com sua engine própria, a Crystal Dynamics Engine. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

Aqui, a GTX 780 ficou mais de 33% à frente da 680 e a HD 7970 GHz Edition ficou cerca de 15% atrÁs da placa analisada.

{break::PhysX: Metro Last Light}


Passaremos a utilizar o game Metro Last Light para os testes com a tecnologia PhysX.

Nesse teste novamente a GTX 780 ficou dentro da margem apresentada pelos demais testes. Com ganho de cerca de 20% sobre a GTX 680 e em média 10% atrÁs da TITAN.

Também adicionamos os testes sobre a 7970 GHz Edition para matar a curiosidade de alguns leitores, afinal de contas a placa consegue rodar a tecnologia PhysX, só não estÁ otimizada para isso. Vale aqui destacar que a NVIDIA liberou o uso da tecnologia para os novos consoles PS4 e XBox One, de Sony e MS respectivamente.

{break::Overclock: Temperatura, Consumo Energia}A GeForce GTX 780 tem seu GPU trabalhando com clock consideravelmente inferior ao da GTX 680, 863MHz(780) vs 1006MHz(680), mas pela diferença de projetos e chips, a 780 tem desempenho superior.

Para o overclock nós colocamos a GTX 780 com clock de 1000MHz, praticamente o mesmo da 680, e o resultado foi que a nova placa da NVIDIA quase alcançou a TITAN em desempenho. Vale destacar que a TITAN tem o GPU trabalhando com clock em 837MHz.

Para o overclock utilizamos o aplicativo Afterburner, mas não fizemos nenhuma alteração de voltagem, simplesmente setamos o clock do GPU em 1000MHz e das memórias em 6608MHz. Automaticamente o Turbo Boost da placa subiu de 902MHz para 1039MHz após o overclock. 


Temperatura
A GTX 780 overclockada a 1000 MHz, chegou a 80ºC, apenas um acima da temperatura quando rodando com seu clock padrão. Na comparação com as placas a frente dela poderíamos concluir que a temperatura estÁ alta, mas comparando com a TITAN vemos que a temperatura é igual, consequentemente dendo do esperado sendo que ambas placas são praticamente idênticas no que diz respeito ao projeto.

Consumo de Energia
No quesito consumo de energia, overclockada a 1000 MHz, a GTX 780 chegou a consumir 472 watts, 5% a mais do que quando rodando com seu clock padrão. A Titan e a GTX 690 vem logo em seguida, com 479 e 497 watts, respectivamente.

{break::Overclock: 3DMark 11, AvP, BioShock Infinite, Tomb Raider}3DMark 11
Overclockada, a GTX 780 ficou com o quarto melhor desempenho e atingiu 13.947 pontos, superando a TITAN, resultado surpreendente e que mostra a possibilidade de algumas empresas  lançarem modelos overclockados de fÁbrica que superem a TITAN.

A 780 overclockada também ficou a apenas 5% da GTX 690, placa dual chip da geração passada. O overclock deixou a 780 40% à frente da 680 e teve ganho de quase 10% sobre a 780 com clocks normais.

Aliens vs Predator
Assim como o 3D Mark 11, com o game Aliens vs Predator na resolução 1920x1080 a TITAN ficou entre a GTX 780 overclockada e a não overclockada, deixando claro que teremos modelos overclockados da 780 que vão superar a placa TOP single-chip da NVIDIA.

BioShock Infinite
A GTX 780 overclockada se mantém com o quarto melhor desempenho, com ganho de quase 10% sobre o modelo não overclockado.

Tomb Raider
Finalizando os testes de overclock com o Tomb Raider, o resultado mostrou um ganho ainda melhor do que os demais. Quando overclockada para 1GHz, a GTX 780 teve ganho de 13%, o maior entre os testes que fizemos.

{break::Conclusão}Infelizmente não serÁ desta vez que os gamemaníacos terão em mãos as primeiras GeForces baseadas em chips da arquitetura Maxwell. Contudo, embora a GTX 780 seja baseada em uma GPU da geração Kepler (GTX 600), o GK110 tem como grande destaque, o seu imenso poder de processamento. 

Graças a um expressivo aumento na quantidade de processadores grÁficos, chamado pela NVIDIA de CUDA Cores, bem como do incremento das unidades de texturização e rasterizadoras, a placa tem um desempenho muito próximo à GTX TITAN. 

Outro destaque ainda no campo do desempenho, é a quantidade de memória – 3GB – que junto com uma interface de memória de 384 bits, permitem que a placa rode os games em condições extremas, mesmo em monitores de grandes proporções.

Embora não tenha um preço proibitivo como a TITAN (US$ 999), os US$ 649 cobrados pela GeForce GTX 780 estÁ longe de ter um preço atrativo, mesmo se tratando de uma placa 3D topo de linha. Na realidade é US$ 150 mais cara que o preço histórico das VGAs deste segmento, como foi o caso da GTX 680.

O porém em relação ao preço, é que a placa quando overclockada pode superar facilmente uma TITAN, consequentemente as parceiras da NVIDIA devem aproveitar a situação, afinal conseguirão ter uma placa "idêntica", inclusive no desempenho, e custando cerca de U$350 dólares a menos.

É bom que se diga que a utilização de um chip de grandes proporções como o GK110, em uma litografia inalterada de 28nm, traz como conseqüência imediata, um alto custo de produção para a NVIDIA (que repassa para o consumidor final); e dissipação térmica e consumo de energia elevados.

A placa oferece os demais atrativos da geração Kepler, como é o caso dos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. 

Contudo, a NVIDIA foi além, aprimorando o interessante recurso de overclock automÁtico dinâmico, o GPU Boost. Chamado agora de GPU Boost 2.0, a tecnologia conta agora com a possibilidade de aumentar a tensão de funcionamento do chip (Overvoltaging), além de permitir aumentar a quantidade de FPS com a sincronização vertical (VSync) habilitada.

Outro ponto diz respeito à evolução no pacote de drivers, o R320, que agregou novos recursos, como é o caso do GeForce Experience – que ajusta automaticamente a melhor configuração para um determinado jogo – e do ShadowPlay – que grava os 20 minutos finais da "jogatina".

Com a chegada da GeForce GTX 780, o mercado jÁ começa a voltar os olhos para a Radeon HD 8970. Resta saber se a AMD conseguirÁ aprontar a sua nova geração de chips grÁficos em curto espaço de tempo, ou se farÁ algo semelhante à NVIDIA, e lançarÁ placas baseadas em GPUs jÁ existentes.

A GeForce GTX 780 herda todos os predicados da TITAN, garantindo um expressivo incremento de desempenho sobre a GTX 680.

PRÓS
Elegante e ótimo acabamento;
Bastante silenciosa;
Ótimo desempenho sobre a GTX 680;
Suporte ao que existe de melhor em tecnologias;
GPU Boost 2.0 adiciona novas funcionalidades de overclock;
3GB de memória VRAM GDDR5 com bus de 384 bits;
Quando overclockada pode superar a TITAN sem grandes esforços.
CONTRAS
Placa ainda baseada em um chip da geração Kepler, com litografia em 28nm;
Preço muito acima do patamar histórico da categoria;
A dissipação térmica mÁxima poderia ser menor.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.