ANÁLISE: NVIDIA GeForce GTX 770

ANÁLISE: NVIDIA GeForce GTX 770

O lançamento da GeForce GTX 780 não "animou" a grande maioria dos gamemaníacos de plantão. Apesar de trazer um expressivo aumento no desempenho sobre a sua substituta, a GTX 680, o preço de US$ 649 foi um verdadeiro "balde de Água fria" sobre as pretensões de compra dos consumidores. Desta forma, o mercado voltou o seus olhos para a GTX 770. 

Apesar de não trazer o grande "chamariz" de sua "irmã maior", o chip grÁfico GK110, o bom e velho GK104 (presente na GTX 680) foi a solução encontrada pela NVIDIA para equipar a nova GeForce (leia mais sobre o assunto na seção "Os recursos da GTX 770".


AliÁs, conforme pode ser conferido nas próximas seções, a GeForce GTX 770 é na realidade uma GTX 680 "disfarçada", com clocks na GPU e memória um pouco acima de sua "irmã mais velha". A consequência imediata é um "buraco" em termos de performance (e preço) entre GTX 770 e GTX 780.

A boa notícia é que enquanto que a GTX 680 foi lançada na época por US$ 499, a GeForce GTX 770 chega no mesmo patamar de sua substituta, a GTX 670, ou seja, US$ 399.

Apesar de possuir a GPU GK104, a nova placa da NVIDIA conta com o suporte às novas tecnologias da companhia, como é o caso do GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging); e do GeForce Experience, que de modo simples, promete facilitar os ajustes finos nas configurações grÁficas, de forma a proporcionar um desempenho ideal com base no hardware do PC. 

Legítima herdeira da geração Kepler, a VGA mantém inalterada a filosofia "velocidade e suavidade", oferecendo ainda suporte aos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround.

Nas próximas seções, os leitores da Adrenaline poderão conferir todos os detalhes da GeForce GTX 770, avaliando o comportamento da placa frente a GTX 680 e demais competidoras diante de uma intensiva bateria de testes.

- Continua após a publicidade -

{break::Arquitetura GK104} O GK104 é composto de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphics Processing Clusters) continua a ser o bloco de hardware de alto nível dominante na atual arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas no GPC.


(Detalhe do Bloco de Diagrama do chip GK104 presente na GTX 770)

Como pode ser visto acima na estrutura de processamento da Kepler, hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de quatro GPCs, quatro controladores de memória, partições ROPs e cache L2. Vale ressaltar que cada GPC, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors, chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM). 

Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores, os SMX da GK104 (assim como suas variantes) possuem nada menos do que impressionantes 192 CUDA Cores! Desta forma, a NVIDIA conseguiu alcançar uma grande quantidade de processadores grÁficos. No caso específico da GK104, hÁ 1.536 CUDA Cores (4 GPCs x 2 SMXs x 192 CUDA Cores ou simplesmente 8 SMXs x 192 processadores grÁficos).  A título de comparação, o GK110 chega à impressionante quantidade de 2.880 CUDA Cores (15 SMXs x 192 CUDA Cores, embora a versão presente na GTX 780 tenha "apenas" 2.304 processadores grÁficos, em virtude da desativação de 3 SMX.

Outra mudança visível na comparação entre os chips grÁficos GK110 e o GK104 diz respeito à interface de memória (mais conhecido como bus). Ao invés de seis blocos de 64 bits, hÁ somente quatro, totalizando assim um bus de 256 bits (4 blocos x 64 bits) para a GTX 770 contra 384 bits da GTX 780.

Em relação à quantidade de unidades de rasterização (responsÁvel por converter vetores em pixels para a construção das imagens), o GK104 possui um total de 32 ROPs, contra 48 do GK110. Essa diferença ocorre em virtude da quantidade de blocos rasterzadores existentes no Gigathread Engine dos chips. Assim, enquanto a GTX 780 possui seis blocos rasterizadores, cada um composto por 8 ROPs – totalizando 48 ROPs (6 blocos x 8 ROPs), a GTX 770 possui quatro blocos, explicando-se assim a quantidade de 32 ROPs (4 blocos x 8 ROPs).

Quanto às unidades de mapeamento das texturas (responsÁveis por rotacionar e redimensionar um bitmap para ser colocado sobre um plano arbitrÁrio de um objeto 3D como uma textura), cada SMX é composto por 16 TMUs, totalizando assim 128 unidades de mapeamento das texturas (8 SMXs x 16 TMUs) na GTX 770, contra 192 unidades (12 SMXs x 16 TMUs) na GTX 780.


Por dentro do SMX

Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento do GK104 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.



(Detalhe do Streaming Multiprocessor - SMX do GK104)


- Continua após a publicidade -
Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. A GPU tem ainda à disposição fartos 1536KB de cache L2.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda oito TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas inicialmente na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

{break::Os recursos da GTX 770} 

- Continua após a publicidade -

Abaixo hÁ um resumo das principais especificações da GeForce GTX 780.

• 3,54 bilhões de transistores; 

• Nova litografia em 28 nm; 

• Área do die: 294mm2; 

• Frequência de operação das texturas e ROPs (GPU): 1046MHz (1085Mhz via GPU Boost); 

• 1536 CUDA Cores/shader processors; 

• Frequência de operação das memórias: 7010MHz (GDDR5); 

• Quantidade de memória: 2GB e 4GB; 

• Interface de memória: 256bits; 

• TDP: mÁximo de 230 watts; 

• Limiar térmico da GPU em 95° C; 

• Suporte às tecnologias: CUDA (GPGPU com FP64), DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, GPU Boost 2.0 com overclock de monitor (display overclocking) e sobretensão (overvoltaging), GeForce Experience, Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL e DirectCompute.


(Detalhe do chip GK104)


Sem o refinamento na litografia (processo de fabricação dos chips) por parte de sua parceira TSMC (que "tira" o chip do papel, produzindo-o fisicamente), a NVIDIA se viu obrigada a rever os seus planos. Ou postergaria a chegada da família GTX 700, ou utilizaria de um plano B para o lançamento das novas GeForces. Como visto, a companhia optou pela segunda opção. 

A solução encontrada para a GTX 780 foi a utilização do GK110 (o cérebro por trÁs da linha científica Tesla - mais precisamente o modelo K20X). Trata-se de uma GPU extremamente poderosa e complexa, mas que paga um "alto preço" por isso: ter uma enorme Área de die. Como se sabe, no mundo dos processadores e chips grÁficos, quanto maior for a Área do die, maior serÁ o seu custo de fabricação e de dissipação térmica.

O resultado desta equação foi o lançamento de uma placa de imenso poder de processamento grÁfico, mas com um custo proibitivo (US$ 649) para a grande maioria da comunidade, inibindo até mesmo uma parcela dos consumidores do segmento topo de linha.

Com um chip extremamente caro de se fabricar, a adoção do GK110 na GeForce GTX 770 estaria praticamente descartada, ao menos se a NVIDIA estivesse pensando em obter lucro com a venda da VGA. A saída encontrada pela companhia foi a utilização de um chip menor (e, portanto, mais barato de se produzir) e com poder suficientemente grande para brigar com as suas competidoras. Foi aí que entrou o bom e velho GK104 (até então presente na dupla GTX 680/670).

Conforme poder ser visto nas especificações detalhadas a seguir, a GeForce GTX 770 é uma "releitura" da GTX 680, com discretas alterações. AliÁs, pelo visto, é muito provÁvel que toda a linha GTX 700 não passe de versões rebatizadas de suas "irmãs mais velhas".

Assim, tanto a GTX 680 quanto a GTX 770 possuem as mesmas quantidades de processadores grÁficos, de unidades de texturização e de rasterizadores, isto é, respectivamente em 1.536 CUDA Cores, 128 TMUs e 32 ROPs. A novidade aqui estÁ no clock da GPU, sofrendo um discreto aumento de 4%, passando de 1006Mhz para 1046Mhz (1085Mhz via GPU Boost).

As maiores alterações estão nas memórias. Ou melhor, na frequência de operação e quantidade. Enquanto que a GTX 680 tem VRAM em 6008Mhz, a GTX 770 passa a operar em 7010Mhz. Apesar da interface de memória ter permanecido inalterado em 256 bits, o aumento de 17% no clock da GDDR5 foi suficiente para elevar a largura de banda de memória de 192,3 GB/s para 224,3GB/s. Outra novidade é o aumento na VRAM. Enquanto que a GTX 680 estava limitada a 2GB, haverÁ opções com 2GB e 4GB para a GTX 770. Essa quantidade extra de memória, junto com maior largura de banda, possibilita a utilização de configurações com resoluções extremamente altas, ou ainda, de múltiplos monitores com maior folga em relação à sua "irmã mais velha".

Um ponto que "assustou" a comunidade foi o significativo aumento na dissipação térmica mÁxima. Se na GTX 680 o GK104 tem TDP de 195W, na GTX 770, estranhamente esse patamar subiu para 230W. E o fato principal para a elevação do TDP, que é o aumento no clock da GPU, não se aplica, visto que o valor aumentou minimamente de 1006Mhz para 1046Mhz (1085Mhz com GPU Boost). Com o passar do tempo, era de se supor que a NVIDIA faria algum tipo de otimização ou refinamento no chip com o intuito de melhorar a dissipação térmica mÁxima, fato que não aconteceu.

Para suprir energia suficiente, a NVIDIA disponibilizou um conector de energia de 8 pinos (150W), e um segundo de 6 pinos (75W), fornecendo assim um total de 300W (lembrando que o barramento PCI Express disponibiliza 75W). De acordo com a NVIDIA, é recomendado o uso de uma fonte real de 600W.



{break::As novidades da série GeForce 700}

GPU Boost

O GPU Boost trabalha de forma transparente para o usuÁrio (segundo plano), combinando recursos de hardware com software para o ajuste dinâmico nos clocks (overclock), com o objetivo de disponibilizar a quantidade de megahertz necessÁria para o bom funcionamento das tarefas. Tudo, claro, com base em certas condições de operação da GPU.

Originalmente lançado no ano passado com a GeForce GTX 680, a primeira iteração da tecnologia de overclock dinâmico foi projetado para atingir a maior velocidade possível, permanecendo dentro de um limite predefinido de consumo de energia. No caso da GTX 680, esse "teto" é 170 watts.


(Funcionamento da primeira geração do GPU Boost. O recurso monitora o consumo de energia em tempo real e aumenta o clock da GPU quando hÁ condições disponíveis.)

Com as GeForces GTX 700 e TITAN, o recurso foi revisto e aprimorado, passando a se chamar  GPU Boost 2.0. Após uma cuidadosa avaliação dos engenheiros da NVIDIA determinaram que o consumo de energia da GPU estava desnecessariamente limitando o desempenho quando as temperaturas eram baixas. Assim, para o GPU Boost 2.0, o fator condicionante para a tecnologia funcionar foi alterado do consumo de energia para a temperatura.  Esta nova meta é agora de 80 graus Celsius. Portanto, a freqüência de operação das novas GeForces irÁ automaticamente aumentar para o patamar mais elevado, desde que a temperatura da GPU não ultrapasse os 80oC. Vale ressaltar que o recurso monitora constantemente a GPU, ajustando o clock e tensão ("voltagem") em tempo real para manter  a temperatura dentro deste limite.

Outro benefício do GPU Boost 2.0 é a diminuição no nível de ruído do sistema de refrigeração – através da redução na velocidade das ventoinhas – desde que o usuÁrio faça um controle mais rígido no limite da temperatura. Na realidade, é possível realizar um controle personalizado na tecnologia de overclock dinâmico. Para tanto, basta alterar o limite padrão de 80oC para mais, ou para menos. Assim, o usuÁrio poderÁ optar entre um controle mais rígido no nível de ruído, ou, aumentar o potencial de overclock.

Vale esclarecer que, apesar da mudança no fator condicionante do consumo de energia (170W) para a temperatura (80oC – padrão), hÁ obviamente o limite do TDP da placa (230W no caso da GTX 770). Contudo, é possível ampliar este limite. Assim, colocando o GPU Boost 2.0 para trabalhar a 106%, a dissipação térmica mÁxima vai para 244W.

GPU Boost 2.0: Overclocking/Overvoltaging

Uma função presente no GPU Boost 2.0 muito bem vinda para os overclockers é o controle da sobretensão de energia. 

Uma vez que o nível de tensão (também conhecido de forma errada como "voltagem") e o Boost Clock das GTX 700/TITAN estão "amarrados" ao limite de temperatura, os engenheiros da NVIDIA permitiram agora aumentar a tensão da GPU, possibilitando atingir clocks ainda mais elevados. Mais uma vez a Adrenaline não recomenda tal prÁtica, principalmente para o usuÁrio inexperiente). 


(Diferença de performance entre o GPU Boost, GPU Boost 2.0 e GPU Boost com sobretensão (overvoltage)

É bom que se diga que as tensões padrões nas novas GeForces estão limitadas a uma variação totalmente testadas e qualificadas pela NVIDIA. Esta faixa de tensão tem como objetivo proteger os circuitos integrados de danos com uso a longo prazo. Entretanto, os entusiastas podem querer ultrapassar esse limite, aumentando ainda mais a tensão mÁxima.

O GPU Boost 2.0 permite que essa capacidade de sobretensão, requerendo, no entanto, que os usuÁrios reconheçam o risco para a sua GPU, clicando através de um aviso. Vale ressaltar que cada fabricante de VGA pode limitar o grau da sobretensão suportada em suas placas, ou mesmo desativar o recurso através de alteração na VBIOS. 

GPU Boost 2.0: Display Overclocking

Muitos jogadores gostam de jogar com sincronização vertical (VSync) habilitado uma vez que não conseguem suportar o efeito de tremulação (tearing) que ocorre quando VSync estÁ desligado. Se por um lado isso evita o temido "tearing", por outro, limita a taxa de quadros (frame rate) para a taxa de atualização (refresh rate) do monitor, normalmente em 60Hz para a maioria das telas LCD. Como resultado, o jogo fica limitado a 60 quadros por segundo (FPS), não importando  se a VGA tenha capacidade de ir além deste limite. 


(FPS limitado pela taxa de atualização do monitor)

Com o GPU Boost 2.0, hÁ um novo recurso, chamado de "Overclock de Tela (Display Overclocking) que quebra este limite. Usando ferramentas fornecidas pela NVIDIA e seus parceiros, é possível overclockar a velocidade do pixel da tela, possibilitando atingir taxas de atualização mais elevadas. Vale ressaltar que não são todos os monitores que suportam o overclock. 


(GPU Boost 2.0: Display Overclocking entra em ação para aumentar os FPS do jogo)


{break::GeForce Experience} Junto com a GeForces GTX 700, a NVIDIA trouxe para o mercado, uma nova geração de drivers "ForceWare" – versão R320.xx, contendo alguns recursos extras interessantes.

Como forma de conferir uma maior qualidade nos jogos, e levando em conta a grande diversidade de hardware existente nos PCs/notebooks, os estúdios vêm disponibilizando no ambiente de configuração dos games, uma série de ajustes finos, de forma a permitir que o jogador opte pela combinação que melhor se adapte à sua realidade. 


Isso é fantÁstico, pois permite que o game rode em uma série de equipamentos diferentes, dos mais simples, às super mÁquinas de mais de R$ 7 mil. Contudo, um gamer menos experiente poderÁ sentir dificuldades na escolha as opções que melhor se adeque ao seu hardware, superestimando-o ou subestimando-o.

Pensando nestes casos, a NVIDIA ofertou como pacote adicional aos drivers da geração 320.xx, o GeForce Experience (GFE). Assim, ao invés de ajustar manualmente as configurações grÁficas, o recurso GFE faz todo o trabalho para o gamer. Com um simples clique do mouse, todas as suas configurações grÁficas podem ser ajustadas para proporcionar um desempenho ideal com base no hardware do PC/notebook. Compatível com mais de 70 games, as configurações ideais propostas pelo GeForce Experience maximizam a qualidade da imagem, mantendo um excelente desempenho, de modo a obter a melhor experiência de jogo para o usuÁrio.

Além disso, o GFE pode notificar o jogador quando novas versões de drivers tiverem sido disponibilizadas pela NVIDIA, podendo, inclusive, fazer o download automaticamente.

A companhia promete ampliar a lista de jogos compatíveis com o GeForce Experience, e adicionar novidades ao recurso, como é o caso da personalização de Configurações JogÁveis Ótimas (OPS, ou Optimal Playable Settings), suporte para o NVIDIA SHIELD e o ShadowPlay.



Utilizando o encoder de vídeo H.264 embutido nas GPUs da geração Kepler, o ShadowPlay  Â– que trabalha em segundo plano, de forma transparente para o usuÁrio – grava os 20 minutos finais da "jogatina".

De acordo com a NVIDIA, comparado com outros programas existentes no mercado, como o reconhecido FRAPS, o ShadowPlay  utiliza menos recursos do hardware, degradando assim bem menos na performance geral do PC/notebook.


{break::Outras tecnologias #1}DirectX 11.1
Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11.

As principais novidades do DX11.1 são:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação grÁfica e vídeo;
• Suporte nativo ao Stereo 3D.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA

Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler.

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC

A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D; 

- "Encodamento" para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.


PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.


CUDA 

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units). 

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x. 

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA. 

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...) 

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

{break::Outras tecnologias #2}

PhysX 

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos. 

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia. 

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs. 

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total. 

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão. 

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados. 

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça. 

O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços; 
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas; 
• Novos e incríveis efeitos nos efeitos dos disparos de armas; 
• Tecidos que se enrugam e rasgam naturalmente; 
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround 

Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado. 

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate). 

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho). 

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game. 

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos. 

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões. 

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes: 

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico. 

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real. 

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.  

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX. 

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores, 
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)

O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões. 

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores. 

SLI 
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época. 

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D. 

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos: 

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros) 

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo. 

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros) 

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI. 

• AFR de SFR 

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI. 

• SLI Antialiasing 

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI. 

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8. 

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado. 

PureVideo 

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web. 

O PureVideo possui os seguintes recursos: 

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU; 
• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD; 
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade; 
• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos; 
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução; 
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução; 
• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

{break::Fotos}A GeForce GTX 770 segue o design da GTX 780 e também da GTX 690 e da GTX TITAN, modelos bem diferenciados quando comparadas a placas mais antigas, como da geração anterior.

Seu corpo com bastante metal na carcaça que faz a proteção dos componentes do PCB dão a placa um ar muito bonito e imponente. Outro destaque é que fica bem nítido na placa qual é o modelo da mesma, jÁ que cada placa tem seu modelo estampado no metal, da mesma forma que os outros modelos citados.

As conexões de vídeo da placa são as mesmas da 780. 

Reparem abaixo que a GTX 770 é bastante diferente da 670 e da 570 quando se trata do design da placa. A 670 tinha diminuído de tamanho comparado a 570, mas devido a 770 ser baseada na 680, a placa voltou a crescer e tem tamanho semelhante a 570, na verdade ela possui o mesmo tamanho da 780.

Em se tratando das conexões, a 770 manteve as mesmas da 670, duas DVI, uma DisplayPort e uma HDMI. 

Abaixo a 770 ao lado da 780:

Por fim, algumas fotos comparando todas as placas desenvolvidas com o novo design adotado pela NVIDIA para placas de alto desempenho, e depois junto a alguns dos outros modelos que utilizamos nos comparativos:

{break::MÁquina/Softwares utilizados}Como de costume, utilizamos uma mÁquina TOP de linha baseada em uma mainboard ASUS Rampage IV Extreme e processador Intel Core i7 3960X overclockado para 4.6GHz para os testes. Abaixo, algumas fotos da placa montada no sistema:

A seguir, o preço de cada placa utilizada nos comparativos e alguns modelos concorrentes (pesquisa feita no dia 23/05/2013 no site newegg.com), detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes. 

  • NVIDIA GeForce GTX TITAN - U$ 1019
  • NVIDIA GeForce GTX 780 - U$ 649
  • NVIDIA GeForce GTX 770 - U$ 399 (versão com 2GB)
  • NVIDIA GeForce GTX 680 - U$ 469
  • NVIDIA GeForce GTX 670 - U$ 369
  • NVIDIA GeForce GTX 570 - Não tem mais a venda

  • AMD Radeon HD 7970 GHz Edition - U$ 449
  • AMD Radeon HD 7970 - U$ 399
  • AMD Radeon HD 7950 - U$ 299

MÁquina utilizada nos testes:
- Mainboard ASUS Rampage IV Extreme
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
- SSD Intel 330 Series 180GB
- HD 2TB Sata3 Western Digital Black
- Fonte Cooler Master Silent Pro Hybrid 1300w
- Cooler Master Hyper 212 EVO

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- NVIDIA GeForce 320.00
- AMD Catalyst 13.5

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 (DX11) 
- 3DMark (DX11) 
- Unigine HEAVEN Benchmark 4.0 (DX11)
- Unigine Valley Benchmark 1.0 (DX11)

- Aliens vs Predator (DX11)
- BioShock Infinite (DX11)
- Crysis 2 (DX11)
- Crysis 3 (DX11)
- F1 2012 (DX11)
- Hitman Absolution (DX11)
- Metro Last Light (DX11)
- Tomb Raider (DX11)

{break::GPU-Z e Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GeForce GTX 780, como podem ver, bastante semelhantes a de uma GTX 680 referência, justamente pelo fato de ambas serem baseadas no mesmo GPU.


Temperatura
Iniciamos nossa bateria de testes com um bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Neste primeiro teste, com o sistema em espera, a GTX 770 atingiu 32ºC, apenas um grau a mais que a 780, que possui clocks bem inferiores. O desempenho foi o mesmo apresentado pela 670, placa de mesmo segmento da geração anterior.

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Ai a história muda completamente, visto que a GTX 770 foi junto com a TITAN a placa que mais esquentou dentro os modelos testados, por outro lado ela ficou novamente apenas um grau acima da 780, o que jÁ era esperado devido seus altos clocks. O lado negativo é que a temperatura quando comparado a GTX 680, que supostamente utiliza um chip idêntico ou semelhante, a temperatura da 770 ficou 5 graus acima.

A NVIDIA conseguiu reduzir o ruído da placas, mas a temperatura não caiu em nossos testes. 

{break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que dÁ a noção exata do que cada VGA consome. "Vale destacar que o valor é o consumo total da mÁquina e não apenas da VGA, dessa forma comparações com testes de outros sites podem dar resultados bem diferentes."

Em modo ocioso (também conhecido como idle), a GTX 770 teve o melhor resultado junto com a 780, consumindo apenas 173 watts. Logo em seguida, com 177 watts, vem a Titan. Em terceiro, tanto a HD 7970 quanto a HD 7970 GHz Edition consumiram 178 watts cada, enquanto a GTX 670, na sexta posição na tabela, consumiu 179 watts, um a menos que a 680.

 

No teste de carga, rodando o 3DMark 11, a 770 se saiu bem, consumindo um pouco mais do que a 680, o que jÁ era esperado pela "nova" placa tem clocks superiores. Na comparação com a 780, a irmã menor consumiu quase 10% a menos.

OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11, consideramos 15w como margem de erro, devido à grande variação que acontece testando uma mesma placa.

{break::3DMark 11, 3DMark}

3DMark 11
Começamos os testes com os benchmarks da Futuremark utilizando a ferramenta 3DMark 11.

Neste benchmark, a 770 ficou 17% atrÁs da sua irmã maior, a 780, superando a 680 em 8% e a 670 em 17%. A nova placa da NVIDIA também bateu a 7970 GHz Edition em 3%, veremos se isso vai acontecer nos demais testes.

 

3DMark
Mudando para o software mais recente, rodamos três testes da nova ferramenta: o Ice Storm, Cloud Gate e Fire Strike.

No primeiro teste a 770 manteve a terceira posição entre as placas comparadas, por uma margem bem pequena devido a pontuação do teste "Ice Storm".

No segundo teste, chamado "Cloud Gate", a 770 perdeu uma posição na tabela e foi ultrapassada pela 7970 GHz Edition, placa que custa o mesmo valor atualmente. O ganho sobre a 680 foi de 4%, jÁ sobre a 670 apenas 7%. 

No teste "Fire Strike", último e mais pesado do novo 3DMark, a 770 se manteve na quarta colocação atrÁs da 7970 GHz Edition. A nova placa da NVIDIA superou a 680 em 11% e a 670 em 17%.

{break::Unigine Heaven 4.0, Valley 1.0}

Unigine HEAVEN Benchmark 4.0
Agora em sua nova versão, trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation em modo "extreme", ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o Tessellation desativado, a 770 ficou 5% atrÁs da 7970 GHz Edition e 9% à frente da 680.

Usando o tessellation ativado em modo EXTREME, a placa subiu uma posição, atingindo 960 pontos e ultrapassando a 7970 GHz Edition, que fez 931 pontos.

Unigine Valley Benchmark 1.0
Neste benchmark, a 770 figura na mesma posição do último teste, somente atrÁs da Titan e da 780. A diferença entre ela e a 670 é de mais de 28%. JÁ a 7970 GHz Edition estÁ apenas 3% atrÁs da placa analisada.

{break::Aliens vs Predator}

Começamos os testes em jogos com "Aliens vs Predator", game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Aliens vs Predator Benchmark Tool".

Tanto na resolução de 1680x1050 quanto na de 1920x1080, as placas ficaram na mesma posição e com, praticamente, a mesma diferença percentual entre elas. Em ambos os testes, a GTX 770 ficou 16% atrÁs da 7970 GHz Edition e 11% à frente da 680. A 670 ficou com o terceiro pior desempenho.

{break::BioShock Infinite}


O game "BioShock Infinite" é um grande sucesso de crítica (inclusive aqui no Adrenaline) desenvolvido pela 2K Games. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

Com o BioShock a 770 voltou a ser a melhor quando comparada com as placas 670, 680 e 7970 GHz Edition. Dessa vez, nas duas resoluções, quem mais se aproximou da placa analisada foi a 680. A 770 foi 9% mais rÁpida que a 7970 GHz Edition e mais de 16% mais rÁpida que a 670, nos dois testes.

{break::Crysis 3}

Sendo o game Crysis 3 um dos mais incríveis jÁ desenvolvidos quando o assunto é grÁfico, ele passarÁ a fazer parte de nossos testes em algumas anÁlises de placas de vídeo.

O desempenho da 770 rodando o Crysis 3 é muito bom, colocando a placa em pé de igualdade com a 780 na resolução de 1680x1050.

Em 1920x1080 a placa tem uma pequena queda, mas se mantem melhor do que a 680 e 7970 GHz, 12% a frente da placa da AMD. 

{break::F1 2012}

"F1 2012" é o game mais recente da série de simulador de Fórmula 1. O game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Com o F1 2012, a GTX 770 se mantém na terceira colocação em ambas as resoluções testadas, seguida pela 7970 GHz que fica em média pouco menos de 10% atrÁs. 

{break::Hitman Absolution}

Produzido pela dinamarquesa IO Interactive e distribuído pela Square Enix, "Hitman Absolution" marca o retorno definitivo da franquia de espionagem e do mortal Agent 47. Desenvolvido com as ferramentas da não tão conhecida engine Glacier 2, o game é capaz de renderizar cenÁrios gigantescos, com mais de 1200 personagens na tela (com comportamentos distintos) e detalhamento grÁfico bastante apurado. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

Aqui tivemos uma surpresa, a 770 ficando na frente da 780 na tabela, mesmo que não existe diferença real. Essa situação aconteceu devido alguma limitação do game ou drivers no desempenho de algumas placas topo de linha, que chegam em certa velocidade e são "seguradas".

{break::Metro Last Light}


Adicionamos as reviews de placas de vídeo o teste com o game Metro Last Light, que traz grÁficos tão bonitos quanto o Crysis 3, virando outra referência nesse quesito.

Nesse game, a GTX 770 novamente se comportou bem, ficando na terceira posição na tabela, 17% atrÁs da 780. Quando comparamos com a 670, a nova placa tem ganho médio de 7%, jÁ comparado a 7970 GHz fica na casa de 9% de vantagem para a nova VGA da NVIDIA.

{break::Tomb Raider}


O game marca o reboot da histórica franquia de Lara Croft, desenvolvido pela Crystal Dynamics com sua engine própria, a Crystal Dynamics Engine. Para os testes com este jogo utilizamos a ferramenta "Adrenaline Action Benchmark Tool".

A GTX 770 ficou empatada tecnicamente com sua principal concorrente, a 7970 GHz, com ganho médio superior a 10% na comparação com a 680. Quando comparamos com a 670, a nova 770 tem ganho médio superior em quase 20%.

{break::PhysX: Metro Last Light}


Passaremos a utilizar o game Metro Last Light para os testes com a tecnologia PhysX.

Nesse teste a 770 ficou com resultado dentro do esperado, entre a 780 e a 680. O ganho de desempenho sobre a 680 ficou entre 6% e 8%.

Também adicionamos os testes sobre a 7970 GHz Edition para matar a curiosidade de alguns leitores, afinal de contas as placas da AMD conseguem rodar a tecnologia PhysX, só não estão otimizadas para essa tecnologia. Vale aqui destacar que a NVIDIA liberou o uso da tecnologia para os novos consoles PS4 e XBox One, de Sony e MS respectivamente.

Em se tratando do desempenho da placa, ela chegou a superar uma 570, o problema é que a 570 tem uma regularidade maior entre as cenas com e sem efeito de física que utilizem a tecnologia PhysX, jÁ a 7970 GHz tem ótimo desempenho em cenas com pouco uso da tecnologia, e cai radicalmente quando a cena estÁ fazendo bastante uso do PhysX. 

{break::Overclock: Temperatura, Consumo Energia}Diferente da GTX 780, que é baseada no "novo" chip GK 110 com clock do GPU trabalhando a 863MHz, a GTX 770 é baseada no GK104(mesmo da GTX 680) e trabalha com clock bem mais alto, em 1046MHz, e as memórias a nada menos que 7012MHz, a primeira placa de vídeo referência a vir com velocidade acima de 7GHz nas memórias.

No overclock da GTX 780, colocamos o gpu em 1000MHz e as memórias em 6608MHz, jÁ na GTX 770 por ter clocks superiores como padrão, os números ficaram bem acima. Colocamos o gpu trabalhando em 1180MHz(1219MHz em Boost) e as memórias em 7300MHz, números bastante altos se levarmos em conta que não fizemos nenhuma alteração de voltagem e estamos usando uma placa referência, sem nenhuma modificação.

O software utilizado foi o Precision X da eVGA como podem ver abaixo na tela do overclock que fizemos na placa. 


Temperatura
A GTX 770 quando overclockada a 1180 MHz não teve nenhuma mudança de temperatura, se mantendo em 80ºC. Isso acontece porque o sistema de FANs da placa(assim como a grande maioria), aumenta sua força de trabalho na medida que sente a necessidade, consequentemente quando overclockamos a placa o sistema de controle dela detecta que a mesma estÁ gerando mais calor e o cooler começa a trabalhar mais rapidamente visando não deixar a placa esquentar, nesse caso resultado em um bom desempenho e não aumentando em nenhum grau quando comparamos a placa com seus clocks padrões.

Consumo de Energia
No quesito consumo de energia, overclockada a 1180 MHz, a GTX 770 teve aumento de 4.6%, no resultado final 4 watts acima da 7970 GHz, dentro da margem de erro e considerado empate técnico.

{break::Overclock: 3DMark 11, AvP, BioShock Infinite, Tomb Raider}3DMark 11
Quando overclockada, a GTX 770 teve aumento de 853 pontos, que representam 7,87%, resultado um pouco abaixo do esperado, jÁ que o overclock foi de 12%.

Aliens vs Predator
No Aliens vs Predator, o overclock ainda não fez a 770 passar a 7970 e a 7970 GHz na tabela. O ganho sobre o clock original foi inferior a 7%, aquém do esperado pelo overclock feito.

BioShock Infinite
Nesse game foi onde o overclock surtiu o melhor efeito, com ganho na casa de 8%, mas ainda abaixo do esperado. Diferente do AvP, no BioShock Infinite a 770 após overclockada tem melhor desempenho, ficando 15% a frente da placa top single chip da AMD.

Tomb Raider
Por fim, o overclock da 770 resultou em ganho de 6% sobre a placa com resultado padrão. Apesar de ganho abaixo do esperado, foi o suficiente para superar a 7970 GHz em 5%.

{break::Conclusão}Apesar de fornecer um desempenho consistente, capaz de rodar os games mais pesados do mercado nas melhores condições possíveis (alta resolução e filtros ativados no mÁximo), a GeForce GTX 770 confere um gostinho amargo "na boca" dos gamemaníacos. Tudo porque a placa utiliza o conhecido chip grÁfico GK104, presente na dupla GTX 680/670.

Não é por acaso que a GeForce GTX 770 tem um desempenho bem próximo a da GTX 680, e um ganho tímido sobre a GTX 670 (a exceção fica para F1 2012, com ganho acima de 30%). A NVIDIA poderia ter ousado um pouco mais, ao disponibilizar uma revisão no GK104, tornando-o um pouco mais eficiente em termos de desempenho x consumo de energia. AliÁs, a dissipação térmica é o principal ponto de crítica (se deixado de lado o fato do uso do GK104) sobre a nova GeForce. É inconcebível que uma placa com especificações praticamente idênticas à da GTX 680, possam resultar em um aumento de 35W no TDP.

A grande novidade – se é que se pode dizer – refere-se ao fato da GTX 770 trazer um modelo com 4GB de VRAM. Somando-se isto ao incremento na largura de banda de memória, a placa é uma ótima opção para rodar games em múltiplos monitores (via tecnologia Surround Gaming), ou ainda em telas de grandes proporções.

A placa oferece os demais atrativos da geração Kepler, como é o caso dos filtros de aprimoramento de imagens - FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. 

Contudo, a NVIDIA foi além, aprimorando o interessante recurso de overclock automÁtico dinâmico, o GPU Boost. Chamado agora de GPU Boost 2.0, a tecnologia conta agora com a possibilidade de aumentar a tensão de funcionamento do chip (Overvoltaging), além de permitir aumentar a quantidade de FPS com a sincronização vertical (VSync) habilitada.

Outro ponto diz respeito à evolução no pacote de drivers, o R320, que agregou novos recursos, como é o caso do GeForce Experience – que ajusta automaticamente a melhor configuração para um determinado jogo – e do ShadowPlay – que grava os 20 minutos finais da "jogatina".

Outra boa notícia é que diferente da GTX 780 e TITAN, a GeForce GTX 770 tem um preço dentro da realidade do mercado, podendo, ao menos, despertar o sonho de uma expressiva parte da comunidade gamemaníaca. Ao custo de U$399 no modelo de 2GB, ela bate de frente com a 7970 GHz Edition, ambas custando o mesmo valor.

Com sólido desempenho e preço condizente, a GeForce GTX 770 é uma ótima opção para rodar os games mais exigentes do mercado em condições bastante propícias.

PRÓS
Preço dentro da realidade do mercado;
Bastante silenciosa;
Suporte ao que existe de melhor em tecnologias;
GPU Boost 2.0 adiciona novas funcionalidades de overclock;
Opção com 4GB de memória VRAM GDDR5.
CONTRAS
Placa baseada no chip GK104 (GTX680/670);
Dissipação térmica mÁxima bastante elevada;
O desempenho sobre a GTX 670 poderia ser maior.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.