ANÁLISE: NVIDIA GeForce GTX 650 Ti Boost

ANÁLISE: NVIDIA GeForce GTX 650 Ti Boost

Quando o portfólio da linha GeForce parecia estar bem definido e "fechado", eis que a NVIDIA surpreende o mercado ao anunciar a GTX 650 Ti Boost.

Ao que tudo indica, a placa tem a missão de brigar com outra novidade, a Radeon HD 7790 da AMD, lançada hÁ poucos dias, mas prometendo também fazer frente a 7850. AliÁs, uma promessa de boa disputa nos segmento intermediÁrio. Ótimo para os gamemaníacos, que ganham duas novas opções.

A chegada da GTX 650 Ti Boost não apenas ampliarÁ ainda mais a gama de placas de custo acessível, como também deverÁ promover um reordenamento no segmento, visto que esta chega com preços próximos ao de sua "irmã menor", a GTX 650 Ti, isto é, U$$149 para o modelo de 1GB e US$ 169 para o modelo de 2GB. Com isso, a VGA promete ser uma das opções com melhor custo x benefício desta geração.

Apesar de chegar com a numeração "650", a placa estÁ, na verdade, mais para uma "660". Prova é, que a GTX 650 Ti Boost é equipada com o chip GK106, ao invés da variante GK106-220. Internamente a VGA é chamada de GTX 655, nome, aliÁs, que cairia melhor que o atual, passando, inclusive, uma sensação maio de robustez.

Em seu comunicado à imprensa, a NVIDIA aponta a linha GeForce GTX 650 Ti (comum e Boost) como a opção ideal de upgrade para quem tem VGAs do calibre de uma GTX 550 ou inferior.

A VGA conta com os mesmos destaques das demais GeForces da geração Kepler, ou seja, especificações generosas (quando comparadas às Fermi), tecnologias de ponta, como é o caso dos filtros proprietÁrios FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adaptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. O único fato a lamentar é a ausência do GPU Boost, recurso responsÁvel por turbinar dinamicamente o clock da GPU.

A placa analisada pela Adrenaline é o modelo de referência, cedida pela própria NVIDIA. De certo modo isto é bom, visto que nossos leitores poderão ter a noção exata da versão padrão, que costuma ser adotada pelas fabricantes.

{break::Arquitetura da GK106}A linha Fermi (que deu origem às GeForces da série 400 e 500) foi sem dúvida o passo à frente mais significativo para a NVIDIA em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80 (8800 GTX) lançada no final de 2006, inaugurando o que se conhece muito bem hoje em conceito de grÁficos unificados e computação paralela conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).

- Continua após a publicidade -

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo. A arquitetura era baseada em pipelines de geometria paralela, otimizados para o Tessellation e para o mapeamento de deslocamento, bem como para uma nova arquitetura computacional que oferecia mais velocidade na troca de contexto e aprimoramento no desempenho para operações atômicas.

JÁ a Kepler, embora construída a partir dos alicerces da Fermi, deu um passo adiante na evolução dos chips grÁficos da NVIDIA, ao focar na otimização e eficiência de recursos.

A nova geração de GPUs é composta de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphic Processing Cluster ou Feixe de Processamento GrÁfico) continua a ser o bloco de hardware de alto nível dominante na arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas no GPC.

(Bloco de Diagrama do chip GK106 - GTX 660) 

Conforme pode ser visto acima na estrutura de processamento da GK106 (GTX 660), hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de três GPCs (dois e meio, para ser mais justo), três controladores de memória, partições de rasterizadores (ROPs) e memória cache L2. Vale ressaltar que cada Feixe de Processamento GrÁfico, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors (a exceção do terceiro GPC, composto por um), chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM).

Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores (ou Shader Processors), os SMX da geração Kepler possuem nada menos do que impressionantes 192 Shaders (pequenos quadrados em verde na imagem acima)! E foi graças a este significativo aumento na quantidade de CUDA Cores contido em cada unidade multiprocessador de Streaming, que fez com que as GeForces da geração Kepler tivessem um "salto" no número de CUDA Cores (chegando a 2.688 na GTX TITAN).



(Bloco de Diagrama do chip GK106 - GTX 650 Ti Boost) 

- Continua após a publicidade -


(Bloco de Diagrama do chip GK106-220 - GTX 650 Ti) 

A NVIDIA utilizou a estratégia padrão da indústria, ao "retirar" algumas estruturas do GK106 padrão (Áreas destacadas nas imagens acima em marca d'Água), de forma a reduzir algumas de suas especificações, e possibilitar a "criação" das GeForces GTX 650 Ti (versão comum e Boost). 

Assim, conforme pode ser visto nos diagramas de blocos dos chips, enquanto que a NVIDIA desativou um SMX, uma controladoras de memória e um conjunto de ROP na GTX 650 Ti "comum", a companhia foi mais arrojada nas especificações do modelo Boost, ao desabilitar apenas uma unidade SMX.

Em outras palavras, ambas as versões possuem 4 SMXs, resultando em um total de 768 CUDA Cores (lembrem-se da conta: 4 SMXs x 192 CUDA Cores). Em compensação, enquanto que a GTX 650 Ti tem 16 ROPs (2 blocos de 8 ROPs), a versão Boost tem 24 unidades rasterizadoras (3 blocos de 8 ROPs). O mesmo raciocínio vale para a interface de memória das placas. 128 bits no modelo "comum" (2 blocos de 64 bits) contra 192 bits na GeForce GTX 650 Ti Boost (3 blocos de 64 bits).

Quanto às unidades de texturização, cada SMX estÁ associado a 16 TMUs, quatro vezes mais em relação ao Streaming Multiprocessor da geração Fermi. Com um total de 4 SMXs, a série GTX 650 Ti é composta por 64 unidades de texturização (4 SMXs x 16 TMUs), contra 80 do GK106 presente na GTX 660 (5 SMXs x 16 TMUs).

Por dentro do SMX
Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento das GeForces da geração Kepler estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


(Digrama do SMX - Geração Kepler) 

Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. Por sua vez, cada controladora de memória de 64 bits tem a disposição 128KB de cache L2. Assim, enquanto as versões de 256 bits e 192 bits da Kepler tem a disposição respectivamente 512KB e 384 KB (GTX 650 Ti Boost), os chips com interface de 128 bits (GTX 650 Ti "comum"),  possuem 256KB de cache de segundo nível. 

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda 16 TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou o seu motor de processamento, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilitou o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

- Continua após a publicidade -

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o Tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

{break::Os recursos da GTX 650 Ti Boost}Abaixo, um resumo das principais especificações da GeForce GTX 650 Ti Boost:

• 2,54 bilhões de transistores;
• Nova litografia em 28 nm;
• Área do die (estimado): 221mm2;
• Frequência de operação das texturas e ROPs (GPU): 980MHz (base) e 1033Mhz (Boost);
• 768 CUDA Cores/shader processors;
• Frequência de operação das memórias: 6008MHz (GDDR5);
• Quantidade de memória: 1GB/2GB;
• Interface de memória: 192bits;
• TDP: mÁximo de 140 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, GPU Boost, Filtros FXAA/TXAA, Adptive VSync, NVIDIA PhysX, SLI, PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7. 



Nesta seção, iremos fazer uma comparação das macro especificações da GeForce GTX 650 Ti Boost com as suas "irmãs" GTX 660 e GTX 650 Ti "comum".

Conforme antecipado na seção anterior, apesar do nome comercial GTX 650 Ti Boost, a placa estÁ muito mais para uma GTX 660 (ou GTX 655, conforme seu codinome) do que uma GTX 650 Ti "comum". A exceção da quantidade de processadores grÁficos, a placa possui as mesmas macroespecificações da sua "irmã maior", até mesmo nas frequências de operações da GPU e memória. Isso se refletirÁ mais adiante, durante a nossa bateria de testes.

Assim, enquanto que a GTX 660 tem 960 CUDA Cores, as duas variantes da GTX 650 Ti possuem 768, ou seja, 20% menos núcleos grÁficos.

As semelhanças nas especificações com a sua "irmã menor" param na quantidade de processadores grÁficos e na quantidade de TMUs (64). Enquanto que a GTX 650 Ti tem 16 ROPs, a versão "Boost" teve este número aumentado em 50%, saltando assim em 24 unidades rasterizadoras.

Outras gratas evoluções dizem respeito às frequências de operação da GPU e memória. Enquanto que a GTX 650 Ti tem core clock em 925Mhz e VRAM em 5400Mhz, a NVIDIA elevou os patamares da GTX 650 Ti Boost respectivamente em 6% e 11%, isto é, para 980Mhz e 6008Mhz. Outra vantagem para a sua "irmã menor" é o suporte à tecnologia GPU Boost (recurso que turbina automaticamente a frequência de operação do core, facilitando assim a vida dos usuÁrios leigos, ou que não desejam se arriscar na "arte" do overclock), elevando assim o core clock para 1033Mhz em situações que exijam um grande poder de processamento em um curto período de tempo.

Outra importante evolução frente à GTX 650 Ti "comum", é a ampliação do bus (interface de memória) em 50%, saltando assim de 128 bits para 192 bits. Com isto (e levando-se anda em conta o aumento na frequência de operação da VRAM), a largura de banda de memória foi de acanhados 86,4GB/s para bons 144,2GB/s, permitindo assim o uso de telas maiores.

A elevação dos clocks resultou em um aumento de 30% no TDP (dissipação térmica mÁxima) sobre a GTX 650 Ti, passando de 110W para 140W. Apesar disso, a versão "Boost" permanece com apenas um conector extra de energia de 6 pinos, garantindo 150W (75W do comector + 75W do PCI Express) de suprimento.

Por fim, tanto o tamanho da Área do die do chip, quanto a quantidade de transistores são idênticas nas 3 placas, respectivamente em 221mm2 e 2,54 bilhões.

{break::As novidades da Kepler}Conforme jÁ mencionado no decorrer desta anÁlise, a nova geração Kepler trouxe gratas surpresas para os usuÁrios. Algumas exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, como é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir as novidades.

DirectX 11.1
Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provÁvel que as GeForces da série 700 ou mesmo 800 jÁ tenha sido lançadas.

Outro ponto é que, até o Windows 8 chegar, tal recurso ficarÁ apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação grÁfica e vídeo;
• Suporte nativo ao Stereo 3D.

PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente nas placas baseadas no chip grÁfico GK104, ou seja, nas GTX 680/670/660).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)


NVENC

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

  • Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;
  • Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);
  • Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D; 
  • "Encodamento" para resolução de até 4096x4096 pixels.


É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

{break::Outras tecnologias}CUDA 
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units). 

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x. 

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA. 

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...) 

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis. 

PhysX
Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos. 

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia. 

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs. 

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total. 

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão. 

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados. 

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça. 

O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

  • Explosões com efeitos de poeira e destroços; 
  • Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas; 
  • Novos e incríveis efeitos nos efeitos dos disparos de armas; 
  • Tecidos que se enrugam e rasgam naturalmente; 
  • Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

SLI 

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

3D Vision Surround 
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado. 

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

  • Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico. 
  • Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real. 
  • Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.
  • Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX. 
  • Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores, 
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)


O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões. 

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores.

PureVideo 

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web. 

O PureVideo possui os seguintes recursos: 

  • Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU; 
  • Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD; 
  • Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
  • Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos; 
  • 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução; 
  • Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução; 
  • Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela. 

{break::Fotos}Nas fotos abaixo, vemos que o modelo referência é praticamente idêntico a uma GeForce GTX 660 referência, assim como jÁ aconteceu com o chip utilizado por esse modelo.

Como diferencial, podemos citar o "logo" GeForce GTX sobre a parte superior e a pintura na cor verde de um logo posicionado próximo ao FAN, no mais visualmente ela é uma GTX 660, isso quer dizer também que a placa possui um conector SLI, diferente da 650 Ti normal que não possui nenhum conector.

Abaixo temos algumas fotos comparando a 650 Ti Boost com a 660 e com a 650 Ti, sendo todos os modelos referência. Reparem na semelhança entre a 650 Ti Boost e a 660, praticamente idênticas.

{break::MÁquina/Softwares utilizados}Como de costume, utilizamos uma mÁquina TOP de linha baseada em uma mainboard ASUS rampage IV Extreme, processador Intel Core i7 3960X overclockado para 4.6GHz para os testes, abaixo algumas fotos da placa montada no sistema:

A seguir, o preço de cada placa utilizada nos comparativos(pesquisa feita no dia 28/03/2013 no site newegg.com), detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

  • NVIDIA GeForce GTX 650 Ti Boost 2GB - US 169
  • NVIDIA GeForce GTX 650 Ti 1GB - US 139
  • NVIDIA GeForce GTX 660 - U$ 200
  • AMD Radeon HD 7850 - US 189
  • HiS Radeon HD 7770 - U$ 110

MÁquina utilizada nos testes:
- Mainboard ASUS Rampage IV Extreme
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
- HD 2TB Sata3 Western Digital Black
- Fonte Cooler Master Silent Pro Hybrid 1300w
- Cooler Master Hyper 212 EVO

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- Catalyst 13.3: Placas AMD 
- GeForce 314.22: Placas NVIDIA

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 (DX11) 
- 3DMark (DX11) 
- Unigine HEAVEN Benchmark 4.0 (DX11)
- Unigine Valley Benchmark 1.0 (DX11)

- Aliens vs Predator (DX11) 
- BioShock Infinite (DX11)
- Borderlands 2 (DX9 / PhysX)
- Crysis 2 (DX11) 
- F1 2012 (DX11) 
- Hitman Absolution (DX11) 
- Sleeping Dogs (DX11)
- Tomb Raider (DX11)

{break::GPU-Z e Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GTX 650 Ti Boost.


GPU Boost
Como pode ser visto na tela do GPU-Z acima, a 650 Ti Boost diferente dos outros dois modelos da série 650 tem suporte ao GPU Boost, que faz a placa trabalhar com clocks mais altos quando estÁ sendo muito exigida, como quando rodando um jogo. No caso do modelo referência, o clock sobe de 980MHz para 1033MHz.

Temperatura
Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Neste primeiro teste, vemos que o aumento da potência do chip, comparado a GTX 650 Ti convencional, causou um aumento de temperatura de apenas um grau celsius em modo ocioso, longe de representar uma grande mudança.

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Aqui vemos um maior impacto do novo chip, que aqueceu 20% que o GTX 650 Ti. Ainda assim, a placa conseguiu ficar 2 graus celsius mais fria que a GTX 660.

{break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que dÁ a noção exata do que cada VGA consome.

Em modo ocioso (também conhecido como idle), vemos que o ganho de performance frente a 650 Ti não resultou em maior consumo de energia, visto que a placa foi a que apresentou o menor consumo entre as placas testadas, apesar da pequena diferença.

 

No teste de carga, rodando o 3DMark 11, e aumentando o consumo de energia das placas colocando-as em situações de maior demanda de potência, vemos um efeito maior no consumo nesta nova versão Boost. O consumo de energia subiu quase 4% comparada a GTX 650 Ti, o quejnÁ era esperado sendo que a 650 Ti Boost tem projeto baseado na 660.

OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11, consideramos 15w como margem de erro, devido grande variação que acontece testando uma mesma placa.

{break::3DMark 11, 3DMark}

3DMark 11
Começamos os testes com o benchmarks da Futuremark utilizando a ferramenta 3DMark 11.

Neste primeiro benchmark jÁ notamos um ganho considerÁvel desta nova GPU, comparada a GTX 650 Ti anterior, superando-a em quase 20%, e aproximando a placa a Radeon HD 7850. A placa de vídeo da AMD, por sinal, ainda conseguiu manter uma vantagem de 12% comparada a nova GTX 650 Ti Boost.

 

3DMark
Mudando para o software mais recente, rodamos três testes da nova ferramenta: o Ice Storm, Cloud Gate e Fire Strike. Em cada teste, vemos a GTX 650 Ti Boost posicionada como uma intermediÁria entre a GTX 650 Ti convencional e a GTX 660, ficando 10-20% acima da primeira e 7-15% abaixo da segunda. Em alguns momentos, a placa fica apenas 4% abaixo da Radeon HD 7850 mas, na maioria dos casos, a diferença se mantém na casa de 15%.

{break::Unigine Heaven 4.0, Valley 1.0}

Unigine HEAVEN Benchmark 4.0
Agora em sua nova versão, trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation em modo "extreme", ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o tessellation desativado, temos um resultado bastante impressionante do novo chip grÁfico, conseguindo um ganho de 46% no comparativo com a versão convencional (sem o Boost) e empatando com a Radeon HD 7850. A placa também não perdeu muito para a GTX 660, ficando apenas 10% abaixo.

Usando o tessellation ativado em modo EXTREME, o resultado volta a se repetir, com ótima vantagem em relação a GTX 650 Ti Boost (44%) e chegando a superar a Radeon HD 7850 por uma pequena margem. A diferença para a GTX 660 subiu para 14%, neste teste.

Unigine Valley Benchmark 1.0
Neste teste temos novamente uma vitória estreita sobre a 7850, e a diferença para a GTX 660 e GTX 650 Ti estÁveis (-15% e +41%, respectivamente).

{break::Aliens vs Predator}

Começamos os testes em jogos com o "Aliens vs Predator", game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Assim como no Unigine, temos um ganho bastante expressivo entre a GTX 650 Ti e a GTX 650 Ti Boost, chegando a quase 50%, e aproximando a placa de nossa anÁlise a Radeon HD 7850, que se manteve na ponta por apenas 5% de vantagem.

{break::BioShock Infinite}


Novamente, a GTX 650 Ti Boost supera a Radeon HD 7850 neste teste, conseguindo abrir uma vantagem de mais ou menos 16%. A placa também passa raspando da GTX 660, ficando apenas 4% abaixo.

{break::Crysis 2}

Para os testes com o "Crysis 2", utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool, que lançamos no ano passado e é utilizada por praticamente todos os websites internacionais para benchmarks com o game. "Crysis 2", como todos sabem, é referência em qualidade de imagem, e no mês de junho 2011 finalmente ganhou seu patch com suporte ao DirectX 11, jÁ que originalmente o título vinha apenas em DX9.

Neste game vemos outro ganho considerÁvel em relação a GTX 650 Ti original, entregando 30% mais performance e fazendo a diferença para a Radeon HD 7850 cair para apenas 6%.  A GTX 660 se manteve em torno de 11% acima em desempenho.

{break::F1 2012}

"F1 2012" é o game mais recente de uma da série de simulador de Formula 1. O game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Novamente, a GTX 650 Ti Boost consegue um ganho na casa dos 40% em relação a versão original, colocando-a apenas 6% abaixo da GTX 660 e 8% mais lenta que a Radeon HD 7850.

{break::Hitman Absolution}

A GTX 650 Ti Boost traz um ganho de 30% em relação ao chip original neste game. A placa ficou 12% abaixo da GTX 660 e, neste benchmark, bem distante da 7850, que conseguiu entregar 20% de performance.

{break::Sleeping Dogs}

Neste benchmark, vemos uma redução na diferença entre a nova GPU e o modelo orginal, sendo que a Boost conseguiu um ganho de 28%. A GTX 660 e 7850 ficaram 18% e 13% acima do modelo de nossa anÁlise, respectivamente.

{break::Tomb Raider}


No game da Crystal Dynamics, a nova placa traz ganho de 50 e 25% em relação ao chip anterior, de acordo com a resolução (a diferença cai em FullHD). A HD 7850 manteve uma performance 15% superior, e a GTX 660 se manteve 17% acima.

{break::PhysX com Borderlands 2}Quando se trata de uma placa de vídeo da Nvidia, não temos como não testar a tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

Para os testes, utilizamos o "Borderlands 2", um dos melhores games do mercado com a aplicação da tecnologia PhysX.

Como a tecnologia adiciona mais efeitos, ela exige mais da placa de vídeo e consequentemente afeta diretamente o desempenho. Abaixo, nos testes com a tecnologia ativada em modo HIGH, vemos que a nova placa de vídeo consegue ser 30% superior ao modelo convencional da GTX 650 Ti, perdendo para GTX 660, com uma performance 10% inferior.

{break::Overclock: Temperatura, Consumo Energia}Assim como demais placas da série GeForce 600 a GTX 650 Ti Boost tem bom comportamento em overclock. Para o processo de overclock utilizamos o aplicativo Afterburner, um dos melhores do mercado.

Aumentamos o clock da placa de 980MHz para 1100MHz e das memórias de 6008MHz para 6608MHz. Não fizemos nenhuma mudança na voltagem do GPU, mas vale destacar que acada placa se comporta de uma forma.


Temperatura
Vemos que o overclock resultou em um leve aumento de temperatura, mas nada exagerado, fazendo a GTX 650 Ti Boost empatar com a GTX 660.

Consumo de Energia
Assim como com a temperatura, o consumo da placa aumentou em apenas 2% após o overclock. Com isto, ela passou a consumir mais energia que a GTX 660, mas com uma diferença estreita: menos de 2%.

{break::Overclock: 3DMark 11, AvP, BioShock Infinite, Tomb Raider}3DMark 11
O overclock mostrou seu efeito com o benchmark trazendo um ganho de 10% na performance da placa, diminuindo a diferença para a 7850 (apenas 2%); e para a GTX 660, a diferença ficou apenas 8%.

Aliens vs Predator
Nosso overclock possibilitou, no game "Alien vs Predator", superar a GTX 660, mesmo que por uma margem estreita (menos de 2%). Comparada a GTX 650 Ti original, a diferença ficou ainda mais impressionante: 60%.

BioShock Infinite
Novamente temos um ganho na casa de 10%, e outra vez a GTX 650 Ti Bost conseguiu superar a GTX 660, agora por uma margem maior (6%). Em relação a GPU original, o ganho desta vez não foi tão marcante, ganhando em apenas 14% da GTX 650 Ti convencional.

Tomb Raider
Com este game o ganho com o overclock foi um pouco maior, chegando a quase 12%. Isto possibilitou a placa a encostar na HD 7850, perdendo por pouco mais de 2%, e se aproximando da GTX 660, que se manteve à frente com apenas 6% de vantagem.

{break::Conclusão}Diferentemente de sua "irmã menor", a GeForce GTX 650 Ti Boost veio com desempenho próximo da GTX 660, e que podemos chamar de um ótimo produto custo x benefício. A placa mostrou fôlego suficiente para rodar os games mais "quentes" do momento em ótimas condições de jogabilidade, como por exemplo, resolução em 1920x1080 com filtros ativados, e fluidez em termos de FPS.

A nova geração Kepler trouxe avanços significativos para a comunidade gamemaníaca. Contudo, o seu Calcanhar de Aquiles era o público alvo. De acordo com um levantamento do Steam, mais de 90% dos jogadores compram placas 3D na faixa entre US$100-299. Ou seja, um amplo mercado para as GeForces intermediÁrias de baixo custo. Pensando nisso, a NVIDIA passa a ter mais um modelo em seu portfólio, junto as três opções anteriores para este segmento: a GTX 660, GTX 650 Ti e GTX 650, a 650 Ti Boost chega para ser uma das melhores opções da empresa.

Além de possuir bom "poder de fogo", a GTX 650 Ti Boost conta ainda com uma ampla quantidade de tecnologias que agregam mais valor à placa, como é o caso do PhysX, dos filtros FXAA/TXAA, do Adptive VSync e NVIDIA Surround. Vale ressaltar que diferente dos outros dois modelos da série 650, a 650 Ti Boost tem suporte a SLI e GPU Boost, justamente pelo seu chip ser baseado no mesmo utilizado na 660.

A placa também se destacou pelo seu potencial em overclock, assim como demais modelos da geração 600. Subimos o clock da placa de 980MHz para 1.100MHz sem grande aumento na temperatura. As memórias subimos de 6008MHz para 6.608MHz, em ambos os casos clocks muito bons por se tratar de uma placa referência. Em se tratando do desempenho, o ganho foi excelente em alguns games, como no caso do BioShock Infinite onde a 650 Ti Boost overclockada superou a 660 em quase 6%.

No Brasil, a placa poderÁ ser encontrada por volta de R$ 700 +/- dependendo do modelo e parceiro, além é claro da revenda.

Com a GeForce GTX 650 Ti Boot, a NVIDIA aproxima a placa da GTX 660, permitindo os gamers rodar os títulos mais badalados do mercado em boas condições de jogabilidade, sem necessitar gastar uma "pequena fortuna" em uma VGA.

PRÓS
Sistema de refrigeração eficiente e silencioso;
Placa com o mesmo projeto de construção da GTX 660;
Suporte ao GPU Boost e SLI;
Ótimo custo x benefício.
CONTRAS
TDP relativamente elevado.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.