ANÁLISE: NVIDIA GeForce GTX 650 Ti

ANÁLISE: NVIDIA GeForce GTX 650 Ti

Em setembro, a NVIDIA promoveu o lançamento de duas GeForces da geração Kepler mais acessíveis ao mercado: a GTX 650 e a GTX 660. Embora a primeira tenha vindo com um preço bastante convidativo (US$ 119), a placa mostrou um abismo em termos de desempenho em relação a sua "irmã maior" recém chegada.

Para piorar a situação, ficou um "vazio" para o segmento entre US$ 119-229, mais precisamente em um dos nichos mais procurados, especialmente no Brasil, que é o de US$149-179 (por ser uma opção que normalmente agrega uma boa relação de custo x benefício).

Foi pensando justamente neste público, que a NVIDIA acaba de lançar a GeForce GTX 650 Ti, placa – que diga-se de passagem – jÁ era esperada pelo mercado hÁ algumas semanas, conforme, inclusive, mencionamos na anÁlise da GTX 650.

A maior promessa da placa é, sem dúvidas, o seu custo x benefício, ao oferecer um desempenho suficientemente bom para rodar os games mais exigentes do mercado em boas condições (leia-se resoluções intermediÁrias com filtros ativados) sem custar um valor exorbitante para o usuÁrio.


Apesar do nome comercial, a placa é baseada no mesmo chip grÁfico presente na GTX 660, isto é, o GK106 (mais precisamente a variante GK106-220), ao invés do fraco GK107. Trata-se de uma ótima notícia – conforme veremos no próximo tópico – visto que tal GPU confere maior robustez à GTX 650 Ti.

A VGA conta com os mesmos destaques das demais GeForces da geração Kepler, ou seja, especificações generosas (quando comparadas as Fermi), tecnologias de ponta, como é o caso dos filtros proprietÁrios FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adaptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. O único fato a lamentar é a ausência do GPU Boost, recurso responsÁvel por turbinar dinamicamente o clock da GPU.

A placa analisada pela Adrenaline é o modelo de referência, cedido pela própria NVIDIA. De certo modo isto é bom, visto que nossos leitores poderão ter a noção exata da versão padrão, sem contar que muitas placas (principalmente as que chegam ao Brasil) costumam seguir exatamente tal referência.

- Continua após a publicidade -

{break::Arquitetura da GK106-220}A linha Fermi (que deu origem às GeForces da série 400 e 500) foi sem dúvida o passo à frente mais significativo para a NVIDIA em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80 (8800 GTX) lançada no final de 2006, inaugurando o que se conhece muito bem hoje em conceito de grÁficos unificados e computação paralela conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo. A arquitetura era baseada em pipelines de geometria paralela, otimizados para o Tessellation e para o mapeamento de deslocamento, bem como para uma nova arquitetura computacional que oferecia mais velocidade na troca de contexto e aprimoramento no desempenho para operações atômicas.

JÁ a Kepler, embora construída a partir dos alicerces da Fermi, parece dar um passo adiante na evolução dos chips grÁficos da NVIDIA, ao focar na otimização e eficiência de recursos.

A nova geração de GPUs é composta de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphic Processing Cluster ou Feixe de Processamento GrÁfico) continua a ser o bloco de hardware de alto nível dominante na arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas no GPC.

(Bloco de Diagrama do chip GK106) 

Conforme pode ser visto acima na estrutura de processamento da GK106 (GTX 660), hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de três GPCs (dois e meio, para ser mais justo), três controladores de memória, partições de rasterizadores (ROPs) e memória cache L2. Vale ressaltar que cada Feixe de Processamento GrÁfico, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors (a exceção do terceiro GPC, composto por um), chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM).

Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores (ou Shader Processors), os SMX da geração Kepler possuem nada menos do que impressionantes 192 Shaders (pequenos quadrados em verde na imagem acima)! E foi graças a este significativo aumento na quantidade de CUDA Cores contido em cada unidade multiprocessador de Streaming, que fez com que as GeForces da geração Kepler tivessem um "salto" no número de CUDA Cores (chegando a 1.536 na GTX 680).

Qual o "segredo" para a construção de uma VGA com preço mais acessível? Acertou quem disse um chip com custo menor. E para se conseguir reduzir o custo, não hÁ "mÁgica": é necessÁrio projetar uma GPU menor possível (não se esqueçam de que quanto menor for o a GPU, mais chips podem ser produzidos em um waffer de silício, gerando assim, economia de escala). Eis que entra em cena o GK106.

- Continua após a publicidade -

(Bloco de Diagrama do chip GK106-220) 

A NVIDIA utilizou a estratégia padrão da indústria, ao "retirar" algumas estruturas do GK106 padrão (Áreas destacadas na imagem acima em marca d'Água), de forma a reduzir algumas de suas especificações, e possibilitar a "criação" da variante GK106-220, chip da GeForce GTX 650 Ti.

Assim, a primeira atitude tomada foi desabilitar o GPC "menor", ou o meio GPC, para ser mais justo. Com isso, todo um SMX ficou inativo. Como o resultado, o GK106-220 possui um total de 4 SMX, resultando assim em um total de 768 CUDA Cores (lembrem-se da conta: 2 GPC x 4 SMX x 192 CUDA Cores).

Quanto às unidades de texturização, cada SMX é composto por 16 TMUs, quatro vezes mais em relação ao Streaming Multiprocessor da geração Fermi. Com um total de 4 SMX, a variante 220 tem, portanto, um total de 64 unidades de texturização (2 GPC x 2 SMX x 16 TMU), contra 80 da versão padrão (2,5 GPCs x 2 SMX x 16 TMUs).

Em relação à quantidade de unidades de rasterização, a variante 220 possui um total de 16 ROPs, contra 24 do chip padrão. Essa diferenciação se dÁ em virtude da redução no número de blocos rasterizadores. Enquanto que o chip da GTX 660 tem 3 blocos de 8 ROPs, a GPU da GTX 650 Ti tem 2, com 8 rasterizadores cada (conforme destacado na imagem acima).

 A última "simplificação" foi a retirada de uma controladora de memória de 64 bits. Assim, enquanto que a GK106 possui 3 blocos (192 bits), a GK106-220 conta com apenas 2, resultando em um bus de 128 bits (2 blocos x 64 bits). Quanto a quantidade de VRAM, hÁ VGAs com 1 e 2 GB.

Por dentro do SMX
Talvez a grande novidade presente na arquitetura Kepler seja a nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento das GeForces da geração Kepler estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores, que lidam, entre outros pontos, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

- Continua após a publicidade -

Além disso, é aí que se encontram as unidades de texturização que lidam com a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


(Digrama do SMX - Geração Kepler) 

Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. Por sua vez, cada controladora de memória de 64 bits tem a disposição 128KB de cache L2. Assim, enquanto as versões de 256 bits e 192 bits da Kepler tem a disposição respectivamente 512KB e 384 KB, os chips com interface de 128 bits, como é o caso da GK106-220, conta com um total de 256KB de cache de segundo nível (2 módulos de 64 bits x 128KB). 

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda 16 TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0. 

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU. 

Com a geração Kepler, a NVIDIA aprimorou o seu motor de processamento, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilitou o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o Tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

{break::Os recursos da GTX 650 Ti}Abaixo, um resumo das principais especificações da GeForce GTX 650 Ti:

• 2,54 bilhões de transistores;
• Nova litografia em 28 nm;
• Área do die (estimado): 221mm2;
• Frequência de operação das texturas e ROPs (GPU): 925MHz;
• 768 CUDA Cores/shader processors;
• Frequência de operação das memórias: 5400MHz (GDDR5);
• Quantidade de memória: 1GB/2GB;
• Interface de memória: 128bits;
• TDP: mÁximo de 110 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, Adptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7.

E ainda:
• Nova Geração do Streaming Multiprocessor (SMX);
• 192 CUDA cores por SMX, 6x mais que a geração Fermi;
• 4 PolyMorph Engines 2.0;



Nesta seção, iremos fazer uma comparação das macro especificações da GeForce GTX 650 com a sua "irmã maior", a GTX 660, bem como com a GeForce da geração anterior com posicionamento mais próximo, a GTX 550 Ti.

Comecemos pela quantidade de processadores grÁficos. Assim como as suas "irmãs maiores", a GTX 650 chama a atenção pela imensa quantidade de CUDA Cores (Stream Processors, ou ainda Shaders Cores) em relação às GeForces da geração Fermi (GTX 550 Ti/GTS 450). Apesar de ser uma placa intermediÁria de baixo custo, a GTX 650 tem o dobro de CUDA Cores que a GTX 550 Ti (384 contra 192). 

É bom ressaltar, que, conforme esclarecido no tópico anterior, houve mudanças em sua arquitetura interna. Portanto, não é correto fazer uma comparação de performance levando-se em conta apenas o número de processadores grÁficos. Ou seja, uma GeForce Kepler com 3 vezes mais CUDA Cores que uma GeForce Fermi, não terÁ necessariamente desempenho 200% maior. Ainda assim, as mudanças na arquitetura mostraram-se bem eficientes, principalmente no quesito performance por watt gasto.

Em relação à GTX 660, hÁ um imenso "buraco" (gap) em termos de quantidade de processadores grÁficos. Essa imensa distância só reforça os rumores de que a NVIDIA possa a lançar no futuro, uma ou duas novas GeForces baseadas no GK106, com por exemplo, 768 e/ou 576 CUDA Cores.

Outras gratas evoluções dizem respeito às frequências de operação da GPU e memória. Enquanto que a GTX 550 Ti tem core clock em 900Mhz e VRAM em 4100Mhz, a NVIDIA elevou os patamares da GTX 650 respectivamente em 17,5% e 22%, isto é, para 1058Mhz e 5000Mhz. E isso para o modelo padrão, pois hÁ vÁrias VGAs especiais com clocks ainda maiores, como é o caso da MSI GeForce GTX 650 Power Edition OC, com GPU em 1124Mhz. O clock da GPU é, inclusive, 8% maior que a GTX 660, como forma de compensar a colossal diferença na quantidade de CUDA Cores. 

O fato a lamentar é a ausência do GPU Boost, recurso que turbina automaticamente a frequência de operação do core, facilitando assim a vida dos usuÁrios leigos, ou que não desejam se arriscar na "arte" do overclock.

Ainda no campo das "compensações", embora a GTX 650 tenha memória 22% mais rÁpida que a GTX 550 Ti, seu barramento é de 128 bits, contra 192 bits de sua "irma mais velha". Assim, na combinação entre bus e clock da VRAM, a largura de banda de memória da GTX 550 Ti é 18,5 GB/s maior que a GTX 650 (98,5 GB/s contra 80 GB/s). 

Em virtude do refinamento no processo de fabricação da GPU (de 40nm para 28nm), a GTX 650 (GK107) tem Área de die do chip 50% menor que a GTX 550 Ti (GF116) – 118mm2 contra 238mm2. Aliado a 1,30 bilhão de transistores, contra 1,17 bilhão de sua "irmã mais velha", a dissipação térmica mÁxima da GTX 650 é de apenas 64W, contra 116W da GTX 550 Ti.

Apesar de necessitar de apenas 64W – valor plenamente suprido pelos 75W do PCI Express, a NVIDIA sabiamente disponibilizou um conector extra de energia de seis pinos, capaz de fornecer 75W adicionais à VGA. Com isso, a companhia garante energia suficiente para quem desejar overclockar a placa. Apesar de recomendar uma fonte de energia real de 400W, uma boa PSU de 350W é mais do que suficiente para suprir as necessidades de todos os componentes de um PC equilibrado para o segmento da placa.

{break::As novidades da Kepler}Conforme jÁ mencionado no decorrer desta anÁlise, a nova geração Kepler trouxe gratas surpresas para os usuÁrios. Algumas exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, como é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir as novidades.

DirectX 11.1
Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provÁvel que as GeForces da série 700 ou mesmo 800 jÁ tenha sido lançadas.

Outro ponto é que, até o Windows 8 chegar, tal recurso ficarÁ apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação grÁfica e vídeo;
• Suporte nativo ao Stereo 3D.

PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente nas placas baseadas no chip grÁfico GK104, ou seja, nas GTX 680/670/660).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

  • Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;
  • Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);
  • Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D; 
  • "Encodamento" para resolução de até 4096x4096 pixels.


É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

{break::Outras tecnologias}CUDA 
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units). 

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x. 

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA. 

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...) 

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis. 

PhysX 
Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos. 

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia. 

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs. 

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total. 

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão. 

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados. 

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça. 

O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

  • Explosões com efeitos de poeira e destroços; 
  • Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas; 
  • Novos e incríveis efeitos nos efeitos dos disparos de armas; 
  • Tecidos que se enrugam e rasgam naturalmente; 
  • Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround 
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado. 

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate). 

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho). 

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game. 

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos. 

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões. 

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes: 

  • Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico. 
  • Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real. 
  • Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos.  
  • Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX. 
  • Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores, 
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)


O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões. 

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores.

PureVideo 

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web. 

O PureVideo possui os seguintes recursos: 

  • Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU; 
  • Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD; 
  • Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade; 
  • Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos; 
  • 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução; 
  • Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução; 
  • Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela. 

{break::Fotos}Nas fotos abaixo, vemos que o modelo referência é bem pequeno, utilizado muito em modelos de baixo custo. Apesar do tamanho, a NVIDIA adotou um cooler que transforma a placa em dual slot, jÁ que ocupa espaço de outro conector da placa-mãe.

Assim como a 650, a GTX 650 Ti também traz um conector de energia de 6 pinos, sendo recomendado uma fonte de energia de 400W. Não vai ser incomum empresas lançarem placas com PCB bastante diferente, visando melhorar o desempenho e projeto, que na maioria dos casos consiste em aumentar o tamanho da placa.


Abaixo temos algumas fotos comparando a 650 Ti referência com uma GTX 660 referência e com uma GTX 650 da MSI. A placa da MSI tem PCB bastante diferente de um modelo referência, por isso seu tamanho consideravelmente maior, coisa que acontece também com uma série de modelos da 650 Ti como podem ver mais abaixo nas fotos de parceiros.

Parceiros NVIDIA
Abaixo algumas imagens de placas de parceiros da NVIDIA que lançam seus produtos no Brasil.

{break::MÁquina/Softwares utilizados}Como de constume, utilizamos uma mÁquina TOP de linha baseada em uma mainboard ASUS rampage IV Extreme, processador Intel Core i7 3960X overclockado para 4.6GHz.

A seguir, o preço de cada placa utilizada nos comparativos(pesquisa feita no dia da review no site newegg.com), detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

  • NVIDIA GeForce GTX 650 Ti - US ?
  • NVIDIA GeForce GTX 660 - U$ 229,00
  • MSI GeForce GTX 650 PE OC - US 129,99
  • ZOTAC GeForce GTX 560 - U$ 174,99
  • ASUS GeForce GTX 550 Ti DirectCU II - U$ 119,99

  • XFX Radeon HD 7850 BE OC DD - US 229,99
  • XFX Radeon HD 7770 BE OC DD - U$ 154,99
  • XFX Radeon HD 7750 CORE EDITION - U$ 119,99

MÁquina utilizada nos testes:
- Mainboard ASUS Rampage IV Extreme
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 32 GB DDR3-1866MHz Patriot Viper III Black
- HD 2TB Sata3 Western Digital Black
- Fonte Cooler Master Silent Pro Hybrid 1300w
- Cooler Master Hyper 212 EVO

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- Catalyst 12.8 WHQL: Placas AMD 
- GeForce 306.23 WHQL: Placas NVIDIA

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 1.0.3 (DX11) 
- Unigine HEAVEN Benchmark 3.0 (DX11)

- Aliens vs Predator (DX11) 
- Borderlands 2 (DX9 / PhysX)
- Crysis 2 (DX11) 
- F1 2012 (DX11) 
- Just Cause 2 (DX10.1) 
- Metro 2033 (DX11) 
- Sleeping Dogs (DX11)

{break::GPU-Z e Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z mostrando algumas das principais características técnicas da GTX 650 Ti.


GPU Boost
Como pode ser visto na tela do GPU-Z acima, a série 650 não possui suporte a tecnologia GPU Boost.

Temperatura
Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Em modo ocioso (idle), a GTX 650 Ti se equipara à HD 7770 Black Edition com as temperaturas mais baixas. Considerando que a placa da XFX é um modelo modificado, podemos considerar este um bom desempenho.

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Os 27 graus adicionais ainda deixam a placa na segunda colocação, atrÁs apenas da GTX 650 Power Edition, outro modelo diferenciado. Mais uma boa performance da GTX 650 Ti.

{break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que da a noção exata do que cada VGA consome.

Em modo ocioso (também conhecido como idle), o consumo de energia fica levemente acima de todas as placas da AMD, mesmo se tratando de modelos diferenciados. Ela também empata com a GTX 650 Power Edition, conseguindo se manter abaixo da GTX 550 Ti.

 

No teste de carga, rodando o 3DMark 11, e aumentando o consumo de energia das placas colocando-as em situações de maior demanda de potência, a GTX 650 Ti consegue o menor aumento comparado ao modo ocioso, ficando assim com o menor consumo neste teste.

OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11 consideramos 15w como margem de erro, devido grande variação que acontece testando uma mesma placa.

{break::3DMark 11, Heaven 3.0}

Com o 3DMark 11, versão mais recente do aplicativo para testes de desempenho de placas de vídeo mais famoso do mundo, ela consegue superar a GTX 560 por mais de 11%, e se posiciona entre as HD 7770 e HD 7850, como era de se esperar, com uma diferença de 22% para cada uma.

 

Unigine HEAVEN 3.0 - DirectX 11

Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o tessellation desativado, ela deixa a HD 7770 passar à frente, em pouco mais de 3%. Comparada à GTX 650, pelo menos, consegue uma vantagem de mais de 27%.

Usando o tessellation ativado em modo EXTREME, a placa consegue se aproximar da HD 7770, com uma diferença de menos de 2%. Ela também se aproxima da GTX 560, ficando a menos de 3%. A GTX 660 e a HD 7850, no entanto, continuam a mais de 50% de superioridade.

{break::Aliens vs Predator}

Começamos os testes em jogos com o Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

A GTX 650 Ti apresenta performance que não chega a 2% acima da HD 7770, mas que aumenta junto da resolução, e cerca de 22% superior à GTX 650. Tanto GTX 660 quanto HD 7850 se mantêm acima com diferença de mais de 55%.

{break::Borderlands 2}

A GTX 650 Ti abre a diferença com a HD 7770 para mais de 28%. A diferença em relação à GTX 650 sobe um pouco, para mas de 26%. Assim, a inferioridade comparada à HD 7850 cai para menos de 27%. A GTX 660, no entanto, continua mais de 55% acima.

{break::Crysis 2}

Para os testes com o Crysis 2, utilizamos a ferramenta Adrenaline Crysis 2 Benchmark Tool, que lançamos no ano passado e é utilizada por praticamente todos os websites internacionais para benchmarks com o Crysis 2. O game, como todos sabem, é referência em qualidade de imagem, e no mês de junho 2011 finalmente ganhou seu patch com suporte ao DirectX 11, jÁ que originalmente o game vinha apenas em DX9.

Enquanto a superioridade em relação à GTX 650 sobe para mais de 35%, em relação à HD 7770 cai para menos de 8%. E, se a HD 7850 novamente se distancia para mais de 43%, a GTX 660 perde um pouco da superioridade, caindo para menos de 53%.

{break::F1 2012}

F1 2012 é o game mais recente de uma das séries de simulador de Formula 1. O game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

A GTX 650 Ti deixa a HD 7770 passa à frente em mais de 10%, mesmo que essa superioridade diminua quanto maior a resolução. A inferioridade em relação à GTX 660 e HD 7850 acaba aumentando, chegando a mais de 60%.

{break::Just Cause 2}

A GTX 650 Ti vê a HD 7770 aumentar ainda mais a diferença, chegando a 22% na resolução mais baixa. A diferença para a AMD fica ainda maior quando comparada à HD 7850, que consegue uma performance praticamente 100% superior.

{break::Metro 2033}

Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

Ela consegue superar novamente a HD 7770, mas não chega a 5% de diferença. A distância para a HD 7850 também normaliza, voltando para os 55% de média, assim como com a GTX 660. A superioridade em relação à GTX 650 fica na casa dos 30%.

{break::Sleeping Dogs}

Novamente a HD 7770 ultrapassa a GTX 650 Ti, chegando a mais de 5%. A diferença para a HD 7850 também volta a aumentar para mais de 60%, chegando a quase 70%. A inferioridade em relação à GTX 560 diminui, no entanto, não passando dos 6%.

{break::PhysX com Borderlands 2}Quando se trata de uma placa de vídeo da Nvidia, não temos como não testar a tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

Para os testes, utilizamos o Borderlands 2, um dos melhores games do mercado com a aplicação da tecnologia PhysX.

Como a tecnologia adiciona mais efeitos, ela exige mais da placa de vídeo e consequentemente afeta diretamente o desempenho. Abaixo, nos testes com a tecnologia ativada em modo HIGH, temos um desempenho razoÁvel, considerando que o FPS mínimo para conseguir rodar um jogo é de 30, e esta é uma marca que a GTX 650 Ti consegue se manter acima nas três resoluções.

Ela chega até mesmo a superar a HD 7850 em 8,5% na resolução mais baixa. No entanto, com o aumento da exigência a placa da AMD consegue ultrapassÁ-la, chegando a quase 14% a 1920x1080. A superioridade em relação à HD 7770 também diminui quanto maior a resolução, caindo de 22% para menos de 4%. A GTX 660 se mantém sempre a mais de 50% acima.

{break::Overclock: Temperatura}Mesmo sendo uma placa de entrada, a GeForce GTX 650 Ti promete muito em se tratando de overclock, mas é bom destacar novamente que ela usa o chip GK 106 e não GK107 como a GTX 650, dessa forma não serÁ possível atingir clocks tão altos como a 650, que colocamos trabalhando a 1274MHz.

Por outro lado, a 650 Ti estÁ entre as melhores placas da geração 600 no quesito desempenho prÁtico pelo overclock feito, jÁ que ela alcançou desempenho muito próximo do overclock que fizemos. Subimos o clock da placa de 928MHz para 1.100MHz, aumento de  18.5%, jÁ as memórias subimos de 5.4GHz para 6.2GHz, aumento de 14.8%. Na prÁtica o desempenho subiu em média 16% como poderão ver nos testes a seguir, com a temperatura se mantendo inferior a uma 7770 GHz Edition com cooler diferenciado como foi a utilizada nos comparativos. O consumo de energia também ficou quase na mesma, subindo apenas 2w.

Para o overclock utilizamos o Afterburner, um dos melhores softwares do mercado para overclock de placas de vídeo. Abaixo a tela do aplicativo e do GPU-Z, vale destacar que aumentamos a voltagem em 12mV, como podem ver. 


Temperatura
Aumento pequeno, apenas cinco graus, que ainda a deixam sete graus abaixo da GTX 660 e apenas dois graus acima da HD 7770.

{break::Overclock: Consumo de Energia, 3DMark 11}Consumo de Energia
Aumento irrisório de apenas dois Watts não é suficiente para superar nem a HD 7750 CORE EDITION.

3DMark 11
Ganho de 16%, que diminui a diferença em relação à HD 7850 para menos de 14% e aumenta a superioridade em comparação à HD 7770 para mais de 40%. A inferioridade para a GTX 660 também cai para 22%.

{break::Overclock: AvP, Crysis 2 e Metro 2033}....

Aliens vs Predator
Novo ganho de 16%, suficiente para ultrapassar a GTX 560 em pouco mais de 2%. A diferença para a GTX 660 e HD 7850 cai de mais de 55% para a casa dos 35%.

Crysis 2
O ganho é novamente de 16%, ultrapassando a GTX 560 por mais de 12%, e deixando a GTX 650 Ti a menos de 27% da GTX 660 e da HD 7850.

 

Metro 2033
Um ganho que quase chega aos 18%, superando GTX 560 e GTX 550 Ti. A diferença em relação a GTX 660 e HD 7850 cai para menos de 33%.

 

{break::Conclusão}Diferentemente de sua "irmã menor", a GeForce GTX 650 Ti mostrou um equilíbrio entre preço e desempenho – o chamado custo x benefício –  interessante para o mercado. A placa mostrou fôlego suficiente para rodar os games mais "quentes" do momento em ótimas condições de jogabilidade, como por exemplo, resolução em 1920x1080 com filtros ativados, e fluidez em termos de FPS.

A nova geração Kepler trouxe avanços significativos para a comunidade gamemaníaca. Contudo, o seu Calcanhar de Aquiles era o público alvo. De acordo com um levantamento do Steam, mais de 90% dos jogadores compram placas 3D na faixa entre US$100-299. Ou seja, um amplo mercado para as GeForces intermediÁrias de baixo custo. Pensando nisso, a NVIDIA passa contar em seu portfólio, três opções para este segmento: a GTX 660, GTX 650 Ti e GTX 650. Para quem quer jogar a 650 Ti é o limite para um bom gameplay.

Além de possuir bom "poder de fogo", a GTX 650 Ti conta ainda com uma ampla quantidade de tecnologias que agregam mais valor é placa, como é o caso do PhysX, dos filtros FXAA/TXAA, do Adptive VSync e NVIDIA Surround. Os únicos pontos a lamentar são a ausência do suporte ao SLI (possibilidade de duas ou mais placas), bem como do GPU Boost (recurso que turbina automaticamente o clock da GPU).

A placa também se destacou pelo seu potencial em overclock. Subimos o clock da placa de 928MHz para 1.100MHz, aumento de  18.5%. As memórias subimos de 5.4GHz para 6.2GHz, aumento de 14.8%. Na prÁtica, a temperatura não subiu muito, mantendo esse modelo referência ainda mais resfriada que uma 7770 GHz Edition. Em se tratando do desempenho, o ganho ficou na casa de 16%, muito bom e de acordo com o overclock realizado. Como muitas empresas desenvolvem modelos com projetos melhores do que o referência, serÁ bastante comum modelos com clocks mais altos buscando se distanciar da 7770 e se aproximar mais da 7850.

No Brasil a placa poderÁ ser encontrada por volta de R$ 600 +/- dependendo do modelo e parceiro.

Com a GeForce GTX 650 Ti, o gamer poderÁ rodar os títulos mais badalados do mercado, mantendo um custo x benefício atraente.

PRÓS
Sistema de refrigeração eficiente e silencioso;
Placa bem compacta;
Ótimo custo x benefício;
Excelente no overclock;
TDP reduzido;
Silenciosa
CONTRAS
Largura de banda de memória limitada pela relação de bus x clock VRAM;
Sem suporte ao SLI;
Ausência do GPU Boost.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.