ANÁLISE: MSI GeForce GTX 650 Power Edition OC

ANÁLISE: MSI GeForce GTX 650 Power Edition OC
Além da GTX 660, a NVIDIA lançou na última quinta-feira, 13 de setembro, a GeForce GTX 650, placa que tem como grande atrativo a ótima relação de custo x benefício, principalmente no tocante ao custo.

Com um preço de US$ 110 para o modelo de referência (R$ 589,00 no Brasil), trata-se de uma VGA bem interessante, sobretudo para mercados emergentes – como é o nosso caso – devendo satisfazer os jogadores casuais, ou aqueles que se satisfaçam em rodar alguns games em condições medianas.

Diferentemente da GTX 660, que é baseada no GK106, a GeForce GTX 650 tem como "cérebro", o chip grÁfico GK107, o mesmo presente na versão para varejo (mais conhecido no meio como retail) da GT 640.

Conforme veremos na próxima seção, trata-se de um chip com especificações bastantes "espartanas", se comparado com o GK106, reforçando as especulações de que a NVIDIA poderÁ, no futuro próximo, lançar uma placa mais poderosa (GTX 650 Ti?) para "tapar o buraco" existente entre as duas placas intermediÁrias de baixo custo.

Assim como as demais VGAs da geração Kepler, a GTX 650 tem uma grande quantidade de processadores grÁficos se comparado com as GeForces "Fermi". Outro destaque é o intensivo regime de frequência de operação ao qual são submetidos à GPU e memória.

A GTX 650 conta ainda com suporte às principais novidades das GPUs da geração da NVIDIA, como é o caso dos filtros proprietÁrios FXAA (Fast Approximate Anti-Aliasing) e TXAA (Temporal Anti-aliasing), além do recurso adaptive VSync (sincronismo vertical adaptativo) e do 3D Vision Surround. O fato a lamentar é a ausência do GPU Boost, recurso responsÁvel por turbinar dinamicamente os clocks da placa.

A placa analisada pela Adrenaline é a MSI GeForce GTX 650 Power Edition OC, trazendo alguns atrativos bem interessantes, como é o caso do clock da GPU (turbinado em relação ao modelo padrão) em 1124Mhz, e do projeto diferenciado, composto, dentre outros destaques, a presença de um eficiente e engenhoso sistema de refrigeração.

No decorrer desta anÁlise, você vai conferir o comportamento da MSI GeForce GTX 650 Power Edition OC nos mais diversos testes aos quais foi submetida pela nossa equipe, descobrir o quanto a nova GeForce de baixo custo herda do "DNA" GTX.



{break::Arquitetura GK106}A linha Fermi (que deu origem às GeForces da série 400 e 500) foi sem dúvida o passo à frente mais significativo para a NVIDIA em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80 (8800 GTX) lançada no final de 2006, inaugurando o que se conhece muito bem hoje em conceito de grÁficos unificados e computação paralela conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).  

Com a Fermi, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo. A arquitetura era baseada em pipelines de geometria paralela otimizados para o Tessellation e para o mapeamento de deslocamento, bem como para uma nova arquitetura computacional que oferecia mais velocidade na troca de contexto e aprimoramento no desempenho para operações atômicas.

JÁ a Kepler, embora construída a partir dos alicerces da Fermi, parece dar um passo adiante na evolução dos chips grÁficos da NVIDIA, ao focar na otimização e eficiência de recursos.

A nova geração de GPUs é composta de inúmeros blocos de hardware distintos, cada um especializado em tarefas específicas. Entretanto, o GPC (Graphic Processing Cluster ou Feixe de Processamento GrÁfico) continua a ser o bloco de hardware de alto nível dominante na arquitetura Kepler, com recursos dedicados para a computação geral, rasterização, sombreamento e texturização. Em outras palavras, quase todas as funções de processamento grÁfico de um núcleo da GPU estão contidas no GPC.

(Bloco de Diagrama do chip GK106)

Conforme pode ser visto acima na estrutura de processamento da Kepler (chip GK106), hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine", composto de três GPCs (dois e meio, para ser mais justo), três controladores de memória, partições de rasterizadores (ROPs) e memória cache L2. Vale ressaltar que cada Feixe de Processamento GrÁfico, que são na realidade grandes unidades de processamento e se comportam como mini GPUs independentes, possui duas unidades da nova geração de Streaming Multiprocessors (a exceção do terceiro GPC, composto por um), chamados agora pela companhia de SMX (até então a companhia havia batizado os multiprocessadores de Streaming de SM).

Diferentemente das duas gerações passadas (GF10x e GF11x), em que cada SM continha 32 CUDA Cores (ou Shader Processors), os SMX da geração Kepler possuem nada menos do que impressionantes 192 Shaders! E foi graças a este significativo aumento na quantidade de CUDA Cores contido em cada unidade multiprocessador de Streaming, que fez com que as GeForces da geração Kepler tivessem um "salto" no número de CUDA Cores (chegando a 1536 na GTX 680).

Qual o "segredo" para a construção de uma VGA com preço mais acessível para as "massas"? Acertou quem disse um chip com custo menor. E para se conseguir reduzir o custo, não hÁ "mÁgica": é necessÁrio projetar uma GPU menor possível (não se esqueçam que quanto menor for o a GPU, mais chips podem ser produzidos em um waffer de silício). Eis que entra em cena o GK107.

(Bloco de Diagrama do chip GK106)

Fica claro, conforme imagem acima, que o GK107 é um chip extremamente "espartano", do ponto de vista das estruturas internas de processamento. HÁ apenas um único GPC, com 2 SMX. Com isto, não é explica-se o fato da GTX 650 ter apenas 384 processadores grÁficos (lembrem-se da conta: 1GPC x 2SMX x 192 CUDA Cores).

O que mais chama a atenção é a distância colossal em termos de quantidade de CUDA Cores existente entre a GTX 650 (384) e a GTX 660 (960). Esse imenso "buraco" (gap) reforça o rumor de que a NVIDIA deverÁ lançar em um futuro não muito distante, uma, ou mesmo duas novas GeForce, baseadas no GK106. Assim, não se surpreendam se surgir uma GTX 650 Ti com 768 CUDA Cores, ou quem sabe, uma GTX 655 Ti com 768 Cuda Cores e uma GTX 650 Ti com 576 CUDA Cores.

Diferentemente do GK106, que possui três blocos de 64 bits para compor a interface de memória de 192 bits, o GK107 tem apenas dois, totalizando assim um bus de 128 bits (2 blocos x 64 bits). Quanto a quantidade de VRAM, o chip tem variantes com 1 e 2 GB.

Em relação à quantidade de unidades de rasterização, o GK107 possui um total de 16 ROPs, contra 24 do GK106. Essa diferenciação se dÁ em virtude da redução no número de blocos rasterizadores. Enquanto que o chip da GTX 660 tem 3 blocos de 8 ROPs, o GK107 tem 2, com 8 rasterizadores cada.

Quanto às unidades de texturização, cada SMX é composto por 16 TMUs, quatro vezes mais TMUs em relação ao Streaming Multiprocessor da geração Fermi. Com um total de 2 SMXs (1 GPCs x 2 SMX), o GK107 tem, portanto, um total de 32 unidades de texturização, contra 80 do GK106 (2,5 GPCs x 2 SMX x 16 TMUs).

Por dentro do SMX
Talvez a grande novidade presente na arquitetura Kepler seja essa nova geração dos Streaming Multiprocessors, batizado pela NVIDIA de SMX. Além de disponibilizar um desempenho muito maior que o antigo SM da linha Fermi, cada multiprocessador de Streaming consome agora significativamente menos energia em relação à arquitetura anterior.

As principais unidades de hardware responsÁveis pelo processamento do GK104 estão inseridas dentro da estrutura do SMX, como é o caso dos CUDA Cores. Eles lidam, entre outras coisas, com o processamento dos vértices, pixels e da geometria, bem como os cÁlculos computacionais e de física.

Além disso, é aí que se encontram as unidades de texturização que fazem a filtragem das texturas, com o carregamento/armazenamento das unidades de busca (units fetch) e pelo salvamento dos dados na memória.


(Digrama do SMX - Geração Kepler)

Olhando para a imagem acima, podemos ver que os 192 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa comutação dinâmica auxilia os desenvolvedores de jogos a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível. Por sua vez, cada controladora de memória de 64 bits tem a disposição 128KB de cache L2. Assim, enquanto as versões de 256 bits do GK104 (GTX680 / GTX670) tem a disposição 512KB, tanto a GTX 660 Ti (GK104) quanto a GTX 660 (GK106) possuem 384KB de cache de segundo nível, em virtude de ambas possuírem 192 bits de bus (3 módulos de 64 bits x 128KB). Por fim, o GK107 tem 256KB de cache, em virtude de contar com apenas duas controladoras.

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (65.536 entradas de 32-bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8-bit, 16-bit, etc). O cluster SMX possui ainda 16 TMUs, cache de textura e o mais importante de tudo: PolyMorph Engine 2.0.

As unidades de Polymorph Engine foram introduzidas na Fermi para lidar com uma enorme carga de trabalho advinda das novas tecnologias, como é o caso da API grÁfica DirectX 11. Talvez, a principal delas seja a badalada técnica de aprimoramento da qualidade das imagens, conhecida como Tessellation (Tess), que aumenta de forma quase exponencial a quantidade de triângulos em uma cena, exigindo assim o mÁximo da GPU.

Com a geração Kepler, a NVIDIA aprimorou a Polymorph Engine, ao introduzir a Polymorph Engine 2.0 que, de acordo com a companhia, possibilita o dobro de desempenho do processamento primitivo e de Tessellation por SMX, em relação à Fermi.

A PolyMorph Engine 2.0 lida com os buscadores de vértices, com o tessellation, transformador viewport, configurador de atributo e saída de streaming.

Finalmente, as Unidades de Função Especial, mais conhecidas pela sigla em inglês SFU (Special Function Units) controlam instruções transcendentais e de interpolação grÁfica.

{break::Os recursos da GTX 650}Abaixo, um resumo das principais especificações da GeForce GTX 650.

• 1,3 bilhão de transistores;
• Nova litografia em 28 nm;
• Área do die (estimado): 118mm2;
• Frequência de operação das texturas e ROPs (GPU): 1058MHz (base clock) / boost clock não disponível;
• 384 CUDA Cores/shader processors;
• Frequência de operação das memórias: 5000MHz (GDDR5);
• Quantidade de memória: 1/2GB;
• Interface de memória: 128bits;
• TDP: mÁximo de 64 watts;
• Limiar térmico da GPU em 98° C;
• Suporte às tecnologias: CUDA, DirectX 11.1, GeForce 3D Vision, NVIDIA 3D Vision Surround, Filtros FXAA/TXAA, Adaptive VSync, NVIDIA PhysX,  PureVideo HD Technology, HDMI 1.4a, OpenGL 4.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Nova Geração do Streaming Multiprocessor (SMX);
• 192 CUDA cores por SMX, 6x mais que a GF110 (GTX 580/GTX 570);
• 2 PolyMorph Engines 2.0;



Nesta seção, iremos fazer uma comparação das macro especificações da GeForce GTX 650 com a sua "irmã maior", a GTX 660, bem como com a GeForce da geração anterior com posicionamento mais próximo, a GTX 550 Ti.

Comecemos pela quantidade de processadores grÁficos. Assim como as suas "irmãs maiores", a GTX 650 chama a atenção pela imensa quantidade de CUDA Cores (Stream Processors, ou ainda Shaders Cores) em relação às GeForces da geração Fermi (GTX 550 Ti/GTS 450). Apesar de ser uma placa intermediÁria de baixo custo, a GTX 650 tem o dobro de CUDA Cores que a GTX 550 Ti (384 contra 192).

É bom ressaltar, que, conforme esclarecido no tópico anterior, houve mudanças em sua arquitetura interna. Portanto, não é correto fazer uma comparação de performance levando-se em conta apenas o número de processadores grÁficos. Ou seja, uma GeForce Kepler com 3 vezes mais CUDA Cores que uma GeForce Fermi, não terÁ necessariamente desempenho 200% maior. Ainda assim, as mudanças na arquitetura mostraram-se bem eficientes, principalmente no quesito performance por watt gasto.

Em relação à GTX 660, hÁ um imenso "buraco" (gap) em termos de quantidade de processadores grÁficos. Essa imensa distância só reforça os rumores de que a NVIDIA possa a lançar no futuro, uma ou duas novas GeForces baseadas no GK106, com por exemplo, 768 e/ou 576 CUDA Cores.

Outras gratas evoluções dizem respeito às frequências de operação da GPU e memória. Enquanto que a GTX 550 Ti tem core clock em 900Mhz e VRAM em 4100Mhz, a NVIDIA elevou os patamares da GTX 650 respectivamente em 17,5% e 22%, isto é, para 1058Mhz e 5000Mhz. E isso para o modelo padrão, pois hÁ vÁrias VGAs especiais com clocks ainda maiores, como é o caso da MSI GeForce GTX 650 Power Edition OC, com GPU em 1124Mhz. O clock da GPU é, inclusive, 8% maior que a GTX 660, como forma de compensar a colossal diferença na quantidade de CUDA Cores.

O fato a lamentar é a ausência do GPU Boost, recurso que turbina automaticamente a frequência de operação do core, facilitando assim a vida dos usuÁrios leigos, ou que não desejam se arriscar na "arte" do overclock.

Ainda no campo das "compensações", embora a GTX 650 tenha memória 22% mais rÁpida que a GTX 550 Ti, seu barramento é de 128 bits, contra 192 bits de sua "irma mais velha". Assim, na combinação entre bus e clock da VRAM, a largura de banda de memória da GTX 550 Ti é 18,5 GB/s maior que a GTX 650 (98,5 GB/s contra 80 GB/s).

Em virtude do refinamento no processo de fabricação da GPU (de 40nm para 28nm), a GTX 650 (GK107) tem Área de die do chip 50% menor que a GTX 550 Ti (GF116) – 118mm2 contra 238mm2. Aliado a 1,30 bilhão de transistores, contra 1,17 bilhão de sua "irmã mais velha", a dissipação térmica mÁxima da GTX 650 é de apenas 64W, contra 116W da GTX 550 Ti.

Apesar de necessitar de apenas 64W – valor plenamente suprido pelos 75W do PCI Express, a NVIDIA sabiamente disponibilizou um conector extra de energia de seis pinos, capaz de fornecer 75W adicionais à VGA. Com isso, a companhia garante energia suficiente para quem desejar overclockar a placa. Apesar de recomendar uma fonte de energia real de 400W, uma boa PSU de 350W é mais do que suficiente para suprir as necessidades de todos os componentes de um PC equilibrado para o segmento da placa.

{break::As novidades da Kepler}Conforme jÁ mencionado no decorrer desta anÁlise, a nova geração Kepler trouxe gratas surpresas para os usuÁrios. Algumas exclusivas, como é o caso dos novos filtros FXAA e TXAA, do GPU Boost, Adptive VSync e 3D Vision Surround com apenas uma VGA. Outras são comuns às demais placas de nova geração, como é o caso do suporte ao DirectX 11.1 e do PCI Express 3.0. Detalharemos a seguir as novidades.

DirectX 11.1
Apesar do suporte à mais recente API GrÁfica da Microsoft ter sempre sido motivo de destaque no marketing das companhias, ao que parece, a NVIDIA não estÁ tão empolgada com tal fato. Tanto que, apesar de a arquitetura Kepler suportar o  DirectX 11.1, John Danskin, vice-presidente de arquitetura de GPU da NVIDIA, soltou a seguinte frase durante o NVIDIA Editor's Day em São Francisco (evento super seleto, fechado a um restrito grupo de jornalistas de vÁrias partes do mundo – e coberto pelo Adrenaline): "Sim, [a GeForce GTX 680] serÁ compatível com DirectX 11.1, mas... quem se importa?"

Provavelmente o que o executivo quis dizer foi que a atualização da API GrÁfica da Microsoft não trarÁ tantas melhorias grÁficas; e mais ainda: deverÁ demorar até que o DX11.1 seja adotado amplamente pelos games – assim como o próprio DX11. Até que isso ocorra, é provÁvel que as GeForces da série 700 ou mesmo 800 jÁ tenha sido lançadas.

Outro ponto é que, até o Windows 8 chegar, tal recurso ficarÁ apenas no papel. Ainda assim, as principais novidades do DX11.1 serão:

• Rasterização independente de objeto;
• Interoperabilidade flexível entre computação grÁfica e vídeo;
• Suporte nativo ao Stereo 3D.

PCIe Gen 3
Na medida em que novas gerações de placas chegavam ao mercado, foi gerado um temor nos analistas de que o padrão de interface de comunicação PCI Express chegaria a um ponto em que não conseguiria dar mais vazão ao fluxo de dados com a intensidade necessÁria, criando assim um verdadeiro gargalo para o desempenho da VGA.

Este temor, contudo, se diluiu, com o recente anúncio da geração 3 do PCIe, que dobrou a taxa de transferência em relação ao PCIe Gen 2, garantindo tranquilidade para as futuras placas 3D.

Com o novo patamar de desempenho advindo da geração Kepler, a NVIDIA garantiu o suporte ao PCI Express 3.0 nas GeForces série 600, encerrando qualquer tipo de temor em relação a gargalo de desempenho.

Com o PCIe Gen 3, a largura de banda saltou de 16GB/s para 32GB/. JÁ nas placas acessórias instaladas, o ganho saiu de 500MB/s para 1GB/s por pista/linha. Assim, os dispositivos que utilizam a configuração x16 podem utilizar de 16GB/s, ou 128Gbps. Vale ressaltar, contudo, que para se beneficiar do PCI Express 3.0 o usuÁrio deverÁ ter um sistema totalmente preparado e compatível com tal recurso. Assim, além de uma VGA PCIe Gen 3.0, tanto a placa-mãe quanto o processador deverão suportar a novidade.

FXAA

Embora não seja um filtro de Anti-Aliasing (antisserrilhado) inédito, a NVIDIA aprimorou o FXAA (Fast Approximate Anti-Aliasing) na nova geração Kepler.

Semelhante ao MLAA (Morphological Anti-Aliasing, ou Antisserrilhamento Morfológico) empregado pela AMD nas novas Radeons, o FXAA é uma técnica de pós-processamento, isto é, que aplica o filtro de anti-aliasing na imagem após esta ter sido gerada pela GPU. Isso é bastante vantajoso, haja vista que alivia a carga de trabalho da unidade de processamento grÁfico. Vale destacar que o FXAA é aplicado junto com outras técnicas de pós-processamento, como é o caso do motion blur e do bloom.

Com a chegada da Kepler, a NVIDIA passou a adotar o FXAA via driver (geração R300), possibilitando a utilização do filtro em centenas de jogos. Outro destaque do Fast Approximate Anti-Aliasing sobre o Morphological Anti-Aliasing estÁ no ganho de desempenho, chegando a ser 60% mais veloz que o MSAA em 4X.

Um fato que chamou bastante a atenção da comunidade foi a apresentação do Samaritan Demo (demonstração de um vídeo da Epic que ressalta o poderio grÁfico do DirectX da Unreal Engine) na Game Devolpers Conference – GDC 2011. Na ocasião, a Epic necessitou de três GeForces GTX 580 para rodar o demo a contento. Passado um ano, ou seja, na GDC 2012, a Epic fez uma nova apresentação do Samaritan Demo. Contudo, para a surpresa de todos, foi necessÁrio apenas uma GeForce GTX 680 e a utilização do FXAA para "dar conta do recado".

- Continua após a publicidade -

Para ver um comparativo mais apurado dos benefícios do filtro, clique aqui.

TXAA
Considerado pela NVIDIA como a próxima geração de filtros de antisserilhamento (responsÁvel pela geração do próximo nível em termos de qualidade de imagem), o TXAA (Temporal Anti-aliasing) promete disponibilizar muito mais qualidade e performance se comparado com o MSAA.

Segundo a companhia, o antisserilhamento temporal foi criado com o objeto de explorar toda a capacidade de processamento de texturas da geração Kepler (mais especificamente nas placas baseadas no chip grÁfico GK104, ou seja, nas GTX 680/670/660).

O TXAA é um misto de anti-aliasing de hardware com filme GC estilo AA, e para o caso do filtro em 2X, um componente temporal opcional é empregado, para melhorar a qualidade da imagem.

O filtro de Temporal Anti-aliasing estÁ disponível em dois modos: TXAA1 e TXAA2. De acordo com a NVIDIA, o TXAA1 oferece uma qualidade grÁfica superior ao MSAA em 8X, com gasto de processamento semelhante ao MSAA em 2X. JÁ o TXAA2 permite uma qualidade das imagens superior ao TXAA1, com performance comparÁvel ao MSAA em 4X.

Inicialmente o filtro antisserilhamento temporal serÁ implementado diretamente na engine de alguns dos principais jogos da futura geração. Até o momento, a Epic Games, com a sua badalada Unreal Engine Technology 4, e a Crytek, são dois dos principais estúdios que jÁ estão desenvolvendo games com o novo filtro da NVIDIA.


Adptive VSync

O sincronismo vertical – V-Sync foi projetado para lidar com os chamados artefatos fora de sincronismo ou artefatos trepidantes (tearing artifacts ), que podem ocorrer quando a quantidade de FPS é bem superior à taxa de atualização (refresh rate) do monitor, e que além de causarem um desconforto visual, prejudicam a jogabilidade do usuÁrio. Embora seja raro, é possível ainda que o fenômeno aconteça na situação inversa ao mencionado acima, ou seja, quando os FPS são bem menores que a taxa de atualização da tela.


(Tearing artifacts)

Apesar de criado com o intuito de acabar (ou amenizar) com os tearing artifacts, o V-Sync gerou outro problema: a perda de frames (stuttering), também conhecido como "lag". Isso ocorre quando os FPS caem para menos de 60 quadros por segundo, ocasionando a redução do V-Sync para 30Hz (e demais quocientes de 60, como 20Hz ou 15Hz).


(Problema de sincronismo vertical - VSync)

Como forma de enfrentar esse desafio, os engenheiros de software da NVIDIA criaram o Adptive V-Sync. Presente na geração de drivers R300 da companhia, a tecnologia dinamicamente liga e desliga o sincronismo vertical, de forma a gerar FPS mais regulares e cadenciados, o que minimiza os lags nos games e previne a mÁ sincronização das imagens.

- Continua após a publicidade -

Mais especificamente, quando a taxa de quadros por segundo cai para menos de 60 FPS, o Adptive V-Sync entra em cena e desliga o sincronismo vertical, possibilitando que os frame rates funcionem em sua taxa natural, o que reduz as chances de ocorrer lag. Quando os FPS voltam para 60 quadros por segundo, o Adptive V-Sync atua novamente ao ligar o sincronismo vertical, reduzindo a possibilidade de ocorrerem artefatos fora de sincronismo.


(Adptive V-Sync em funcionamento)

NVENC
A NVIDIA introduziu em todas das VGAs da linha Kepler o NVENC, novo vídeo encoder para o padrão H.264.

Antes do NVENC, as GeForces utilizavam o Badaboom (mais detalhes na próxima seção), que utiliza do poder dos CUDA Cores para a conversão de diferentes formatos de streaming multimídia. Se, por um lado, esse recurso tem a grande vantagem de desafogar o processador e acelerar o processo, por outro, tem o ponto fraco de aumentar o consumo de energia da placa durante a conversão.

Para resolver essa questão, a NVIDIA criou o NVENC, que utiliza um circuito especializado para o "encodamento" H.264. Vale destacar que tal circuito é quase quatro vezes mais veloz que o encoder via CUDA Cores, além de consumir consideravelmente menos energia que o Badaboom.

O NVENC é capaz de lidar com as seguintes situações:

- Encodar vídeos em fullHD (1080p) com velocidade até oito vezes maior que em tempo real. De acordo com a companhia, em modo de alta performance, o NVENC é capaz de encodar um vídeo de 16 minutos em 1080p @ 30 FPS em apenas dois minutos;

- Suporte ao padrão H.264 nos níveis de profile 4.1 Base, Main e High (mesmo que o padrão Blu-Ray);

- Suporte ao MVC (Multiview Video Coding) para vídeos estereoscópicos – extensão do H.264 para o padrão Blu-Ray 3D;

- "Encodamento" para resolução de até 4096x4096 pixels.

É bom que se diga que, além da transcodificação, o NVENC é útil para edição de vídeos, telas do tipo wireless (sem fio) e aplicações de vídeo conferência.

{break::Outras tecnologias}CUDA
Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como por exemplo, nos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, com mais de 100 milhões de placas compatíveis.

PhysX
Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Assim, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Diz respeito à forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs desse evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo e a fumaça.

O PhysX é responsÁvel, entre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)


(Vídeo de Borderlans 2 mostrando efeitos do PhysX em uma GTX 660 Ti)

3D Vision Surround
Lançado no início de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi de início motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Foi uma ação extremamente ambiciosa e ousada da NVIDIA, jÁ que ela teve que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo - Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB) - Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis - Projetado para os monitores LCD de 120Hz, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade - Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI e PhysX.

• Visualizador 3D - Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


(Kris Rey da NVIDIA jogando Skyrim em 3 monitores,
enquanto navega no portal GeForce.com para acessar o guia de otimização do jogo para a VGA)


- Continua após a publicidade -

O passo seguinte no avanço da tecnologia 3D foi o lançamento do 3D Vision Surround (imagem acima), que possibilitou utilizar até três monitores simultâneos, formando assim uma ampla Área de visualização em três dimensões.

Com a chegada da linha Kepler (mais especificamente da GeForce GTX 680), a NVIDIA aprimora ainda mais o 3D Vision Surround, ao permitir o uso da tecnologia com o uso de apenas uma GPU da nova geração, barateando consideravelmente o investimento necessÁrio para se jogar em 3D com múltiplos monitores.

SLI
Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)

Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)

Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR

Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Dessa forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing

Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade, pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que elas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;
• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;
• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;
• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;
• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando "fantasmas" e "trepidações" durante a reprodução;
• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;
• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela.

{break::Tecnologias by MSI}Além das especificações listadas anteriormente, a Geforce GTX 650 Power Edition, possui algumas características exclusivas da MSI. Confira abaixo os principais diferenciais.


Potencial de overclock até 18,2% maior

A placa de vídeo utiliza a arquitetura MSI Power Edition: Triple Overvoltage com suporte ao programa Afterburner que permite ajustes na GPU, memória e voltagens PLL. Assim, todo o potencial da placa de vídeo pode ser liberado e a performance do overclock ter ganho de até 18,2%. O fornecimento de energia também foi melhorado para aumentar o fluxo atual em até 17%, se comparado com outras placas de referência, e mantém alta estabilidade durante o overclock.

Componentes Military Class III para performance mais suave e confiÁvel

Os componentes Military Class III da MSI passaram por rigorosos testes MIL-STD-810G para garantir a qualidade e estabilidade. Entre esses componentes estão o Tantalum Core Hi-c CAP, SFC 30% mais poderoso e Solid CAP com uma vida útil de até 10 anos.

Design PWM melhorado

Comparando com produtos de referência, a série Power Edition oferece design PWM para melhorar a estabilidade de overclock.

TransThermal Design

A MSI GeForce GTX 650 Power Edition possui também um design que melhora em 20% o fluxo de ar para uma melhor refrigeração da placa. Algo que chama a atenção é a possibilidade de usar os fans de três modos diferentes: single fan, dual fan e double airflow.

O modo Single Fan (com uma ventoinha) oferece melhor capacidade de dissipação, fluxo de ar maior e menor ruído que as placas de referência.

Com o acréscimo de mais uma ventoinha, o modo Dual Fan oferece uma maior Área para dissipação do calor e um resfriamento mais eficiente do módulo PWM e memória. Essa ventoinha adicional acompanha a placa.

Com a mesma ventoinha extra, é possível também utilizar a MSI GeForce GTX 650 no modo Double Airflow, com um fan em cima do outro, aumentando a pressão do ar e melhorando a capacidade de dissipação do calor. Na próxima pÁgina você confere as fotos com os três modos de utilização das ventoinhas.


A GPU possui ainda a tecnologia Dust Removal. Com as ventoinhas rodando ao contrÁrio por 30 segundos na inicialização do sistema, a placa elimina a poeira acumulada nos tudos de dissipação de calor para melhorar a performance de resfriamento.

{break::Fotos}Essa placa da MSI estÁ entre os modelos mais atrativos com o chip GeForce GTX 650, além do overclock, o criativo sistema de cooler desenvolvido pela MSI da a possibilidade dos usuÁrios overclockarem a placa com com maior segurança.

Além do projeto diferenciado, com PCB maior do que a referência visando melhorias nos componentes e controladores de fases, o sistema de cooler pode suporta dois FANs, basta o usuÁrio correr a base para a direita e encaixar outro FAN que acompanha a caixa sobre a base, consequentemente esfriando mais a placa e possibilitando aumentar mais os clocks, ou mesmo manter a placa com menor temperaturas em regiões de maios calor.

O acabamento é muito bom mesmo sendo um modelo de baixo custo, algo jÁ esperado da MSI. 

Sistema de cooler TransThermal Design
A MSI criou um sistema de cooler bastante diferente para esse modelo, dando ao usuÁrio a chance de optar por três modos diferentes, chamados de Single Fan(um ventilador, o padrão), Dual Fan(a base do cooler "anda" para o lado e abre espaço para prender outro FAN ao lado do original) e Double Airflow(com um FAN sobre o outro).

Abaixo uma série de fotos mostrando as combinações e dando noção de como funciona os modos de combinação dos FANs. 

{break::MÁquina/Softwares utilizados}Como de constume, utilizamos uma mÁquina TOP de linha baseada em um processador Intel Core i7 3960X overclockado para 4.6GHz.

Abaixo, fotos do sistema montado com a MSI GTX 650 Power Edition OC mostrando suas vÁrias combinações do sistema de cooler.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard MSI X79A-GD65 8D
- Processador Intel Core i7 3960X @ 4.6GHz
- Memórias 16 GB DDR3-1600MHz Corsair Dominator-GT
- HD 1TB Sata2 Western Digital Black
- Fonte XFX ProSeries 1000W
- Cooler Master Hyper 212 EVO

OBS.: Um detalhe bastante importante é que a placa de vídeo não dava boot de jeito algum em nosso sistema, ao contactar a MSI descobrimos que a mainboard X79 que nós estÁvamos utilizando, uma MSI Big Bang XPower II, precisava de atualização de BIOS devido incompatibilidade entre as BIOS da mainboard e da placa de vídeo. Após atualizar para a última BIOS disponível da placa-mãe, o sistema deu boot normalmente.

Sistema Operacional e Drivers
- Windows 7 64 Bits 
- Intel INF 9.3.0.1020
- Catalyst 12.6 WHQL: Placas AMD 
- GeForce 296.10 WHQL: Placas Nvidia GeForce 500
- GeForce 306.23 - GTX 660 e GTX 650

Configurações de Drivers
3DMark 
- Anisotropic filtering: OFF 
- Antialiasing - mode: OFF 
- Vertical sync: OFF 
- Demais opções em Default

Games: 
- Anisotropic filtering: Variado através do game testado 
- Antialiasing - mode: Variado através do game testado 
- Texture filtering: High-Quality 
- Vertical sync: OFF 
- Demais opções em Default 

Aplicativos/Games
- 3DMark 11 1.0.3 (DX11) 
- Unigine HEAVEN Benchmark 3.0 (DX11)

- Aliens vs Predator (DX11) 
- Batman Arkham City (DX11)
- Crysis Warhead (DX10) 
- DiRT 3 (DX11) 
- Just Cause 2 (DX10.1) 
- Mafia II (DX9) 
- Metro 2033 (DX11) 

{break::GPU-Z e Temperatura}Abaixo temos a tela principal do GPU-Z, mostrando algumas das principais características técnicas da GTX 650 Power Edition OC da MSI, que possui clock do core superior ao modelo referência, 1124MHz contra 1058MHz. JÁ as memórias desse modelo tem mesmo clock de uma referência, 5GHz.


GPU Boost
Como pode ser visto na tela do GPU-Z acima, esse é o único modelo da série GeForce 600 que não possui suporte a tecnologia GPU Boost.

Temperatura
Iniciamos nossa bateria de testes com um bench bastante importante: a temperatura do chip, tanto em modo ocioso como em uso contínuo.

Em modo ocioso (idle), a placa da MSI conseguiu o melhor desempenho entre todas as placas analisadas, com a temperatura mais baixa, um grau abaixo da HD 7750 referência e dois da GTX 550 Ti.

Medimos o pico de temperatura durante os testes do 3DMark 11 rodando em modo contínuo. Os 21 graus de acréscimo em relação ao modo ocioso fazem com que a GTX 650 ficasse três graus acima da HD 7750 da ASUS e um acima do modelo da HIS.

{break::Consumo de Energia}Também fizemos testes de consumo de energia com todas as placas comparadas. Os testes foram feitos todos em cima da mÁquina utilizada na review, o que da a noção exata do que cada VGA consome.

Em modo ocioso (também conhecido como idle), o consumo de energia da MSI GTX 650 PE é também um dos modelos com menor consumo de energia, apenas um Watt acima da HD 7750 da ASUS, empatando com as HD 7770 da HIS e da XFX e com HD 7750 da HIS. Ela também fica seis Watts abaixo da GTX 550 Ti.

 

No teste de carga, rodando o 3DMark 11, e aumentando o consumo de energia das placas colocando-as em situações de maior demanda de potência, a GTX 650 se comportou muito bem, com o menor consumo entre as placas analisadas.

OBS.: No teste em modo ocioso consideramos 5w como margem de erro. JÁ no teste rodando o aplicativo 3DMark 11 consideramos 15w como margem de erro, devido grande variação que acontece testando a mesma placa.

{break::3DMark 11, Heaven 3.0}

Com o 3DMark 11, versão mais recente do aplicativo para testes de desempenho de placas de vídeo mais famoso do mundo, podemos observar que a GTX 650 todas as suas concorrentes diretas, as HD 7750 e a GTX 550 Ti, apresentando desempenho mais de 10% superior sobre a melhor colocada entre estas. No entanto, ela fica bem atrÁs das HD 7770, que conseguem um mínimo de 11% de acréscimo sobre a sua performance.

 

Unigine HEAVEN 3.0 - DirectX 11

Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

No primeiro teste, com o tessellation desativado, a placa mais uma vez prevalece sobre as rivais, mas dessa vez com diferença menor, com performance mais de 3% acima à da HD 7750 da XFX e quase 12% sobre a GTX 550 Ti. A diferença para as HD 7770, no entanto, aumenta, e ambas ficam mais de 17% acima.

Usando o tessellation ativado em modo normal, a GTX 650 vê a diferença para as rivais diminuir, e a HD 7750 overclockada da XFX consegue um empate técnico, apenas 0,6% abaixo. Enquanto isso, as HD 7770 aumentam ainda mais a superioridade, com a iCooler da HIS ficando quase 20% acima.

{break::Aliens vs Predator}

Começamos os testes em jogos com o Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Apesar das desvantagens nos testes anteriores, quando interessa, em games, a GTX 650 mostra resultados melhores, diminuindo a diferença para cerca de 7% para a HD 7770 iCooler, da HIS. Ela também se afasta das HD 7750, com performance mais de 20% superior à melhor colocada. Comparada à GTX 550 Ti, ela consegue apresentar uma melhoria média de 5%.

{break::Crysis Warhead}

O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior a dos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Neste teste, a GTX 650 encosta ainda mais na HD 7770 iCooler, ficando atrÁs por menos de 4%. Ela consegue até diminuir a diferença para a HD 7770 BE OC da XFX para menos de 15%. A vantagem sobre a GTX 550 Ti continua na média de 5%, mas cai em relação à HD 7750 melhor colocada para cerca de 15%.

{break::DiRT 3}

DiRT 3 é o game mais recente de uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em junho de 2011, o game traz o que existe de melhor em tecnologia da API DirectX 11. Os testes com o game foram feitos utilizando a ferramenta Adrenaline Racing Benchmark Tool.

Aqui as HD 7770 se distanciam um pouco, e a iCooler consegue ficar com média de 7% acima da GTX 650. A GTX 550 Ti diminui a diferença, conseguindo até ultrapassÁ-la um pouco a 1680x1050. As HD 7750, no entanto, ficam muito atrÁs, e a melhor colocada entre elas não consegue ficar a menos de 20% abaixo.

{break::Just Cause 2}

Para fazer o "contra peso", as placas da série Radeon dominam em todos os segmentos rodando o Just Cause 2, curiosamente apoiado pela NVIDIA.

Como era de se esperar, aqui as HD 7750 dão o troco, e ficam com superioridade mínima de 12%. A GTX 550 Ti se mantém bem próxima, com inferioridade de não mais que 3%.

{break::Mafia II}

Mafia II trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50, nos EUA.

Curiosamente aqui a GTX 650 é superada pela GTX 550 Ti em todas as resoluções em uma média de 6%. Ambas pelo menos conseguem superar as HD 7750 novamente, mas a 650 não consegue abrir mais de 3% sobre a melhor colocada entre elas, a HD 7750 DD OC da XFX.

{break::Metro 2033}

Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

A GTX 650 mantém um empate técnico com a melhor HD 7750, a XFX Radeon HD 7750 DD OC, e uma pequena vantagem sobre as demais. Em relação à GTX 550 Ti, mantém a média de 6%, enquanto vê as HD 7770 aumentarem novamente a superioridade para mais de 14%.

{break::PhysX}Quando se trata de uma placa de vídeo da Nvidia, não temos como não testar a tecnologia de física PhysX, presente em alguns games e que promete maior realismo, adicionando efeitos não encontrados em placas que não sejam da empresa.

Para os testes, utilizamos o Batman Arkham City, sequência da série que traz efeitos muito bons dessa tecnologia. Abaixo, um exemplo da diferença do game rodando com e sem PhysX.

Como a tecnologia adiciona mais efeitos, ela exige mais da placa de vídeo e consequentemente afeta diretamente o desempenho. Abaixo, nos testes com a tecnologia ativada, temos um desempenho compatível com o segmento da placa, abaixo dos demais modelos. O surpreendente aqui foi a superioridade da GTX 550 Ti, sempre com performance cerca de 4% superior.

{break::Overclock: Temperatura}Apesar da placa jÁ ser overclockada de fÁbrica pela MSI, por ela possuir um projeto com vÁrias mudanças sobre a referência como jÁ destacamos, esse modelo alcança clocks ainda maiores do que os adotados, dessa forma subimos mais 150MHz sobre o clock de 1124MHz, deixando a placa com core trabalhando em 1274MHz, 216MHz acima de um modelo referência, que representa aumento de 20%. Também aumentamos consideravelmente as memórias, de 5GHz para 5.8GHz. Para o overclock aumentamos a voltagem em 25mV.

Confiram abaixo as telas do GPU-Z junto ao aplicativo Afterburner utilizado para o overclock, em seguida os testes da placa quando overclockada.


Temperatura
Após a mudança da frequência, a temperatura sofreu um aumento, porém nada muito significativo, o que mostra que as soluções de cooling da MSI funcionam bem. Destaque para o modo Dual FAN, que segura o aumento em apenas um grau.

{break::Overclock: Consumo de Energia, 3DMark 11}Consumo de Energia
Assim como na temperatura, o consumo de energia da placa da MSI também foi mínimo. Apenas um Watt de acréscimo segura a placa ainda abaixo das HD 7750, mesmo overclockada.

3DMark 11
O overclock trouxe um ganho de performance superior a 12%, suficiente para ultrapassar a HD 7770 iCooler por 1% e ficar apenas 7% abaixo da XFX HD 7770 BE OC. Ótimo ganho em desempenho da GTX 650.

{break::Overclock: AvP, Metro 2033}Além do 3DMark 11, fizemos testes com a placa overclockada na resolução de 1920x1080 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Novo bom ganho de performance, cerca de 15%, que a deixou menos de 4% atrÁs da HD 7770 Black Edition da XFX e superando a HD 7770 iCooler em cerca de 7%.

Metro 2033
Os 12% de aumento no desempenho graças ao overclock a deixam logo atrÁs da HD 7770 iCooler, da HIS. Mesmo assim, ela continua cerca de 10% inferior à Black Edition da XFX.

 

{break::Conclusão}A nova geração Kepler trouxe avanços significativos para a comunidade gamemaníaca. Contudo, o seu Calcanhar de Aquiles era o público alvo. De acordo com um levantamento do Steam, mais de 90% dos jogadores compram placas 3D na faixa entre US$100-299. Ou seja, um amplo mercado para as GeForces intermediÁrias de baixo custo, como é o caso das recém lançadas GTX 660 e GTX 650.

Outra questão diz respeito às tecnologias presentes nas VGAs. Ainda segundo o Steam, 53% dos gamers ainda estão "presos" ao DirectX 10 ou inferior. Com a chegada cada vez maior de jogos free-to-play com suporte a novos recursos grÁficos, é natural que tal público, venha em um futuro próximo, atualizar suas GPUs.

Portanto, a mensagem da NVIDIA com a GTX 650 é clara: massificar o uso do DirectX 11 e das novas tecnologias proprietÁrias (como é o caso do PhysX, dos filtros FXAA/TXAA e do Adptive VSync) para os gamemaníacos.

Conforme evidenciado em nossos testes, a MSI GeForce GTX 650 Power Edition OC cumpre o que se espera de uma VGA de sua categoria: um desempenho suficiente para rodar a grande maioria dos atuais games em boas condições de jogabilidade, sem a necessidade de gastar uma "pequena fortuna".

Apesar de ter "armas" à altura para competir no acirrado segmento intermediÁrio de baixo custo, a GTX 650 tem fortes concorrentes, como é o caso das Radeons HD 7750 e 7770, além do "fogo amigo" da GTX 550 Ti.

Para quem procura uma GTX 650 com "algo" a mais, a MSI GeForce GTX 650 Power Edition OC é uma grande pedida, ao reunir diferenciais bem interessantes, como é o caso do projeto diferenciado, GPU turbinada, e acima de tudo, o eficiente e original sistema de refrigeração, onde o usuÁrio escolhe como deseja configurar o uso das ventoinhas.




PRÓS
Sistema de refrigeração eficiente e bastante silencioso;
Excelente acabamento;
Preço bastante competitivo para segmento;
Sistema de auto limpeza da ventoinhas (FANs);
GPU overclockado de fÁbrica;
Sistema de FAN com três modos se adaptando a necessidade do usuÁrio;
Placa funciona com temperatura "baixa".
CONTRAS
Poderia vir com memória overclockada de fÁbrica;
Apesar do baixo TDP, o consumo de energia poderia ser menor;
Ausência do GPU Boost.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.