ANÁLISE: Nvidia GeForce GTX 550 Ti

ANÁLISE: Nvidia GeForce GTX 550 Ti

A NVIDIA lançou no último dia 15 de março, a GeForce GTX 550 Ti, placa voltada para o segmento intermediÁrio e que despertou bastante atenção do público ao prometer um bom desempenho com preço bastante atraente.

Um fato curioso - certamente uma sugestão da equipe de marketing - diz respeito à nomenclatura. Sai de cena o prefixo GTS (normalmente utilizado em placas de um segmento mais baixo) para entrar o GTX (usado em VGAs mais robustas). Outro ponto é a utilização do sufixo Ti, que assim como utilizado na GTX 560, denota um "ar" de maior potência.

Apesar do nome, e de não possuir números tão impactantes aos olhos em suas especificações à primeira vista, a GTX 550 Ti tem como missão suceder a GTS 450, um produto bastante popular em virtude, sobretudo, de sua relação de custo x benefício.

A placa tem como cérebro o chip GF116, versão aprimorada do GF106, presente na GTS 450. Na realidade, como veremos adiante, a GPU da GTX 550 Ti goza sobretudo, da vantagem de possuir todos os recursos do GF106 ativados, além, é claro, da reengenharia a qual fora submetida pelos engenheiros da NVIDIA.

Embora tenha como missão brigar com a Radeon HD 5770/6770, a GTX 550 Ti deverÁ sofrer uma forte pressão de "dentro de casa", ou seja, da GTX 460 de 768MB, dada a diferença mínima de preço entre as duas.


Assim como as demais VGAs da geração Fermi, a GeForce GTX 550 Ti estÁ amparada em duas pilastras: alto poder de processamento e suporte às novas tecnologias, como é o caso do DirectX 11, NVIDIA 3D Vision Surround, CUDA, Tesselation, Ray Tracing e o novo modo de filtro 32xCSAA (Coverage Sampling Antialiasing), sendo 8 do tipo "multisamples" e 24 "coverage samples".

Vale ressaltar que esta review só foi possível graças ao apoio recebido pela NVIDIA, que mais uma vez cede à Adrenaline, uma placa de nova geração, possibilitando assim que nossos leitores tenham informações completas em português sobre o produto, facilitando assim a tomada de decisão na escolha de qual VGA comprar.

{break::Arquitetura da GF116}A geração Fermi foi para a NVIDIA o passo à frente mais significativo em termos de avanço na macro-arquitetura das GPUs desde o lançamento da primeira G80, inaugurando o que se conhece muito bem hoje como o conceito de grÁficos unificados e computação paralela

- Continua após a publicidade -

Com os novos chips grÁficos, os engenheiros da NVIDIA empregaram todo o seu conhecimento adquirido ao longo das duas últimas gerações, bem como todos os aplicativos, e desenvolveram uma abordagem totalmente nova de design para criar a primeira GPU computacional do mundo a utilizar estrutura conjugada MIMD (Múltiplas Instruções, Múltiplos Dados).

Abaixo, alguns pontos-chaves da nova arquitetura.

• Otimização na Performance de Precisão Dupla: Enquanto a performance de ponto flutuante de precisão única foi da ordem de dez vezes o desempenho dos processadores, algumas aplicações de computação por GPU necessitam de mais desempenho de precisão dupla;

• Suporte à ECC: O chamado ECC (Error-Correcting Code memory em tradução livre, código de correção de erro de memória) se encarrega de fazer os devidos testes e correções de erros de forma automÁtica, muitas vezes de forma transparente e imperceptível ao sistema operacional. Assim, abre-se espaço para a utilização, de forma segura, de uma grande quantidade de GPUs em Datacenters, garantindo uma maior confiabilidade em sistemas críticos, tais como aplicações médicas, financeiras e militares;

• Hierarquia de Memória Cache Real: Alguns algoritmos paralelos eram incapazes de usar a memória compartilhada da GPU, de forma que os usuÁrios solicitaram uma arquitetura real para ajudÁ-los nos desenvolvimentos das tarefas e programas;

• Mais Memória Compartilhada: Muitos programadores do ambiente CUDA solicitaram mais de 16 KB de memória compartilhada para os Streaming Multiprocessors como forma de acelerar as aplicações;

• Alternância de Contexto Mais RÁpida: Muitos usuÁrios desejavam uma alternância de contexto mais veloz entre aplicações e interoperações de computação e grÁficos;

• Operações Atômicas mais Velozes: Os programadores necessitavam de operações atômicas de leitura-modificação-escrita mais velozes para se adequarem aos algoritmos paralelos.

Como resultado dos preceitos acima, a equipe de desenvolvimento da Fermi projetou uma linha de chips com significativo "poder de fogo", trazendo ainda muitas inovações tecnológicas com um alto grau de programação e eficiência computacional.

(Arquitetura da GF116)

- Continua após a publicidade -

Seguindo a arquitetura da geração Fermi, o GF116 conta com uma estrutura de processamento "host interface", no qual hÁ um grande bloco chamado pela NVIDIA de "Gigathread Engine" composto de 1 GPC (Graphic Processing Cluster), três controladoras de memória , três partições ROPs e cache L2 com 384KB. Em outras palavras, e a grosso modo, o GF116 é uma versão "simplificada" do GF114, com praticamente a metade das especificações da GPU da GTX 560 Ti.

Vale ressaltar que o GPC (que são, na realidade, grandes unidades de processamento e se comportam como mini GPUs independentes) possui 4 unidades de Streaming Multiprocessor (SMs), cada uma composta por 48 CUDA Cores. Dessa forma, a GF116 tem um total de 192 Shaders Processors (1 GPC x 4 SMs x 48 CUDA Cores).

Em se tratando de unidades de texturas de memória, a GTX 550 Ti possui a mesma quantidade de TMUs por unidade de Streaming Multiprocessor que a GTX 560 Ti, isto é, 8TMUs por SM. Contudo, como o GF116 possui a metade da quantidade de SMs que o GF114, enquanto que a GeForce GTX 560 Ti tem um total de 64 TMUs, a sua "irmã menor" possui 32 TMUs (4 SMs x 8 TMUs).

Em relação a quantidade de unidades de rasterização, enquanto que o GF114 possui 32 ROPs, (4 conjuntos de 8 ROPs), o GF116 possui 24, em virtude de contar com 3 unidades.

Os mais atentos perceberão que a grande "novidade" do chip GF116 frente ao GF106 estÁ na adição de uma nova partição ROP e de uma controladora de memória de 64 bits, resultando assim na ampliação de 16 unidades rasterizadoras para 24 ROPs, bem como o bus, passando de 128 bits para 192 bits. Somando-se estes fatores ao fato da placa contar com clocks mais generosos que o da GTS 450, a GTX 550 Ti consegue assim se sobressair frente a sua "irmã mais velha" principalmente quando utilizado resoluções intermediÁrias (como 1680) com o uso de filtros da AA e Aniso.



(Arquitetura da GF106 - GTS 450 - Notem a ausência de uma terceira partição ROP e de uma controladora de memória extra)

Um dos grandes segredos do GF116 (assim como do GF114) estÁ no design e disposição de algumas estruturas internas, como é o caso da relação entre SM e CUDA Cores. Enquanto que no GF100/GF110 hÁ 32 CUDA Cores por SM, no GF116 hÁ 48 por Streaming Multiprocessor. Desta forma, os SMs da GTX 550 Ti são capazes de processar as informações de forma mais eficiente que a de sua irmã maior. Enquanto que a GTX 580 possui 4 TMUs por SM, a GTX 550 Ti possui 8 por SM, outro benefício advindo da mudança de design. Além disso, enquanto que o GF110 possui duas dispatch units por SM, o GF116 possui o dobro de unidades, ou seja, 4.

Em contrapartida aos Combinadores de Registros, Unidades de Shaders e Shaders Cores presentes nas gerações passadas, os novos CUDA Cores são o que existem de "última palavra" em termos de tecnologia. Tratam-se de unidades autônomas capazes de processar múltiplas instruções e múltiplos dados (arquitetura MIMD), em oposição ao SIMD (instrução única, múltiplos dados). Assim, os 192 CUDA Cores consistem em unidades de despachos, coletores de operações, 2 unidades de processamento (inteiros e pontos flutuantes) e registradores de filas de resultados.

Para ser sincero, o cluster de Streaming Multiprocessor é a grande razão pela qual a arquitetura da Fermi pode, desde jÁ, ser vista como a mais eficiente no que diz respeito à unidade de processamento grÁfico. Olhando para a imagem acima, podemos ver que os 48 CUDA Cores foram "empacotados" juntos com 64KB de memória cache dedicada que alterna entre os modos 48KB/16KB ou 16KB/48KB para toda a memória compartilhada e cache L1. Essa computação dinâmica irÁ ajudar os desenvolvedores a otimizar a performance de seus games, em virtude da arquitetura ser bastante flexível.

- Continua após a publicidade -

Além disso, hÁ ainda as unidades Warp Scheduler e Master Dispatch que se alimentam de arquivos de registros (Register Files) imensos (32.768 entradas de 32bits – o arquivo de registro pode aceitar formatos diferentes ou seja, 8bits, 16bits, etc). O cluster SM possui ainda 4 TMUs, cache de textura e o mais importante de tudo: Polymorph Engine.

A Polymorph Engine foi introduzida na Fermi para lidar com uma enorme carga de trabalho que as novas funções necessitam. Uma delas é a técnica conhecida como Tessellation (que é um dos grandes trunfos do DirectX 11), em que o número de triângulos em uma cena pode aumentar de forma exponencial.

A GTX 550 Ti possui um total de 4 PolyMorph Engines. Esse fato é amplamente ressaltado pela NVIDIA, uma vez que as Radeons 5770/6770 contam apenas com uma grande unidade para o processamento do tessellation.

As unidades ROPs receberam uma atenção especial por parte da equipe de desenvolvimento. O resultado é que, em alguns casos, o ganho de performance pode ser 3 vezes superior em relação à GeForce GTX 285 com o filtro de Anti-aliasing ligado!

Por falar nisso, a Fermi suporta o modo 32x CSAA (8+24x) com 33 níveis de transparência, com expressivo ganho de desempenho sobre a GT200. O melhor de tudo é que, segundo a NVIDIA, a degradação da performance é muito pequena em relação ao modo tradicional em 8X, variando entre 8-15%. Para quem critica e acha que a utilização de filtro de AA acima de 8x não traz ganho visível, segue abaixo uma imagem, seguindo o dito de que uma imagem vale mais que mil palavras.



Em relação às memórias caches, enquanto a GT200 estava limitada ao compartilhamento de nível L2, a Fermi conta ainda com o nível L1, auxiliando sobremaneira o trabalho dos Shaders Processors. São ao todo 1MB de cache L1 e 384KB de L2.

De acordo com Henry Moreton, engenheiro da NVIDIA, o cache L1 da Fermi pode ultrapassar a impressionante marca de 1,5TB/s de largura de banda. Valor muito semelhante ao que chega o L2.


Ainda dentro do assunto memória, conforme mencionado no início deste tópico, a GeForce GTX 550 Ti tem um total de 3 controladoras de 64 bits, resultando assim em um bus de 192 bits. Contudo, muitos devem estar se perguntando como que a placa possui 1GB de VRAM.

Antes da chegada da GTX 550 Ti, as VGAs possuíam um arranjo harmônico em termos de módulos de memória por cada controladora. Foi assim, por exemplo, com a GTX 560 Ti, onde cada controladora de memória possui um arranjo de 2 módulos de memória de 128MB, resultando assim em um total de 1GB de VRAM. Em outras palavras, cada controladora normalmente estava associada à módulos de 64/128/256MB.

Com a nova placa intermediÁria, a NVIDIA se viu em um dilema: enquanto que 768MB, além de não ser um destaque comercial frente aos concorrentes com 1GB e não ser uma quantidade de memória ótima para os novos games, o uso de 1536MB de memória traduziria em custos extras à uma VGA do segmento da GTX 550 Ti, o que acabaria resultando em um preço final maior, tirando assim qualquer competitividade da placa frente as suas rivais.

Desta forma, a NVIDIA utilizou uma tecnologia proprietÁria que permite o gerenciamento da controladora com módulos de diferentes capacidades. Com isso, a GeForce GTX 550 Ti tem dois canais preenchidos com 256MB de memória (em dois módulos de 128MB), enquanto que o terceiro é emparelhado com 512MB de VRAM.

{break::Os recursos da GTX 550 Ti}Os destaques da GeForce GTX 550 Ti são:

• 1,17 bilhão de transistores;
• Litografia em 40 nm;
• Área do die (estimado): ~238mm²
• Frequência de operação das texturas e ROPs (GPU): 900Mhz;
• 192 shader processors/CUDA cores;
• Frequência de operação dos shaders processors/CUDA cores: 1800MHz;
• Frequência de operação das memórias: 4.1GHz (GDDR5);
• Quantidade de memória: 1GB;
• Interface de memória: 192 bits;
• Consumo de energia/TDP: mÁximo de 116 watts;
• Limiar térmico da GPU em 100° C;
• Suporte às tecnologias: CUDA, DirectX 11/Shader Model 5.0, GeForce 3D Vision, NVIDIA 3D Vision Surround, NVIDIA PhysX, PureVideo HD Technology, Badaboom, HDMI 1.4a, OpenGL 3.2, OpenCL, DirectCompute, Windows 7.

E ainda:

• Terceira Geração do Streaming Multiprocessor (SM)

• Segunda Geração de Execução de Thread Paralelo ISA
- Espaço de Endereçamento Unificado com suporte completo a C++;
- Otimização para OpenCL e DirectCompute;
- Precisão completa para IEEE 754-2008 32-bit e 64-bit;
- Caminho completo para inteiros de 32-bit e extensões de 64-bit;
- Instruções de acesso a memória para suportar a transição no endereçamento de 64-bit;
- Melhora na performance através da técnica de Predicação.

• Subsistema de Memória Otimizada
- Utilização da hierarquia NVIDIA Parallel DataCacheTM com L1 ajustÁvel e L2 unificada;
- Primeira GPU com suporte a memórias ECC;
- Otimização no desempenho das operações atômicas de memória.

• NVIDIA GigaThreadTM Engine
- 10x mais rÁpido nas aplicações de alternância de contexto;
- Execução simultânea de Kernel;
- Execução de blocos de theads fora de ordem;
- Engine de transferência de memória com dupla sobreposição.

Baseado no GF106 (GTS 450) o chip GF116 é uma versão mais "enxuta" em relação ao GF110 (GTX 580/570), muito embora traga em sua estrutura uma relação mais otimizada em termos de Shader Processors por clusters que o seu "irmão maior" (48 CUDA Cores contra 32), traduzindo em uma performance mais eficiente por mm².

Graças a toda uma nova reengenharia pela qual passou o chip, como a utilização de transistores com menos perda de energia dispostos em um novo arranjo físico, foi possível manter o consumo de energia praticamente inalterado em relação à GTS 450, apesar da adição de uma partição ROP e de uma controladora extra de memória, além do expressivo aumento nos clocks.

O GF116 tem aproximadamente 45% dos 530mm² de Área de die do GF110 ou 68% dos 348mm² do GF114, ou seja, algo em torno de 238mm². Trata-se de uma expressiva redução em relação às "suas irmãs maiores". Na prÁtica, a diminuição trouxe para a NVIDIA uma grande queda no custo de produção da GPU, na medida em que mais chips podem ser alocados no waffer de 300mm.

Essa diminuição na Área do die só foi possível, graças à redução na quantidade de transistores. Enquanto o GF110 tem cerca de 3 bilhões de transistores e o GF114 possui 1,95 bilhão, o GF116 conta com 1,17 bilhão, isto é, 60% do total da GTX 560 Ti. Não é por acaso que a NVIDIA conseguiu reduzir o TDP de 170W do GF114 para 116W da GTX 550 Ti.

Sendo assim, para suprir tal demanda de energia, a VGA necessita apenas de um conector de alimentação extra de 6 pinos (75W). Aliados aos 75W do slot PCIe, a GTX 550 Ti tem a disposição uma margem extra de 34W, podendo ser utilizado para overclock. De acordo com a NVIDIA, é recomendado o uso de uma fonte real de pelo menos 400W.

Como a GTX 550 Ti é, em tese, a substituta da GTS 450, façamos uma rÁpida comparação em suas especificações.

Conforme destacado, a placa é essencialmente equipada com o mesmo chip de sua "irmã mais velha". Desta forma, é natural que ambas possuam a mesma quantidade de CUDA Cores e TMUs, ou seja, respectivamente em 192 e 32. Por sinal, são justamente estes os fatores responsÁveis por "segurar" o seu desempenho frente à GTS 450.

Além dos jÁ mencionados ROPs e controladoras extras, traduzindo assim em um ganho de 50% frente à GTS 450, um dos fatores mais importantes em favor da GTX 550 Ti estÁ no significativo aumento nos clocks. A GPU e CUDA Cores tiveram um incremento de 15%, passando respectivamente de 783Mhz para 900Mhz e 1566Mhz para 1800Mhz. Por fim, as memórias sofreram um aumento de 14%, pulando de 3608Mhz para 4104Mhz. AliÁs, somando-se o aumento no clock das memórias, com a presença de um bus mais robusto, a GTX 550 Ti teve um aumento de 71% na largura de banda da memória em relação à GTS 450, fator que pode fazer a diferença na utilização de games em resoluções maiores e com os filtros ativados.


{break::Novidades do DirectX 11}Como foi dito no início desta review, um dos grandes trunfos da geração Fermi é o suporte à nova API grÁfica da Microsoft, o DirectX 11, focada principalmente em seu principal recurso em termos de aprimoramento da qualidade das imagens: o Tessellation.

As novidades presentes no DX11 são:

- DirectCompute 11;
- Hardware Tessellation;
- High Definition Ambient Occlusion;
- Shader Model 5.0;
- Depth of Field; e
- Renderização Multi-threaded (Multi-threading).



DirectCompute 11
O DirectCompute é um dos grandes trunfos do DX11, pois possibilita que os desenvolvedores utilizem a GPU para o processamento de outras tarefas alheias à renderização 3D. Trata-se do conceito por trÁs do termo GPGPU, que transforma a placa de vídeo em um processador.

Os benefícios não ficam restritos às aplicações gerais. Nos games, por exemplo, é possível programar para que a GPU cuide de tarefas como o processamento e filtro das imagens (conceito de post processing). Ela também pode ficar responsÁvel por outros aspectos, como o Order Independent Transparency - OIT (técnica de sobreposição de objetos que aperfeiçoa o efeito de semi-transparência – como, por exemplo, na criação de efeito de fogo, fumaça, cabelo, vidro), a renderização de sombras, a física e a inteligência artificial, além de prevenir erros no processamento da priorização da formação das imagens.

Não é apenas o quesito qualidade que foi beneficiado com o OIT. Enquanto o método Simple Alpha Blending (SAB) presente no DX10 necessita de 64 passagens para a renderização, o OIT requer uma única leitura, ou seja, hÁ também uma expressiva otimização do processo.

Hardware Tessellation
Trata-se de um dos benefícios mais aguardados pela indústria dos jogos eletrônicos.

Embora a ATi tenha implementado a tecnologia Tessellation jÁ nas Radeons HD série 2000, somente agora tal funcionalidade começa a ser utilizada em sua plenitude nas placas 3D modernas, em virtude da adição de dois tipos de shaders (Hull e Domain) ao Shader Model 5.0.

De forma simplista, trata-se da tecnologia que adiciona, em tempo real, mais detalhes aos objetos 3D. Para tanto, subdivide-se um objeto/superfície em pedaços menores, acrescentando polígonos mais simples (de fÁcil execução).

Em outras palavras, ao invés de a GPU gastar um grande tempo para o processamento de um objeto único (ou parte de um grande objeto) e complexo de uma única vez, o Tessellation "quebra" o mesmo em partes menores de forma a tornar a tarefa mais simples e rÁpida.

Assim, os desenvolvedores estão agora "impedidos" de acrescentar mais objetos e detalhes aos games. Com o Tessellation, o processamento dos terrenos/solos serÁ muito mais simples e rÁpido, sem contar que permitirÁ que os programadores criem texturas e maiores detalhes - como a deformação dinâmica - resultando em um maior realismo ao jogo.

Nas fotos abaixo, é possível perceber com nitidez a diferença na qualidade da imagem quando a tecnologia é utilizada.




(imagens à esquerda sem a técnica; e à direita com a técnica)

High Definition Ambient Occlusion
Trata-se de outra técnica de efeito de pós-processamento de imagem, que melhora as sombras e luzes, além de aumentar a sensação de profundidade dos objetos (3D).

Para isso, a Microsoft disponibilizou dois novos métodos de compressão de texturas: os filtros BC6 e BC7. O primeiro oferece uma taxa de compressão de 6:1 com 16 bits por canal e sem perdas, mostrando-se uma texturização eficiente e de alta qualidade para a iluminação HDR. JÁ o BC7 oferece compressões de 3:1 com o padrão de cores RGB ou 4:1 para Alpha.


Shader Model 5.0
O DX11 introduz a versão 5.0 do Shader Model para a linguagem de programação HLSL, na qual adiciona precisão dupla para o processo, permitindo o uso específico dos shaders com polimorfismo, objetos e interfaces.

Na verdade, diferentemente das versões anteriores, o SM 5.0 não traz grandes avanços em termos de capacidades, mas promete facilitar o trabalho dos desenvolvedores ao introduzir certos conceitos de programação orientada a objetos.

Depth of Field
O método adiciona efeitos bem interessantes envolvendo o foco da imagem (primeiro plano) e o plano de fundo, para dar um aspecto cinemÁtico às imagens.

O Depth of Field utiliza um filtro de núcleo nos pixels da imagem processada como um efeito de pós-processamento. Este utiliza os dados dos pixels adjacentes para criar efeitos como borrado de movimentos, mapeamento de tom, detecção de bordas, suavização e nitidez.

Renderização Multi-threaded
É a técnica pela qual as GPUs processam os dados de forma simultânea, e não mais em sequência como em uma fila. O ganho, claro, estÁ na eficiência no processamento, resultando em uma melhor performance.

Embora existam pouquíssimos jogos prontos ou em desenvolvimento sob o DirectX 11, é justo dizer que a sua adoção estÁ sendo feita de forma mais acelerada em relação à versão 10.

{break::Outras tecnologias}CUDA

Trata-se da abreviação para Compute Unified Device Architecture (em tradução livre: Arquitetura de Dispositivo Unificado de Computação). Em outras palavras, CUDA é o nome dado pela NVIDIA para designar a arquitetura de computação paralela mais conhecida como GPGPU (general-purpose computing on graphics processing units).

Sem maiores complicações ou termos técnicos, trata-se da tecnologia na qual se utiliza uma GPU (chip grÁfico) para realizar uma tarefa comumente executada por um processador (CPU). Isso só é possível graças à adição de estÁgios programÁveis e da aritmética de maior precisão contidas nos canais de processamento da GPU, que permite que os desenvolvedores de programas utilizem o processamento de fluxo de dados para dados não grÁficos.

Apresentada inicialmente em 2007, a tecnologia CUDA estÁ presente em uma vasta gama de chips da NVIDIA, tais como nas GPUs de classe científica Tesla, nas profissionais Quadro, além, é claro, das GeForces desde a geração G8x.

De acordo com vÁrios experts no assunto, a grande vantagem de utilizar uma GPU ao invés de uma CPU para realizar tarefas do cotidiano estÁ na arquitetura por trÁs do chip grÁfico, massivamente focado na computação paralela, graças à imensa quantidade de cores/núcleos. Eles são, portanto, capazes de rodar milhares de threads simultaneamente. Dessa forma, aplicações voltadas para a biologia, física, simulações, criptografia, entre outras, terão um benefício muito maior com a tecnologia GPGPU/CUDA.

No campo dos games, a renderização dos grÁficos torna-se muito mais eficiente com a Compute Unified Device Architecture, como é o caso, por exemplo, dos cÁlculos dos efeitos da física (como é o caso da fumaça, fogo, fluidos...)

Atualmente, é o processo de GPGPU mais difundido no mercado, contando com mais de 100 milhões de placas compatíveis.

PhysX

Embora seja uma das grandes "vedetes" dos games modernos, a tecnologia de processamento da física é uma tecnologia que jÁ vem de alguns anos.

Lançada inicialmente em 2005 pela então AGEIA, com a sua famigerada PPU (Physics Processing Unit – um tipo de chip exclusivo para o processamento da física), a iniciativa nunca chegou a decolar em virtude de seu alto custo para a época, apesar de toda a promessa por trÁs da tecnologia.

Contudo, a NVIDIA enxergou na PPU da AGEIA uma imensa oportunidade pela frente. Tanto foi que, em 2008, anunciou para o mercado a compra da companhia, bem como de seu bem mais precioso: a tecnologia PhysX. Logo, a NVIDIA passou a incorporar os benefícios da PPU dentro de suas GPUs.

Muito bem, mas o que vem a ser exatamente o tal cÁlculo da física presente no PhysX? Trata-se da técnica na qual o chip grÁfico realiza uma série de tarefas específicas em um game, tornando-o mais realista para o jogador, ao adicionar ambientes físicos vibrantes, de imersão total.

A física é o próximo passo na evolução dos jogos. Trata-se da forma como os objetos se movimentam, interagem e reagem ao ambiente que os cerca. Em muitos dos jogos atuais, sem física, os objetos não parecem se mover da forma desejada ou esperada na vida real. Hoje em dia, a maior parte da ação se limita a animações pré-fabricadas, que são acionadas por eventos do próprio jogo, como um tiro que acerta a parede. Até as armas mais pesadas produzem pouco mais que uma pequena marca nas paredes mais finas, e todos os inimigos atingidos caem da mesma forma jÁ programada. Para os praticantes, os jogos são bons, mas falta o realismo necessÁrio para produzir a verdadeira sensação de imersão.

Em conjunto com as GPUs GeForce habilitadas para a CUDA, o PhysX oferece a potência computacional necessÁria para produzir a física avançada e realista nos jogos de próxima geração, deixando para trÁs os efeitos de animação pré-fabricados.

É através do cÁlculo da física que, por exemplo, uma explosão parece mais real para o usuÁrio, uma vez que se pode gerar um verdadeiro "efeito dominó" por trÁs deste evento. Assim, é possível adicionar uma série de elementos para a cena, como é o caso de estilhaços, e não mais apenas o fogo em si e a fumaça.

O PhysX é responsÁvel, dentre outras funções, por processar as seguintes tarefas em um game:

• Explosões com efeitos de poeira e destroços;
• Personagens com geometrias complexas e articuladas para permitir movimentação e interação mais realistas;
• Novos e incríveis efeitos nos efeitos dos disparos de armas;
• Tecidos que se enrugam e rasgam naturalmente;
• Fumaça e névoa formadas em torno de objetos em movimento.


(Vídeo de Batman Arkham Asylum, que compara o game com e sem o PhysX)

Ironias à parte, atualmente é possível utilizar, por exemplo, uma GeForce mais simples como uma PPU (exclusivo para o processamento da física), deixando uma segunda placa da NVIDIA de classe superior responsÁvel para o processamento principal. Infelizmente, a companhia bloqueou em seus drivers a utilização de uma GeForce em conjunto com uma Radeon.

Na teoria, uma placa da ATI até pode realizar os cÁlculos da parte física sem possuir o PhysX, mas, na prÁtica, o resultado é desastroso, derrubando os FPS para níveis que podem, em certos casos, inviabilizar a prÁtica do jogo.

3D Vision (óculos 3D)

Lançado no início do ano de 2009 durante a Consumer Electronic Show (CES) em Las Vegas, Estados Unidos, o 3D Vision foi, de início, motivo de certa desconfiança por parte da comunidade. A razão nada teve a ver com a tecnologia em si (muito boa por sinal), mas sim por experiências nada bem-sucedidas de outras empresas no passado.

Antes do 3D Vision, basicamente a sensação de imagens tridimensionais era (e na maioria dos casos ainda é) feita por óculos anaglíficos (famosos por suas lentes na cor azul e vermelha), ou por lentes mais elaboradas com LCD (aos moldes dos óculos presentes no Master System), mas que pecavam por suas limitações técnicas. Era esse o caso das televisões e monitores de CRT (tubo) que causavam dores de cabeça com o uso prolongado ou de LCDs com baixa taxa de atualização (refresh rate).

Contudo, a NVIDIA lançou um produto sem impedimentos técnicos, aproveitando-se da nova geração das telas de cristal líquido, com nada mais nada menos do que 120Hz (60Hz para cada olho humano).

Não basta apenas comprar o kit e um monitor especial e sair usufruindo da tecnologia. É preciso que o jogo tenha suporte a imagens em três dimensões. Dessa forma, o driver ForceWare reconhece a compatibilidade e entra em ação, acionando o 3D Vision e alternando os frames para o lado esquerdo e direito do óculos a cada atualização de imagem (técnica conhecida como multiplexação sequencial de tempo). Utilizando-se dos dados contidos na engine Z-buffer, o programa é capaz de criar uma representação 3D do game, ao invés de apenas duplicar e compensar a imagem para criar o efeito, como faz, por exemplo, o monitor Triton da Zalman, dinamicamente alternando a profundidade e então a distância dos objetos no game.

Trata-se, na verdade, de uma ação extremamente ambiciosa e ousada da NVIDIA, uma vez que tem que contar com o apoio das produtoras para disponibilizar cada vez mais títulos compatíveis com a tecnologia. Porém, para a felicidade da gigante das GPUs, a companhia dispõe do programa "The Way It's Meant To Be Played", em que atua em conjunto com diversos estúdios dando o suporte para o desenvolvimento de novos jogos.

Vale ressaltar que a tecnologia não estÁ limitada apenas aos games. É possível, por exemplo, desfrutar de imagens e vídeos em três dimensões.

Utilizado em conjunto com as GPUs GeForce, o 3D Vision consiste nos seguintes componentes:

• Óculos Sem Fio 3D Estereoscópico Ativo
Projetado com lentes especiais, oferece o dobro de resolução por olho e ângulo de visão superior, em comparação com os óculos passivos. Parecidos com os óculos de sol, são uma alternativa aos tradicionais óculos 3D de papel e plÁstico.

• Emissor Infravermelho de alta potência (porta USB)
Transmite dados diretamente para os óculos 3D, a uma distância de até seis metros, além de possuir um controle de ajuste em tempo real.

• Monitores Ultra-Flexíveis
Projetado para os monitores LCD de 120Hz ViewSonic e Samsung, HDTVs Mitsubishi DLP 1080p, e projetores DepthQ HD 3D, o 3D Vision produz imagens 3D estereoscópicas nítidas em soluções de todos os tipos. 

• Softwares de Compatibilidade
Softwares da NVIDIA convertem automaticamente mais de 300 jogos para o formato 3D Stereo, sem a necessidade de patches ou atualizações. O 3D Vision também é a única solução 3D a suportar as tecnologias SLI, PhysX, e o Microsoft DirectX 10.

• Visualizador 3D
Inclui também um visualizador 3D Vision gratuito que permite a captura de screenshots e sua posterior visualização em 3D. Também é possível importar fotos e vídeos 3D de diversas outras fontes, como galerias de fotos da Internet.


Não bastasse tudo isso, recentemente a NVIDIA ampliou a tecnologia, com o lançamento do 3D VISION SURROUND (imagem acima), que nada mais é do que ampliar a capacidade para até três monitores simultamente, formando assim uma ampla Área de visualização em três dimensões.

Para saber mais detalhes sobre a tecnologia, leia nossa review completa do 3D Vision aqui.

SLI

Antes de iniciarmos a falar da tecnologia SLI, é preciso voltar no tempo. Em 1998, em uma época em que Radeons e GeForces eram meras coadjuvantes, havia uma Rainha das Placas 3D: a Voodoo 2 da então 3Dfx. A placa tinha como destaque o suporte ao SLI (Scan Line Interleaving), que possibilitou colocar duas VGAs PCI (não confundir com o atual PCIe) Voodoo 2 para renderizar os grÁficos em regime de cooperação, dividindo as linhas de varredura em pares e ímpares, sendo que cada uma das placas ficava encarregada de processar um tipo de linha. Como resultado, o ganho de performance foi imenso para a época.

Sendo assim, o objetivo da tecbnologia SLI presente tanto na antiga Voodoo 2 quanto nas modernas GeForces é o mesmo: unir duas ou mais placas de vídeo em conjunto para produzir uma única saída. Trata-se, portanto, de uma aplicação de processamento paralelo para computação grÁfica, destinada a aumentar o poder de processamento disponível nas placas 3D.

Depois de comprar a 3Dfx em 2001, a NVIDIA adquiriu a tecnologia, mas deixou-a "engavetada" até 2004, quando a reintroduziu com o nome de Scalable Link Interface. Contudo, a tecnologia por trÁs do nome SLI mudou dramaticamente.

Enquanto o modo SLI original dividia as linhas da tela (scan-lines) entre as placas — uma renderizava as linhas horizontais pares, enquanto a outra renderizava as ímpares — o modo SLI adotado pela NVIDIA (e também no CrossFire da ATI) separa o processamento por partes da tela (split frame rendering) ou em quadros alternados (alternate frame rendering). Abaixo, maiores detalhes dos métodos:

• SFR (Split Frame Rendering ou Renderização por Divisão de Quadros)
Trata-se do método em que se analisa a imagem processada a fim de dividir a carga de trabalho em duas partes iguais entre as GPUs. Para isso, o frame/quadro é dividido horizontalmente em vÁrias proporções, dependendo da geometria. Vale destacar que o SFR não escalona a geometria ou trabalho tão bem como no AFR. Esse é o modo padrão usado pela configuração SLI usando duas placas de vídeo.

• AFR (Alternate Frame Rendering ou Renderização Alternada de Quadros)
Aqui, cada GPU renderiza frames/quadros inteiros em sequência - uma trabalhando com os frames ímpares e outra ficando responsÁvel pelos pares, um após o outro. Quando a placa escrava/secundÁria finaliza o processo de um quadro (ou parte dele), os resultados são enviados através da ponte SLI para a VGA principal, que então mostra o frame por completo. Esse é o modo utilizado normalmente pelo Tri-SLI.

• AFR de SFR
Como o próprio nome sugere, trata-se do método híbrido, no qual os dois processos descritos acima são utilizados. Desta forma, duas GPUs processam o primeiro quadro via SFR, enquanto as outras duas renderizam o frame seguinte também em SFR. Como é possível perceber, é necessÁrio, portanto, de quatro placas 3D, em um conjunto chamado Quad-SLI.

• SLI Antialiasing
Esse é um modo de renderização independente voltado para a melhoria da imagem, que oferece até o dobro do desempenho com o filtro antialiasing (para retirar o efeito serrilhado) ativado, através da divisão da carga de trabalho entre as duas placas de vídeo. Enquanto com uma placa é possível normalmente utilizar até 8X de filtro antialiasing, com esse método ativado, pode-se chegar a 16X, 32X ou mesmo a 64X via Quad-SLI.

Assim como com o CrossFire, é preciso possuir uma placa mãe com slot PCI Express x16. Na verdade pelo menos dois, ou ainda com três ou quatro, para Tri-SLI ou Quad-SLI. Como a comunicação entre as placas é realizada via ponte SLI (conector dedicado que ligas as VGAs) e não pelo slot PCIe, não hÁ grandes problemas em utilizar o PCI Express na configuração x8.

Atualmente, não hÁ restrição quando aos tipos de placas a serem utilizadas no SLI, bastando apenas que as mesmas possuam o mesmo chip grÁfico. No início, a tecnologia restringia o uso a VGAs idênticas, do mesmo fabricante e, em alguns casos, com a mesma versão da BIOS! Felizmente, hoje isso é coisa do passado.

PureVideo

Trata-se do recurso de otimização de imagem e decodificação por hardware de vídeos nos formatos WMV, WMV-HD, MPEG4, DVD e HD-DVD, tendo ainda como vantagem o fato de desafogar a CPU do oneroso trabalho, transferindo a tarefa para a GPU. Dessa forma, o usuÁrio poderÁ ainda utilizar o computador para executar outras tarefas, como por exemplo, navegar pela web.

O PureVideo possui os seguintes recursos:

• Aceleração MPEG-2 de alta definição por hardware: Um processador dedicado de 16 vias proporciona fluência na reprodução de vídeo de alta definição (HD) com o mínimo uso da CPU;

• Aceleração WMV de Alta Definição por hardware: Suporte programÁvel ao novo formato disponível no Windows Media Player e no Windows XP MCE 2005, proporcionando fluidez na reprodução de vídeos WMV e WMV-HD;

• Gravação de vídeos em tempo real de alta qualidade: Uma avançada engine de compensação possibilita gravação em tempo real sem perda de qualidade;

• Desentrelaçamento temporal/espacial adaptÁvel: Permite assistir a conteúdo entrelaçado provindo de satélite, cabo e DVD nos mínimos detalhes sem serrilhados ou artefatos;

• 3:2 Correção "Pull-down" e Correção "Bad Edit": Restaura o filme ao seu formato original de 24 fps, evitando fantasmas e trepidações durante a reprodução;

• Flicker-free Multi-Steam Scaling: Mantém a qualidade de imagem aumentando ou diminuindo a Área da tela de reprodução;

• Display Gamma Correction: Detecção automÁtica de formato que ajusta a qualidade de cor na reprodução para que não seja muito escuro ou claro demais, independentemente da tela;

Badaboom

Trata-se da tecnologia utilizada para a conversão de diferentes formatos de streaming multimídia para utilização em outros meios. A grande diferença do Badaboom para a grande maioria dos outros programas existentes no mercado é que, enquanto seus concorrentes utilizam o processador para executar a tarefa, a solução da NVIDIA faz uso de outra tecnologia, a CUDA, ou seja, da GPU. Desta forma, o processo é realizado de forma muito mais rÁpida e eficiente.

Outro benefício é que, ao deixar a CPU livre, o usuÁrio poderÁ realizar outras atividades, como por exemplo, navegar pela a web. Na conversão tradicional via processador, a mÁquina fica praticamente inoperante para outras tarefas.

Na versão 1.2.1, o Badaboom Media Converter é vendido por US$30 e possui como um dos grandes destaques a facilidade na interface. O usuÁrio necessitarÁ apenas escolher a origem, ajustar as configurações e definir o destino.

Embora seja focado para os produtos da Apple, como iPhone, iPod e Apple TV, o usuÁrio poderÁ definir ainda uma série de opções de saída, como Xbox 360, PS3, PSP e HTPCs.

{break::Fotos}Como podemos ver abaixo, a GTX 550 Ti tem um layout semelhante a outros modelos de placas MID da Nvidia, parecendo bastante com uma GTX 460, inclusive fizemos tal comparação que também pode ser vista nas fotos.

Diferente dos modelos TOP, a GTX 550 Ti tem seu sistema de cooler aparafusado ao PCB através de uma base fixa em cima do chip. Fizemos a remoção do sistema de cooler para mostrar como é o acabamento dela.

Assim como a GTS 450, a placa precisa de apenas um conector de força de 6 pinos. Vemos também que a GTX 460 de 768Mb precisa de dois conectores.


{break::MÁquina/Softwares utilizados}Seguindo nosso padrão, utilizamos uma mÁquina TOP de linha baseada em um processador Intel Core i7 980X overclockado para 4.2GHz

As placas utilizadas nos comparativos foram, por parte da NVIDIA, a placa analisada, GeForce GTX 550 Ti, além da GeForce GTX 560 Ti, GTX 460 768 Mb e GTS 450. JÁ os modelos da AMD (ATi) foram a Radeon HD 6850 e 5770.

Abaixo, uma foto da GeForce GTX 550 Ti montada no sistema.

A seguir, os detalhes da mÁquina, sistema operacional, drivers, configurações de drivers e softwares/games utilizados nos testes.

MÁquina utilizada nos testes:
- Mainboard Gigabyte GA-X58A-UD9
- Processador Intel Core i7 980X @ 4.2GHz
- Memórias 4 GB DDR3-1600MHz Corsair
- HD 1TB Sata2 Western Digital Black
- Fonte XFX 850W Black Edition
- Cooler Thermalright Venomous X

Sistema Operacional e Drivers:
- Windows 7 64 Bits
- Intel INF 9.1.1.1025
- NVIDIA ForceWare 267.59: GTX 550 Ti
- NVIDIA ForceWare 266.56: GTX 560 Ti, GTX 460 768Mb, GTS 450
- ATI Catalyst 10.12 hotfix: Placas ATI

Configurações de Drivers:
3DMark
- Anisotropic filtering: OFF
- Antialiasing - mode: OFF
- Vertical sync: OFF
- Demais opções em Default

Games:
- Anisotropic filtering: Variado através do game testado
- Antialiasing – mode: Variado através do game testado
- Texture filtering: High-Quality
- Vertical sync: OFF
- Demais opções em Default

* Todos os filtros foram aplicados via game testado. Apenas o Starcraft II, que não possui configuração interna de filtros, nos obrigou a configurar via drivers.

Aplicativos/Games:
- 3DMark Vantage 1.0.2 (DX10)
- 3DMark 11 1.0.1 (DX11)
- Unigine HEAVEN Benchmark 2.1 (DX11)

- Aliens vs Predator (DX11)
- Crysis Warhead (DX10)
- DiRT 2 (DX11)
- F1 2010 (DX11)
- Tom Clancy´s HAWX 2 (DX 11)
- Just Cause 2 (DX10/10.1)
- Mafia II (DX9)
- Metro 2033 (DX11)
- StarCraft II: Wings of Liberty (dx10)

{break::GPU-Z, Temperatura}Abaixo temos a tela principal do aplicativo GPU-Z com detalhes técnicos da GeForce GTX 550 Ti.


Temperatura
Iniciaremos nossa bateria de benchmarks com um dos testes mais solicitados e importantes de uma VGA de alto desempenho: a temperatura.

Como podemos ver abaixo, a GTX 550 Ti se comporta muito bem com sistema em modo ocioso, onde a placa não estÁ sendo exigida, pelo menos não com suas principais características.

{benchmark::1515}

Em modo de uso contínuo a temperatura sobe de 31º para 66º, números considerados normais e dentro do esperado, até porque não tivemos grandes mudanças no sistema utilizado na GTS 450.

{benchmark::1516}

{break::3DMark Vantage, 3DMark 11}3DMark Vantage
Embora considerados testes bastante polêmicos por parte da comunidade, por serem tachados como benchs sintéticos que não refletem, muitas vezes, a condição da placa no mundo real (leia-se jogos), a série 3DMark é um dos indicadores de performance mais amplamente utilizados em todo o mundo e não poderíamos refutÁ-los

Iniciamos pelo Vantage onde a GTX 550 Ti se mostra uma concorrente direta da 5770(6770), ambas as placas empatadas tecnicamente.O ganho sobre o resultado da GTS 450 foi de 11%. Vemos também que nesse caso a nova placa não consegue fazer frente a GTX 460 de 768Mb, 28% a frente.

{benchmark::1517}

3DMark 11
Na nova versão do 3DMark temos uma mudança na tabela, com a 5770 passando a GTX 550 Ti, com resultado 7% em favor a placa da AMD.

O ganho da GTX 550 Ti sobre a GTS 450 é de 15%, pouco acima do alcançado com o Vantage.

{benchmark::1518}

{break::Unigine Heaven 2.1}Trata-se de um dos testes sintéticos mais "descolados" do momento, pois tem como objetivo mensurar a capacidade das placas 3D em suportar os principais recursos da API grÁfica DirectX 11, como é o caso do Tessellation.

O teste foi dividido em duas partes: uma sem e outra com o uso do Tessellation, ambas a 1920x1080 com o filtro de antialiasing em 8x e anisotropic em 16X.

Começando pelo teste com tessellation desativado, resultados bastante bons, colocando a GTX 550 Ti pela primeira vez a frente da GTX 460 768Mb, alias, ficando a frente também da 5770.

{benchmark::1519}

Com a tecnologia tessellation ativada em modo normal não tivemos mudança de posição na tabela, a GTX 550 Ti continua na terceira colocação a frente da GTX 460, com média de 11%.

{benchmark::1520}

{break::Aliens vs Predator}Chegamos finalmente ao ponto alto da review: os testes em jogos!

Nada melhor do que começar por Aliens vs Predator, game que traz o suporte ao DX11 e que foi muito bem recebido pelo público e crítica.

Podemos ver abaixo que a GTX 550 Ti fica com desempenho intermediÁrio entre GTX 460 e 5770. Outro ponto a ser destacado é o ganho sobre a GTX 450, em média sempre superior a 25%.

{benchmark::1521}

{benchmark::1522}

{break::Crysis Warhead}O FPS futurístico da Crytek fez muito barulho por trazer uma qualidade grÁfica bem superior aos concorrentes e por ser considerado por muito tempo como um dos games que mais exigia recursos do computador, principalmente das placas 3D. Assim, nada melhor do que submeter as VGAs da review pelo crivo de "Crysis Warhead".

Os resultados apresentados são semelhantes ao AvsP, com a GTX 550 Ti ficando entre a GTX 460 e a 5770.

{benchmark::1524}

{benchmark::1525}

{break::DiRT 2}"Colin McRae: Dirt 2", mais conhecido simplesmente como DiRT 2, é uma das séries de corrida off-road de maior sucesso da história da indústria dos jogos eletrônicos. Lançado em setembro de 2009, o game foi um dos primeiros a ser desenvolvido com o DirectX 11.

Neste teste a GTX 550 Ti se manteve com um desempenho entre a GTX 460 e a 5770.

{benchmark::1527}

{benchmark::1528}

{break::F1 2010}As Radeons se deram muito bem em F1 2010, game baseado na engine EGO 1.5 da Codemasters.

Com isto, a GTX 550 Ti foi ultrapassada pela 5770, mas manteve aproximadamente a mesma diferença de desempenho em relação a GTX 460, sendo 12% mais lenta.

{benchmark::1530}

{benchmark::1531}

{break::Just Cause 2}Se tem um game no qual as placas da série Radeon dominam em todos os segmentos é o Just Cause 2, curiosamente apoiado pela NVIDIA.

Assim como aconteceu no F1 2010, a GTX 550 Ti ficou atrÁs da 5770, e manteve um desempenho levemente inferior ao da GTX 460.

{benchmark::1536}

{benchmark::1537}

{break::Mafia II}Mafia II trouxe a continuação do aclamado game de ação em terceira pessoa ambientado no obscuro mundo da mÁfia italiana dos anos 40 e 50 nos EUA.

Possivelmente, é o game com as melhores disputas, jÁ que não temos uma marca que se destaque com todas as suas placas. Nos testes, a GTX 550 Ti ficou praticamente empatada com a 5770, enquanto que em relação a GTX 460, foi em torno de 20% mais lenta.

{benchmark::1539}

{benchmark::1540}

{break::Metro 2033}Trata-se de um FPS da 4A Games baseado em um romance homônimo russo, que conta a saga dos sobreviventes de uma guerra nuclear ocorrida em 2013 que se refugiam nas estações de metrô. O game, que faz uso intensivo da técnica de Tessellation e demais recursos do DirectX 11, desbancou de Crysis o título de jogo mais pesado. Sendo assim, nada melhor do que observar como se comportam as VGAs sob este intenso teste.

No teste com  resolução de 1280x1024, a GTX 550 Ti consegui um desempenho muito próximo da GTX 460 e da 6850, sendo 25% mais rÁpida que a 5770. Aumentando a resolução para 1680x1050, a diferença da placa para a GTX 460 e 6850 aumenta, e a vantagem em comparação a 5770 reduz.

{benchmark::1542}

{benchmark::1543}

{break::StarCraft II}Em nosso último teste utilizamos o game de estratégia StarCraft II que, quando lançado, gerou bastante polêmica pelo fato de os drivers da ATI não suportarem filtros corretamente. Problema jÁ foi resolvido e agora o jogo nos permite uma comparação justa entre as duas empresas. Dessa forma, rodamos o jogo com 8xAA e 16xAF, configurações setadas via drivers, diferentemente de todos os demais testes, afinal StarCraft II não possui esse tipo de configuração interna.

Neste teste, a GTX 550 Ti obteve um de seus melhores resultados, no comparativo com as demais placas. Superou a performance da GTX 460, e conseguiu um desempenho próximo da 6850.

{benchmark::1545}

{benchmark::1546}

{break::Overclock: Temperatura, Vantage}Seguindo outras placas da geração 500, a GeForce GTX 550 Ti se comporta muito bem quando overclockada. Nessa review não iremos fazer nenhuma alteração na voltagem, mostrando que mesmo assim o comportamento da placa é muito bom, alcançando um resultado ótimo.

Subimos o clock padrão do core de 900MHz para 1GHz, jÁ as memórias subimos nada menos que 500MHz, ficando em 4.6GHz(1150MHz x 4), números bem expressivos.


Temperatura
Em modo ocioso não tivemos nenhuma mudança na temperatura, situação normal que acontece com a maioria das placas.

{benchmark::1548}

Quando a placa estÁ em uso tivemos um aumento de apenas um grau na temperatura, mostrando que seu sistema de cooler é muito eficiente.

{benchmark::1549}

3DMark 11
Começamos os testes de desempenho pelo 3DMark 11, onde a GTX 550 Ti quando overclockada subiu mais de 250 pontos, que representaram ganho médio de 10%, praticamente o resultado do overclock em MHz.

{benchmark::1550}

{break::Overclock: AvsP, Mafia II e Metro 2033}Além do 3DMark 11, fizemos testes com a placa overclockada na resolução de 1680x1050 em alguns games. Vamos acompanhar abaixo como a placa se comportou.

Aliens vs Predator
Em cima do AvsP o ganho foi pouco acima de 11%, dentro do esperado.

{benchmark::1551}

Mafia II
Com o Mafia II tivemos o mesmo ganho que o apresentado no AvsP, também pouco acima de 11% para a GTX 550 Ti quando overclockada sobre ela mesma.

{benchmark::1552}

Metro 2033
Para finalizar os testes de overclock, ganho de 12% da placa overclockada sobre ela utilizando de clocks padrões quando rodando o game Metro 2033, mais uma amostra do bom desempenho da GTX 550 Ti nessa situação.

{benchmark::1553}

{break::PhysX}Como estamos analisando uma placa de vídeo da NVIDIA, não tínhamos como não fazer testes de performance com PhysX. Para isso, utilizamos o Mafia II, um dos games mais recentes a utilizar bastante essa tecnologia.

Os grÁficos de desempenho abaixo nos mostram que a GTX 550 Ti fica entre a GTX 460 768Mb e a GTS 450 quaando rodando com física PhysX, resultados parecidos com os anteriores sem o uso da tecnologia. Outro ponto a se destacar é que ela rodou o Mafia II com física na resolução de 1280x1024 acima de 30 FPS médio, valor mínimo considerado ideal para se jogar.

{benchmark::1554}

{benchmark::1555}

{break::Conclusão}Com o rebatismo da Radeon HD 5770 para a 6770, a AMD deu uma "mãozinha" para a GeForce GTX 550 Ti. A nova placa intermediÁria da NVIDIA mostrou-se uma concorrente a altura de sua rival, chegando em muitos casos, a bater a placa da AMD com folga. Entretanto, pelo fato da Radeon 5770 jÁ estar no mercado hÁ cerca de um ano e meio, a sensação que se tem é que a GTX 550 Ti ficou "devendo".

O que pesou contra um maior desempenho da placa foi, sem dúvidas, à limitação na quantidade de CUDA Cores (192). É que por ser derivada do chip GF106, a NVIDIA não teve outra solução. Apesar disso, a GTX 550 Ti mostrou uma boa evolução em relação à GTS 450, sendo uma opção interessante para quem não deseja gastar uma pequena fortuna em uma placa 3D.

Outros pontos positivos dizem respeitos aos baixos níveis de ruído, TDP e dissipação de calor. Junto com sua irmã maior, a GTX 560 Ti, a NVIDIA comprova mais uma vez a excelente relação entre desempenho e consumo de energia.

Além do bom desempenho, a GeForce GTX 550 Ti mantém todos os destaques da geração Fermi, como o filtro de anti-aliasing 32xCSAA, 3D VISION SURROUND, CUDA e PhysX, só para citar alguns.


PRÓS
Boa relação entre desempenho x TDP;
Compacta, com baixo nível de ruído e baixo consumo de energia;
Boa opção opção como placa dedicada ao PhysX;
Bastante overclockdÁvel;
CONTRAS
Mesma quantidade de CUDA Cores que a GTS 450;
Preço muito próximo ao da GTX 460 de 768MB.
Assuntos
Tags
  • Redator: Fabio Feyh

    Fabio Feyh

    Fábio Feyh é sócio-fundador do Adrenaline e Mundo Conectado, e entre outras atribuições, analisa e escreve sobre hardwares e gadgets. No Adrenaline é responsável por análises e artigos de processadores, placas de vídeo, placas-mãe, ssds, memórias, coolers entre outros componentes.

O que você achou deste conteúdo? Deixe seu comentário abaixo e interaja com nossa equipe. Caso queira sugerir alguma pauta, entre em contato através deste formulário.