[TÓPICO OFICIAL] RDNA, a nova microarquitetura da AMD

dayllann

Shy Member
Registrado


A pedido de alguns, criei um tópico dedicado para a nova uArch da AMD, que tomará o lugar da GCN nas placas voltadas ao mercado gamer. Como este tópico tem cunho mais técnico, tentarei falar de maneira simples mas direta, quando possível com exemplos e descontração (já que falar das unidades computacionais sempre... xD).

Como é muita coisa para ser escrita, coloquei uma playlist de Touhou para tocar, uma jarra de chá mate gelado do lado e as mãos no teclado, então espero que tudo que esteja aqui seja de fácil (?) entendimento. Antes de começar, uma legenda de termos e suas abreviações que usarei daqui para frente:

Se você não souber nada sobre CPUs/GPUs irá entender muito pouco do que está por vir, então recomendo que o leitor saiba ao menos o básico sobre arquitetura de hardware, como escalar, super-escalar e vetorial. Um bom teste é olhar a imagem de legenda: Se você entender mais que 50% do que está nela, entenderá uma boa dose desse tópico mas caso não conheça/saiba nada do que está lá, bem, ainda pode continuar lendo mas não me responsabilizo por qualquer dor de cabeça que virá a ter.




Comecemos então com a maior dúvida, essa RDNA é realmente nova, apenas uma evolução da GCN ou é meio termo, algo híbrido com GCN (tal qual as Vega das APUs)? Primeiro pensava-se ser uma evolução do GCN (6ª geração), mas depois ficou entre híbrida e nova do zero. Eu disse que era híbrida e queimei de leve a língua, e após ler este tópico entenderão o porquê.

Essa primeira geração do RDNA tem muita coisa do GCN, como um mascarado (possível) limite de 4 SEs, vazão de 4 primitivos do GE, 4 ACEs e 4 TMUs por CU, além de um modo de fluxo Wave64, fora isso o resto mudou. Falei de "mascarado" pois muita coisa foi dobrada e dividida, entrarei em detalhes abaixo, mas em categorias bem definidas para não deixar tão poluído ;)

Diferenças Iniciais



Bonito... Dá para perceber as diferenças logo de cara? Antes, na GCN, tínhamos três setores bem definidos, o Front-end (ACE, HWS, GPC), o Shader-Engine (GE, DSB Raster, CU) e o Back-end (ROP, TMU, L2), onde cada SE tinha seu próprio ACE, GE, Raster, ROP e TMU. Na RDNA parece que foi tudo embaralhado, mas na verdade só foi rebalanceado:
  • Ao invés de ter quatro SEs, agora eu tenho dois SEs duplos, onde cada sub-SE pode funcionar de forma independente ou cooperar com o outro subgrupo;

  • Cada sub-SE tem seu front-end, back-end e uma cache L1 compartilhada entre as duplas de CUs;

  • Ao invés de se ter um GE por SE, ele foi quebrado em duas partes, o GP e o PU, onde esse último está dentro de cada sub-grupo do SE e o GP sai do SE e agora faz parte do front-end;

  • O back-end mudou pouco, de destaque temos 4x mais ROPs por SE que a GCN (2x ROPs por sub-SE);

  • Cada CU pode cooperar com outro, como já dito, e assim trabalhar com o dobro de ALUs e registradores. A essa junção dá-se o nome de WGP, e ele é o que deve-se enxergar por CU agora (CU passou a ser sub-DCU);

  • Além do GP, o front-end principal ganha o DMA (que fazia parte do uncore) e perde um HWS.

Por alto, essas são as mudanças. Se analisarmos esses novos subgrupos (DCUs) como CUs comuns, temos um arranjo muitíssimo similar ao GCN, inclusive isso é importante para manter-se a retrocompatibilidade (no caso dos consoles), junto com outra coisa que entrarei em detalhes depois (WV64). Mas a pergunta que todos devem estar se fazendo: Essas mudanças são boas?


Nova Unidade Computacional


Serei rápido e eficiente: As maiores mudanças foram duas, SIMD16 para SIMD32 (vetor de dados, 16 ALUs para 32 ALUs), que torna a execução mais rápida numa determinada instrução, e a redução de ciclos de execução, onde antes eu tinha 16 ALUs trabalhando em uma instrução a cada 4 ciclos de clock e agora se tem 32 ALUs trabalhando em uma instrução a cada 1 ciclo de clock, ou seja, o CU ficou 4x mais ágil quando falamos de uma operação single-thread (aka, não paralelizável).




Unido a isso vem o rebalanceamento de carga de trabalho. A GCN funcionava com um fluxo de sequências de 64 threads (Wave64), onde quatro unidades SIMD16 realizavam seus trabalhos em 4 ciclos de clock, compartilhando uma única unidade escalar. Ao fim de 4 ciclos, o SIMD0 concluía 64 threads, mas o SIMD1 ainda está em 48, o SIMD2 terminava 32 e o SIMD3 acabava seus primeiros 16. Ou seja, a cada 4 ciclos eu concluía uma carga de trabalho (uma instrução aplicada a 64 threads), com cada SIMD fazendo uma instrução diferente, e somente a cada 4 ciclos eu acabava uma operação escalar. Imaginem se uma dessas instruções for de branch: Todo um fluxo viraria no-op (ALUs em idle) até o próximo fluxo vir também cheio de no-op com apenas o dado requerido pelo branch solicitado 4 ciclos atrás, já que mesmo sendo super-escalar a onda com uma nova instrução só vem no próximo fluxo de Wave64. Essa parada completa é recorrente na GCN porque ela é pensada em executar muitos dados distintos (computação) simultaneamente, e não dados com muitas dependências ou instruções custosas como essa.




Para corrigir isso a AMD aumentou o tamanho da unidade vetorial para 32 mas, mais importante, ela reduziu o tamanho do fluxo de sequência de dados para 32 threads (wave32). Agora, em um ciclo de clock, o SIMD0 consome todo o fluxo e o executa, sem deixar para depois, e nesse mesmo ciclo o SIMD1 faz o mesmo, já que ele receberá outra Wave32. E o problema do Stall? Enquanto na GCN tínhamos uma unidade escalar para 4 SIMD16, na RDNA temos DUAS unidades escalares para dois SIMD32. Deu para perceber a sincronia? Em um único ciclo de clock eu faço DUAS instruções SISD ou SIMD, e isso meus amigos é ILP ao pé da letra.




Percebam que na imagem acima o SIMD contém duas cores, dividindo-o em 2xSIMD16. Isso acontece porque o RDNA também trabalha com um fluxo de 64 threads (wave64), mantendo a compatibilidade com programas/jogos específicos para GCN, mas executando em apenas DOIS ciclos de clock, ao invés de quatro. Faltou só falar do SFU, que não foi alterado, ou seja, executa uma instrução especial (log, por exemplo) a cada 4 ciclos de clock, mas como temos duas unidades escalares então eu faço duas instruções especiais a cada 4 ciclos. Mas a melhor parte mesmo do RDNA é que ele pode dobrar a execução de um determinado trabalho... como assim? Simples, se um CU está demorando demais na execução de algo, o seu CU vizinho irá ler os dados compartilhados entre eles e ajudá-lo. A esta nova possibilidade a AMD dá o nome de WGP, e a meta é cortar pela metade o tempo de execução de qualquer dado que seja paralelizável.


Na prática essa "Nova Unidade Computacional" funciona? Bem, a AMD deixou um exemplo de quatro operações com três delas com dependências entre si (soma, int32 -> mult, float32 + soma, float32 -> subt, float32). Percebam que, enquanto a GCN leva 16 ciclos para completar retornar o resultado, com a maior parte do tempo deixando os ALUs/CUs ociosos (7 ciclos trabalhando, 9 ciclos ocioso, no-op em 56% do tempo), a RDNA leva 7 ciclos para concluir esse fluxo no modo Wave32, e apenas 8 ciclos no modo Wave64. Quem entender um pouco de programação/assembly vai conseguir entender de boa a imagem abaixo, caso não e queira uma explicação é só pedir :D




Hierarquia Multinível de Cache


Mas não foi apenas no CU que a AMD mexeu, o cache também teve atenção: O ganho de uma L1 para cada subgrupo e uma reorganização da cache de cada CU (agora chamada de L0) dobrou a vazão do LDS e reduziu bastante a latência nos níveis mais importantes da cache. Agora cada WGP e RB precisam acessar as memórias por ordem hierárquica, e mesmo isso parecendo anti-intuitivo, aumenta a troca de dados dentro da cache com maior frequência, recorrendo menos à VRAM (que é mais lenta), dando 4x mais largura de banda efetiva.




Unido a isso a AMD aplicou DCC em todos os níveis de memória, adicionou escrita/leitura fora de ordem em todas as memórias e unificou o LLC com os ACE e uncore. Aqui realmente o trabalho foi duro mas recompensante, pois não só o consumo de energia é reduzido como o segundo maior gargalo da GCN é eliminado (por alto, esse novo esquema hierárquico com DCC faz os 448GB/s render como se fosse 1TB/s).


Falta mais alguma coisa? Sim, os ACEs foram retrabalhados e agora além de mais potentes e assíncronos, eles receberam uma tabela de prioridades, dando mais velocidade ao processo que precisar. Isso faz com que, por exemplo, o ACE possa parar completamente um processo para dar 100% de poder computacional para outro, atuando como um switch (tudo ou nada) ao invés de apenas reduzir a velocidade de um processo e dar ~80% de poder computacional para o outro. Por último mas não menos importante, a mudança no front e back-end.




Reestruturação do Motor Gráfico


A grande e mais estranha mudança vem agora, que é a quebra do GE, que pertencia ao SE, em um único GP no front-end e uma PU em cada sub-SE, que mesmo separado mantém a mesma vazão de primitivos que a GCN (4) MAS com a diferença de ser 4 primitivos por PU, então são 8 primitivos por SE. Então o que houve de ganho nessa separação, devem estar perguntando? O GP verifica o tipo do dado e direciona ele em uma carga otimizada para o PU, com 8 primitivos por vez... UÉ? Entra 8 e sai 4? Isso mesmo, pois o PU não apenas processa um primitivo, agora ele realiza todos os trabalhos em cima dele (culling, pré/pós-tesselação, montagem, reuso de vértices) de forma paralela, então agora o O GP pode passar dois primitivos e o PU tratar os dois ao mesmo tempo, desde que sejam operações diferentes (dado geométrico e de tesselação). Deixar o GP centralizado também permite um maior controle de "quem vai para onde", balanceando melhor a carga no front-end de cada SE. Apenas essa separação e rebalanceamento trará 25% mais desempenho por clock em relação às Vega.




Fora isso, no front-end, foi perdido um HWS, mas o restante sofreu um bom boost e agora ele não apenas realiza o queue shceduling, como também cuida da previsão (preemption/prediction) e atribui prioridades. Nos códigos já públicos para as Navi, ao microcontrolador do HWS está sendo dado o nome de MES (Micro-Engine Scheduler). Quanto ao impacto disso na prática só saberei informar quando o whitepaper estiver disponível. No back-end o ROP ficou mais inteligente, agora ele é cache-aware na hora de empacotar os fluxos recebidos.

Por fim... ficou claro pessoal? A longo prazo, conforme os drivers ficarem mais maduros e os DEVs forem se habituando, a RDNA tem tudo para continuar o legado da GCN de ganhar desempenho com o decorrer da sua vida. É uma "outra" uArch com muita coisa nova ao mesmo tempo que mantém toda a base da GCN, logo tem muito espaço para crescer e um grande potencial de otimização, então espero boas coisas dela. Os três grandes problemas da GCN foram totalmente abordados no RDNA (subutilização dos ALUs, acesso excessivo à VRAM, baixa compressão de memória), e o sistema de cooperação em quase todo o arranjo da GPU me faz imaginar as muitas possibilidades de ganhos que ela terá.

Tem seus problemas? Sim, apenas de olho dá para identificar um menor rendimento em computação (GPGPU) e algum possível gargalo nos VGPRs e no GP unificado, além desse sistema cooperativo ser uma faca de dois gumes, onde mesmo tendo dois de (quase) tudo, na verdade estão sendo compartilhados recursos e isso em alguma hora poderá gerar gargalo, além da clara ausência de um HWS. Adicionem a isso o fato do consumo não ter baixado tanto quanto se esperava e temos já uma lista do que esperar na próxima iteração do RDNA.




Antes de concluir, vou listar o prometido pela AMD:
- 2560 unidades vetoriais, 80 escalares (2x GCN)
- 160 BFUs, 64 Pixel Units (2x GCN)
- GE com vazão de 4 primitivos, mas com entrada de 8 (2x GCN)
- Distribuidor e redistribuidor de trabalho retrabalhados e balanceados
- DCC em todas as memórias (~4x GCN4)
- Caches maiores e mais rápidas, além de uma cache nova (sub-SE L1)
- Execução de instruções em um único ciclo de clock
- Dois modos de Fluxo de Sequência de Dados (Wave32/Wave64)
- Uso de recursos do CU vizinho (WGP)

E também um resumão do que isso implica:
- Dobro de vazão escalar e vetorial (SISD e SIMD)
- Dobro de consumo de primitivos (primitivo é um dado geométrico, tesselador ou de vértice)
- Melhor balanceamento e dimensionamento dos CUs e ALUs
- Compressão lossless em todos os estágios da memória
- Maior IPC através de ILP
- Consumo mais rápido de dados e compatibilidade com execução GCN-like

Até a próxima pessoal, pretendo fazer um artigo mais detalhado e técnico do assunto, mas não aqui, se bem que o que está escrito aqui é o suficiente para 80% dos curiosos :)

 

paulomello2006

Active Member
Registrado
so teremos a chance de saber se essa arquitetura consegue enfim entregar performance a nivel nvidia quando os testes reais forem feitos nessas placas, até lá continuo na dúvida!
A AMD sempre teve em teoria uma arquitetura avançada cheia de possibilidades e de supostas otimizações, desde as Terascale até a propria GCN durante toda sua evolução a AMD sempre apostou no futuro e sempre se fufu....vamos ver agora qual é a dessa RDNA, se eu fosse apostar apostaria em algo tipo, melhor que GCN, mas ainda inferior ao que a nvidia tem no mercado!
 

dvsv

Well-Known Member
Registrado
Só não esquecer que AMD vai usar 7 nm pra competir com nvidia em 12.
De qualquer modo a AMD tem que pelo menos dobrar a perf/w pra continuar relevante, não vejo a hora de uma placa AMD de até u$200 com consumo realístico pq aquelas Polaris com eficiência nível maxwell 28 nm de 2014 não da não, eles tem que vender a preço de banana senão ngm compra...
 

rinshun

shwinga
Registrado
Tanto a AMD como Nvidia fazem muita propaganda pra pouca coisa. Por isso, acabam desapontando quase sempre. Tirando a primeira geração de Ryzen qual foi a última vez que ficamos satisfeitos com alguma parada nova? Esse ray tracing e DLSS são uma piada, a Radeon VII dispensa comentários, os 7nm da AMD chegaram quase 1 ano depois do que deveria e ela mal compete com as RTX (mesmo nos benchmarks selecionados pela própria AMD)

Queria, sim, que todas as novidades (não apenas a AMD com o Ryzen 3000, as Navi e o RDNA; mas também os 10nm da intel e o que quer que a nvidia esteja planejando) atendessem às expectativas, mas eu tô cansado de me iludir ano após ano com as promessas do marketing que não se concretizam
 

marcelocruz

R52600+RX470OC
Registrado
Eu até que tô bem satisfeito com o mercado do jeito que está. AMD com preços baixos pra [email protected], que é meu nicho e nVidia nadando de vento em popa com nicho que não tenho o menor interesse. Os preços aqui em baixo estão menores como nunca.
 

Soren

Antigo brumac53
Registrado
Eu realmente queria uma placa AMD que preste pra poder usar freesync em TVs via HDMI.
 

slayer26

vc eh o cara
Registrado
essa VGA VEGA VII de 16GB por 3200 reais vale a pena ?
 

neo666

¯\(ツ)/¯
Super Moderador
Só não esquecer que AMD vai usar 7 nm pra competir com nvidia em 12.
De qualquer modo a AMD tem que pelo menos dobrar a perf/w pra continuar relevante, não vejo a hora de uma placa AMD de até u$200 com consumo realístico pq aquelas Polaris com eficiência nível maxwell 28 nm de 2014 não da não, eles tem que vender a preço de banana senão ngm compra...
Convenhamos que pode ter 4nm e memórias XYZ inéditas, se não performar bem e/ou tiver preço competitivo isso pouco importa.

Na minha época de mineração consumo/temperatura até faziam diferença na escolha, hoje (jogatina eventual) eu não me importo em ter uma placa que faça minha conta de luz subir algumas migalhas a mais no mês e trabalhe a 80ºC ao invés de 60ºC, basta ser melhor e mais barata que a concorrente direta.
 

rinshun

shwinga
Registrado
Convenhamos que pode ter 4nm e memórias XYZ inéditas, se não performar bem e/ou tiver preço competitivo isso pouco importa.
Os monges do Tibet, no século 18, sempre falavam que não existia GPU boa ou ruim: o que existe é preço bom ou ruim.

Na minha época de mineração consumo/temperatura até faziam diferença na escolha, hoje (jogatina eventual) eu não me importo em ter uma placa que faça minha conta de luz subir algumas migalhas a mais no mês e trabalhe a 80ºC ao invés de 60ºC, basta ser melhor e mais barata que a concorrente direta.
Pô... considerando:
RX590 X GTX1660 (100 W de diferença quando tá em jogo)
6 horas de jogo por semana (é a média dos jogadores)
Preço do KWh em 80 centavos (do RJ)

Temos que, em 1 ano, a 1660 economizou 23 reais. É pouco, mesmo.
Mas, se vc fica com a placa 3 anos, já dá 69 reais.
E se vc joga mais de 6 horas por semana? Vamos dizer 12... aí são 138 reais.

Então, esse dinheirinho, (junto com a diferença em performance) já pode fazer a diferença na hora de escolher a GTX1660 em vez da RX590 se ela tiver um pouco mais cara xP

Tá bom, parei... é meio irrelevante mesmo, mas obrigado por perder seu tempo junto comigo se vc leu até aqui ¬¬
 

brdtoledo

12 anos de Adrena!
Registrado
Vocês falaram de litografia, consumo, preço, mas o pior de tudo pra mim em relação à AMD, na minha opinião, é a disponibilidade. A melhor placa da AMD que um brasileiro pode comprar hoje é a RX 590. Não tem absolutamente nenhuma Vega a venda no Brasil, nem 56, nem 64, nem VII, não tem. Essa arquitetura nova pode prometer corrigir todos os problemas, mas, antes disso, a gente precisa ao menos ter como comprar a [email protected] da placa!
 

joaorosini

PC Enthusiast!
Registrado
Vocês falaram de litografia, consumo, preço, mas o pior de tudo pra mim em relação à AMD, na minha opinião, é a disponibilidade. A melhor placa da AMD que um brasileiro pode comprar hoje é a RX 590. Não tem absolutamente nenhuma Vega a venda no Brasil, nem 56, nem 64, nem VII, não tem. Essa arquitetura nova pode prometer corrigir todos os problemas, mas, antes disso, a gente precisa ao menos ter como comprar a [email protected] da placa!
Pois é, já passei tanta vontade de comprar a VEGA 56 um tempo atrás, mas a placa simplesmente não existe aqui. Se a AMD não der conta do volume de venda igual foi na geração anterior, infelizmente pode ser até 1nm que pra gente não muda nada.
 

dayllann

Shy Member
Registrado
so teremos a chance de saber se essa arquitetura consegue enfim entregar performance a nivel nvidia quando os testes reais forem feitos nessas placas, até lá continuo na dúvida!
A AMD sempre teve em teoria uma arquitetura avançada cheia de possibilidades e de supostas otimizações, desde as Terascale até a propria GCN durante toda sua evolução a AMD sempre apostou no futuro e sempre se fufu....vamos ver agora qual é a dessa RDNA, se eu fosse apostar apostaria em algo tipo, melhor que GCN, mas ainda inferior ao que a nvidia tem no mercado!
A AMD sempre teve um hardware melhor que a NVIDIA, mas o lado do software sempre foi o problema dela. De nada adianta eu ter um HW excelente se só consigo extrair 60% dele, enquanto a concorrente tem um HW pouca coisa inferior mais com um SW que consegue extrair 99%.

Como VLIW as Terascale eram excepcionais, se a AMD continuasse investindo nessa uArch o desempenho equivaleria à concorrência consumindo menos, mas com um grande diferencial: A complexidade programacional é altíssima para o ILP ser perfeito. A própria AMD disse, num dos slides, que o VLIW4 (HD6900) ainda é 25% mais rápido que a RDNA se for 100% otimizada. A GCN surgiu com o intuito de facilitar a programação e adicionar maior paralelização em GPGPU (VLIW é péssimo com dados mistos, afinal de contas é MISD), mas pecou por ser especializada nisso (deixando de lado o single-thread).



A uArch RDNA terá um rendimento 40% melhor que a GCN on-the-fly, sem otimizar nada para ela, e disso não tenho dúvidas. Qualquer coisa acima disso dependerá da AMD com seu compilador e drivers e dos DEVs. A complexidade será maior que na GCN e isso é um ponto negativo, mas a NVIDIA troca várias vezes a complexidade em suas uArchs e os DEVs se adequam então eu penso que, se a AMD souber ganhar os programadores, a RDNA terá um bom caminho pela frente.
 

hinokakera

Lemmingball Z
Registrado
Valeu pelo post, bem interessante mesmo, vamos ver como vai se sair o RDNA nos reviews.
 

Lightman

Well-Known Member
Registrado
Tirando a primeira geração de Ryzen qual foi a última vez que ficamos satisfeitos com alguma parada nova?
Eu estou extremamente satisfeito com a APU da segunda geração Ryzen, jamais pensei que poderia dispensar por completo uma placa de vídeo e ainda assim ficar contente com a performance de um vídeo integrado.
 

paulomello2006

Active Member
Registrado
A AMD sempre teve um hardware melhor que a NVIDIA, mas o lado do software sempre foi o problema dela. De nada adianta eu ter um HW excelente se só consigo extrair 60% dele, enquanto a concorrente tem um HW pouca coisa inferior mais com um SW que consegue extrair 99%.

Como VLIW as Terascale eram excepcionais, se a AMD continuasse investindo nessa uArch o desempenho equivaleria à concorrência consumindo menos, mas com um grande diferencial: A complexidade programacional é altíssima para o ILP ser perfeito. A própria AMD disse, num dos slides, que o VLIW4 (HD6900) ainda é 25% mais rápido que a RDNA se for 100% otimizada. A GCN surgiu com o intuito de facilitar a programação e adicionar maior paralelização em GPGPU (VLIW é péssimo com dados mistos, afinal de contas é MISD), mas pecou por ser especializada nisso (deixando de lado o single-thread).



A uArch RDNA terá um rendimento 40% melhor que a GCN on-the-fly, sem otimizar nada para ela, e disso não tenho dúvidas. Qualquer coisa acima disso dependerá da AMD com seu compilador e drivers e dos DEVs. A complexidade será maior que na GCN e isso é um ponto negativo, mas a NVIDIA troca várias vezes a complexidade em suas uArchs e os DEVs se adequam então eu penso que, se a AMD souber ganhar os programadores, a RDNA terá um bom caminho pela frente.
A AMD acertou no GCN pq as Radeons era um lixo pra rodar jogos, sempre tinham bugs e alguns ate impediam de rodar o jogo, então todo mundo que tinha uma GPU AMD tinha que ficar esperando drivers novos ou patches de correção e isso praticamente acabou na GCN, agora com a volta da complexidade essa Rdna pode ser o retorno dos bugs e da era em que se vc tivesse uma AMD da epoca vc ia com certeza demorar mais pra poder jogar algum lançamento em uns 70% das vezes arrisco dizer, eu mesmo tive a HD5850 e apesar de na epoca ser uma otima placa com uma força bruta considerável, tinha muito bug em diversos jogos que me obrigavam a esperar por correções!
 

manotroll

Active Member
Registrado
Os monges do Tibet, no século 18, sempre falavam que não existia GPU boa ou ruim: o que existe é preço bom ou ruim.


Pô... considerando:
RX590 X GTX1660 (100 W de diferença quando tá em jogo)
6 horas de jogo por semana (é a média dos jogadores)
Preço do KWh em 80 centavos (do RJ)

Temos que, em 1 ano, a 1660 economizou 23 reais. É pouco, mesmo.
Mas, se vc fica com a placa 3 anos, já dá 69 reais.
E se vc joga mais de 6 horas por semana? Vamos dizer 12... aí são 138 reais.

Então, esse dinheirinho, (junto com a diferença em performance) já pode fazer a diferença na hora de escolher a GTX1660 em vez da RX590 se ela tiver um pouco mais cara xP

Tá bom, parei... é meio irrelevante mesmo, mas obrigado por perder seu tempo junto comigo se vc leu até aqui ¬¬
não faz a 1060 ta esta apanhando da 570 assim logo daqui 1~2 anos a 1660 apanha da rx 590 ficar mendigando centavos pra não pegar algo melhor e :genio: e undervolt esta ai pra isso
nvdia e se vc vende ao escutar boa e vende
agora se e pra ficar por anos amd envelhece melhor sempre foi assim agora nvdia assim que sai uma geração nova ela ja considera a anterior antiga
 

marcelocruz

R52600+RX470OC
Registrado
não faz a 1060 ta esta apanhando da 570 assim logo daqui 1~2 anos a 1660 apanha da rx 590 ficar mendigando centavos pra não pegar algo melhor e :genio: e undervolt esta ai pra isso
nvdia e se vc vende ao escutar boa e vende
agora se e pra ficar por anos amd envelhece melhor sempre foi assim agora nvdia assim que sai uma geração nova ela ja considera a anterior antiga
Esse é mais uma das falácias criada na internet e sei bem de onde vem o tal do AMD Whine Good. Vem dessa leitura de hobbista que fazem sobre arquitetura de placas ou mesmo propagandas, além de fanatismo em geral. Uma bobagem sem tamanho. Abaixo, em vídeo bem recente, a 570 sendo esmagada pela 1060, que por vezes até supera a 580, como sempre foi e para todo sempre o será. Esse negócio de nVidia envelhecer mal é uma bobagem sem tamanho repetida mil vezes e que vira verdade. Diferença chega a gritantes 30% em favor da 1060.


ps.: Eu tenho uma RX470 e não tenho nVidia fazem 4 anos. Tenho nenhum interesse em defender X ou Y como um fanático, feito muitos por aqui.

 
Última edição:

manotroll

Active Member
Registrado
Esse é mais uma das falácias criada na internet e sei bem de onde vem o tal do AMD Whine Good. Vem dessa leitura de hobbista que fazem sobre arquitetura de placas ou mesmo propagandas, além de fanatismo em geral. Uma bobagem sem tamanho. Abaixo, em vídeo bem recente, a 570 sendo esmagada pela 1060, que por vezes até supera a 580, como sempre foi e para todo sempre o será. Esse negócio de nVidia envelhecer mal é uma bobagem sem tamanho repetida mil vezes e que vira verdade. Diferença chega a gritantes 30% em favor da 1060.


ps.: Eu tenho uma RX470 e não tenho nVidia fazem 4 anos. Tenho nenhum interesse em defender X ou Y como um fanático, feito muitos por aqui.

olha ela perdeu feio em um jogo by nvfia "lixo total"
viu o video todo ?
 

joaorosini

PC Enthusiast!
Registrado
Falar que 1060 perde de 570, nem a de 3Gb... :mao: Qualquer 1060 6Gb decente sobe bem fácil no overclock também e ganha com facilidade até da 580.
 

neo666

¯\(ツ)/¯
Super Moderador
olha ela perdeu feio em um jogo by nvfia "lixo total"
viu o video todo ?
FH4? De todos é o que menos importa.

Qualquer GPU que consiga segurar acima de 60fps já vai deixar o jogo lindo e super fluido.
 

dayllann

Shy Member
Registrado
A AMD acertou no GCN pq as Radeons era um lixo pra rodar jogos, sempre tinham bugs e alguns ate impediam de rodar o jogo, então todo mundo que tinha uma GPU AMD tinha que ficar esperando drivers novos ou patches de correção e isso praticamente acabou na GCN, agora com a volta da complexidade essa Rdna pode ser o retorno dos bugs e da era em que se vc tivesse uma AMD da epoca vc ia com certeza demorar mais pra poder jogar algum lançamento em uns 70% das vezes arrisco dizer, eu mesmo tive a HD5850 e apesar de na epoca ser uma otima placa com uma força bruta considerável, tinha muito bug em diversos jogos que me obrigavam a esperar por correções!
Da geração terascale eu só tive três placas, das quais uma ainda está firme e forte: Uma HD2600XT, uma HD5670 e uma HD7450 OEM (ainda viva). Como nunca fui de jogar lançamentos esses problemas e espera por drivers compatíveis nunca me incomodaram, mas era fato esse problema e as reclamações eram constantes, isso quando não recorrentes (driver novo, novos bugs em jogos que não tinham). Lembro como se fosse ontem DiRT1 na HD2600XT, boas memórias...

O desempenho da 7450 ainda é sólido, e mesmo em um driver que não é atualizado a anos nunca me deu problemas com bugs, e mesmo na época do seu ápice já não tinham tantos inconvenientes. Creio que, realmente, os problemas foram da série 2000 à 5000, isso de "driver game ready" que lançava junto com o jogo para 100% de compatibilidade era inexistente, as vezes era necessário esperar 2 ou até 3 meses depois do lançamento para poder jogar de forma satisfatória, mas como eu não tinha pressa para mim isso não incomodava. Nisso, concordo plenamente, a mudança para GCN da água para o vinho, e depois que o Catalyst foi trocado pelo Crimson (em Fev/2016) esses problemas de software viraram passado, mas a otimização a longo prazo/demora para se extrair todo desempenho sempre foi um problema, que muitos romantizam como "fine whine".

Quanto a voltar essa época de bugs e problemas, creio que não veremos isso, pois como disse a RDNA é 100% compatível com a forma de trabalhar da GCN, a questão agora são essas novidades de trabalho em conjunto e compartilhamento de recursos, que darão uma nova dor de cabeça aos DEVs e à própria AMD, ao menos por um tempo (chuto 2 anos até se acostumarem, ou menos se a AMD ajudar), mas na questão de ganho de desempenho e não bugs.
 

forsakkenSoul

No regrets in life. Just lessons learned.
Registrado
Esse é mais uma das falácias criada na internet e sei bem de onde vem o tal do AMD Whine Good. Vem dessa leitura de hobbista que fazem sobre arquitetura de placas ou mesmo propagandas, além de fanatismo em geral. Uma bobagem sem tamanho. Abaixo, em vídeo bem recente, a 570 sendo esmagada pela 1060, que por vezes até supera a 580, como sempre foi e para todo sempre o será. Esse negócio de nVidia envelhecer mal é uma bobagem sem tamanho repetida mil vezes e que vira verdade. Diferença chega a gritantes 30% em favor da 1060.


ps.: Eu tenho uma RX470 e não tenho nVidia fazem 4 anos. Tenho nenhum interesse em defender X ou Y como um fanático, feito muitos por aqui.

1060 é uma boa placa, mas meio que o que o amigo @manotroll falou tem um pouco (ou muito) de verdade no quesito longevidade, você pega os bench dos jogos mais recentes e a 580 passa a 1060 em performance na maioria dos jogos, seja por 5 frames ou mais, coisa que antes das RTX não era assim.. parece que depois do lançamento da nova série a Nvidia meio que mete um belo de um foda-se para a geração anterior e focam só na nova geração..
 

manotroll

Active Member
Registrado
FH4? De todos é o que menos importa.

Qualquer GPU que consiga segurar acima de 60fps já vai deixar o jogo lindo e super fluido.
sim mais isso não entra na cabeça
mesma historia que antes eu ja falava compra vga de 8gb e a galera ny nvdia falava pra que pagar mais caro se 4gb da
hoje quem comprou rx 480 8gb ta feliz e quem comprou 1060 4 gb ta rodando no médio na 480 4gb tambem mais na epoca era ou rx 480 8gb ou 1060 4gb
ate o próprio adrena fez um teste aqui mostrando se vc troca de vga a cada ano vai de nvdia pois no inicio ela e mais forte porem se vc fica muito tempo com a mesma vga a amd tira a diferença e passa o problema e as "imparcialidades" nos testes pois e o que fazia antes coloca o jogo do bruxo nas amd ai não tem como ne
 

dayllann

Shy Member
Registrado
1060 é uma boa placa, mas meio que o que o amigo @manotroll falou tem um pouco (ou muito) de verdade no quesito longevidade, você pega os bench dos jogos mais recentes e a 580 passa a 1060 em performance na maioria dos jogos, seja por 5 frames ou mais, coisa que antes das RTX não era assim.. parece que depois do lançamento da nova série a Nvidia meio que mete um belo de um foda-se para a geração anterior e focam só na nova geração..
A resposta é simples:
- Na NVIDIA cada uArch tem um ISA novo, ou seja, uma forma de programar diferente/nova, então se o DEV programa de forma generalizada vai-se ter o ganho normal de cada geração, mas se ele otimiza especificamente para uma uArch esse código não é portado para as passadas, a menos que o DEV programe várias otimizações diferentes, uma para cada uArch, e não preciso dizer que isso não ocorre, até porque se a NVIDIA ajuda na otimização de jogos AAA a lógica é essa otimização ser dada apenas na uArch mais nova, deixando as passadas sem ganho quando uma nova chega.
https://docs.nvidia.com/cuda/parallel-thread-execution/index.html

- Na AMD cada uArch utiliza o mesmo ISA e compilador, logo se o DEV programar de forma otimizada para uma GCN, todas as GCN passadas receberão a mesma otimização pois, por debaixo dos panos, a forma de funcionar de todas as GCNs segue um único "caminho" definido pelo ISA GCN, ISA este que a RDNA também irá seguir e portanto terá essa mesma longevidade. Os novos recursos que chegam nas novas GCNs (e agora RDNA) são "rotas alternativas" que o próprio hardware cuida de selecionar para aumentar o desempenho além do programado, quando possível.
http://developer.amd.com/wordpress/media/2017/08/Vega_Shader_ISA_28July2017.pdf

Como o RDNA tem uma nova maneira interna de funcionar, o GCN ISA 1.6 terá alguns comandos novos mas sempre com um fallback para as gerações anteriores, e a grande diferença mesmo se dará nos compiladores, que se a AMD foi inteligente investiu muito tempo, dinheiro e engenheiros fazendo algo de bom nessa parte fundamental.
 
Última edição:

Usuários que estão vendo esse Tópico (Users: 0, Guests: 1)

Topo