Dans sa présentation technique de la PS5, Mark Cerny a dit que, pour une même puissance en téraflops, il est préférable d'avoir une fréquence élevée plutôt qu'un grand nombre de CU (unité de calcul) parce qu'un GPU ne contient pas que des CU et qu'avec une fréquence plus élevée, les autres parties du GPU tournent plus vite également.
J'ai déjà amené ce sujet sur le forum et quelqu'un m'a répondu que Digital Foundry avait démenti dans leur vidéo sur la présentation de Cerny. J'avais lu l'article de DF mais pas regardé leur vidéo, ce que je viens de faire. Et ils ne démentent pas. Ils se contentent de reprendre les arguments de Cerny sans vraiment donner leur avis sur la question.
Dans leur vidéo, ils parlent aussi des gains de perf apportés par la nouvelle architecture RDNA par rapport à GCN et ils passent un court extrait d'une vidéo qu'ils ont faite sur le sujet. L'extrait m'a intrigué et j'ai retrouvé l'article correspondant.
https://www.eurogamer.net/articles/digitalfoundry-2019-teraflop-face-off-current-gen-vs-next-gen
DF compare les perfs des architectures GCN 1, GCN 4 et RDNA 1 via 4 cartes graphiques :
- R9 280X : 32 CU en GCN 1
- RX 570 : 32 CU en GCN 4
- RX 580 : 36 CU en GCN 4
- RX 5700 : 36 CU en RDNA 1
Pour comparer ce qui est comparable, toutes les cartes sont downclockées à 1 GHz avec la mémoire vidéo à 256 GB/s. Les autres composants du PC sont identiques pour tous les tests.
Ce qui m'a intéressé, c'est la comparaison entre la RX 570 et la RX 580. Les deux cartes sont basées sur la même archi. Pour ces tests, elles tournent à la même fréquence. La seule différence est le nombre de CU : 32 pour la 570 et 36 pour la RX, ce qui représente une augmentation de 12,5%. Aurons-nous la même augmentation dans les perfs ?
DF commence par tester avec 4 benchmarks. Voici les gains de perf entre la 570 et la 580 :
+6,1%
+17,4%
+1,0%
+10,7%
Les résultats sont trop contrastés pour en tirer des conclusions. En plus, ce sont des benchmarks, pas des jeux réels.
DF teste ensuite des jeux sous DirectX 11. Voici les gains de fps en 1440p et 1080p :
- AC Unity : +3,8% et +4,2%
- Crysis 3 : +4% et +3,9%
- Far Cry 5 : +6,2% et +5,8%
- Ghost Recon : +3,2% et +3,7%
- The Witcher 3 : +4,8% et +3%
On est très loin des 12,5% attendus. C'est peut-être dû à DirectX 11 qui ne profiterait pas bien des CU supplémentaires. Mais DF a aussi testé des jeux en DirectX 12 et c'est encore pire :
- Rise of the Tomb Raider : +2,4% et +2,4%
- Shadow of the Tomb Raider : +3,7% et +2%
- Strange Brigade : +3,8% et +2%
- Forza Horizon 4 : +4,7% et +4%
- Battlefield 1 : +1% et +1%
DF ne cherchait pas à tester les gains d'un plus grand nombre de CU mais les faibles gains leur ont quand-même sauté aux yeux et ils ont fait plusieurs commentaires à ce sujet :
That's an additional 12.5% of compute power, but the difference between our two Polaris cards amounts to just 4% or so of extra performance. This is why AMD ships RX 580 with higher clocks and faster RAM than the RX 570.
...
Again, with RX 570 and 580 matched clock for clock, the extra CUs are delivering very little - an extra 4% of performance.
...
Again, you'll note a paltry 3 to 4% differential between RX 570 and 580.
...
The lack of additional performance from Polaris's extra CUs in the Radeon RX 580 continues to disappoint.
Finalement DF a testé la RX 5700 (RDNA 1) à deux fréquences : 1 GHz et 1,7 Ghz, ce qui représente donc une augmentation de 70%. Dans les deux cas, la mémoire était réglée à la même vitesse (448 GB/s). Attention, si vous lisez l'article de DF sur PC, les chiffres du mini-tableau à droite sont incorrects et ne reflètent pas le graphique juste en dessous. Sur téléphone, c'est correct.
Avec Crysis 3, ça donne +50,5% en 1440p et +46,6% en 1080p. On est encore loin des 70% attendus mais ça représente quand-même 72% et 66% du gain attendu. Alors qu'en augmentant le nombre de CU, on était en moyenne autour des 25% du gain attendu.
Voici la conclusion de DF à ce sujet :
it's AMD's push for higher frequencies that really helps deliver meaningful boosts to overall performance
...
In addition to the improved architecture and feature set, Navi also benefits from increased core clocks, which means that it's not just compute power that improves - all aspects of the GPU run faster.
Ça correspond aux déclaration de Cerny : augmenter la fréquence permet d'augmenter les téraflops mais pas seulement, car ça profite à tout le GPU, pas uniquement aux CU.
Alors pourquoi Microsoft n'a pas suivi la même voie ? Je suppose que c'est à cause du risque. Garder une fréquence basse et augmenter le nombre de CU est une solution éprouvée. Si Sony a fait le contraire, c'est que AMD leur a garanti que ça tiendrait la route. Mais si AMD s'est planté et que toutes les PS5 grillent après 3 ou 4 ans, Sony se retrouvera avec un procès class action aux USA. Je suppose que Microsoft n'a pas voulu courir ce risque.
En tous cas, Sony a choisi d'aller à contre-courant des idées reçues. La PS5 sera un test grandeur nature pour les GPU à fréquence élevée. L'avenir nous dira si Sony a été pionnier ou s'ils auraient mieux fait de rester sur les sentiers battus.