Depuis son annonce fin septembre, la version 12Gb de la RTX 4080 d’Nvidia a fait couler beaucoup d’encre. Sous le feu des critiques, le caméléon a décidé d’annuler la sortie de cette version. Le 16 novembre prochain, ce sera finalement une seule RTX 4080 (16Gb) qui sera disponible dans nos rayons. Officiellement, Nvidia invoque une dénomination peu claire pour le consommateur. En réalité, d’après les premières informations, cette version était surtout 25 à 30 % plus lente que sa grande sœur (voir image ci-dessous via Videocardz.com). Pendant leurs présentations, les verts n’ont pas vraiment insisté sur le fait que ce modèle n’avait rien d’une 4080 : moins de CUDA cores et un memory bus width de 192 bit. Bref, on avait plutôt affaire à une 4070. On peut saluer la décision d’Nvidia sous la pression des joueurs mais ce n’est pas la première, ni la dernière fois qu’ils essaieront de vous la mettre à l’envers.

RTX 4080

Article précédentLes bons plans NoFrag du week-end précurseurs des énergies renouvelables
Article suivantSecond Extinction sortira finalement d’accès anticipé au mois de novembre

24 Commentaires


  1. Le bus mémoire est plus petit que celui de la 3070 et se trouve au même niveau que la 3060ti, en plus
    Mais ils avaient pas trop le choix, ils allaient se prendre une shitstorm pas possible, des possibles procès et attaques d’asso des consommateurs pour le nom trompeur

  2. En même temps c’est pas le même die dessous. La 4090 mouline au AD102, la 4080 « 16 » au AD103 et la 4080 « 12 » au AD104. Personne n’était vraiment dupe, si c’était une vrai 4080 elle aurait eu l’AD103 avec moins de VRAM.

  3. Peut être qu’après avoir cuvé leur bouteille, ils se rendent compte qu’ils déconnent un peu de trop en ce moment.

  4. Peut être qu’après avoir cuvé leur bouteille, ils se rendent compte qu’ils déconnent un peu de trop en ce moment.

    Pour le coup NVIDIA a toujours déconné (tout comme intel) sur un détail tout con, les prix.
    Suffit d’un retour en force d’AMD sur le marché des cartes graphiques pour que NVIDIA soit bousculé de sa zone de confort et arrête de fixer des tarif de mégalo

  5. « Suffit d’un retour en force d’AMD »
    Ben voyons, comme si c’était pas déjà le cas. Tu as vu le niveau de performances de la génération actuelle, RT mis à part ?
    Et on trouve des RX6800/6900XT nettement moins chères que les équivalents Nvidia en ce moment

  6. « Suffit d’un retour en force d’AMD »
    Ben voyons, comme si c’était pas déjà le cas. Tu as vu le niveau de performances de la génération actuelle, RT mis à part ?
    Et on trouve des RX6800/6900XT nettement moins chères que les équivalents Nvidia en ce moment

    Tant qu’il n’y aura pas de RT concurrentiel à un prix agressif chez les rouges, il y a peu de chances que NVIDIA se calme sur son positionnement tarifaire.

  7. Pour qu’ils reviennent dans la course, il faudrait aussi qu’ils produisent plus de cartes. Les Radeon RX 6000 étaient encore plus difficiles à trouver que les GeForce RTX 3000 ces deux dernières années. Le résultat c’est qu’elles ne représentent que 1% des cartes sur Steam contre 20% pour les RTX 3000…

  8. et encore, l’avantage c’est pas que le RT c’est aussi le DLSS qui est dans pas mal de jeu et te permet d’avoir des perfs de ouf tout en étant tout a fond (j’ai une 3080 et je joue en 4K), le DLSS te permet d’activer le RT sans galérer de ouf, ces techno sont quand meme ouf

  9. Pour qu’ils reviennent dans la course, il faudrait aussi qu’ils produisent plus de cartes. Les Radeon RX 6000 étaient encore plus difficiles à trouver que les GeForce RTX 3000

    C’est pas faux…

    et encore, l’avantage c’est pas que le RT c’est aussi le DLSS qui est dans pas mal de jeu et te permet d’avoir des perfs de ouf tout en étant tout a fond (j’ai une 3080 et je joue en 4K), le DLSS te permet d’activer le RT sans galérer de ouf, ces techno sont quand meme ouf

    Alors je sais pas si c’est autant un truc de ouf que le déhellessesse, mais il me semble que de ce côté-là le FSR d’AMD commence à ressembler à quelque chose tout en étant dispo peu importe le GPU et plus facilement implémentable dans les jeux.

  10. Si c’est dispo peu importe le GPU, faut pas trop rêver sur l’efficacité du truc.

  11. Si c’est dispo peu importe le GPU, faut pas trop rêver sur l’efficacité du truc.

    Et bien aussi étonnant que ça puisse paraître il semblerait que le FSR 2 propose quelque chose de plus ou moins équivalent au DLSS 2, notamment en mode « qualité ». (article au pif qui parle de tout ça)

  12. Oui, c’est étonnant. Merci pour le lien.

    Je te conseille de suivre un petit site pas très connu sur les FPS, ça s’appelle Nofrag. Ils en ont parlé ici :p

  13. Digital Foundry a comparé FSR et DLSS sur God of War et il y a toujours un avantage au DLSS en mouvement.

    Comparer les deux technos sur des screenshots a peu de sens car peu ou pas de mouvement. Les gros soucis apparaissent surtout en condition réelle, donc quand on bouge la caméra ou que des animations se jouent.

    Après FSR reste intéressant car ça fonctionne peu importe le GPU et pas mal de joueurs sont sûrement pas très sensibles aux soucis évoqués dans la vidéo.

  14. Même à l’arrêt, la dernière version d’FSR (2.1) n’arrive toujours pas à la cheville de DLSS (2.4). Il y a toujours des petits élements qui scintillent à l’écran, là où tout est parfaitement propre et stable avec DLSS.

    FSR ne rivalise pour l’instant qu’avec Intel XeSS et les méthodes d’upscaling propres à chaque moteur comme le TAAU d’Unreal Engine 4 ou le TRS d’Unreal Engine 5.

  15. Même à l’arrêt, la dernière version d’FSR (2.1) n’arrive toujours pas à la cheville de DLSS (2.4). Il y a toujours des petits élements qui scintillent à l’écran, là où tout est parfaitement propre et stable avec DLSS.

    FSR ne rivalise pour l’instant qu’avec Intel XeSS et les méthodes d’upscaling propres à chaque moteur comme le TAAU d’Unreal Engine 4 ou le TRS d’Unreal Engine 5.

    Ça dépend vraiment des jeux
    Sur Death Stranding par exemple, il y a ghosting assez fort avec le DLSS sur certains objets, rien du tout avec le FSR (généralement des gardes corps etc)

    Et en mouvement la différence est quasi invisible de toute façon, le seul vrai avantage du DLSS c’est qu’il permet de gagner quelques FPS de plus, mais si Nvidia est obligé de faire de l’interpolation d’image aujourd’hui c’est un peu la preuve que le FSR, donc solution open source est dispo quasi partout, le talonne

  16. C’est parce que DLSS n’a pas été mis à jour depuis très longtemps sur Death Stranding. Remplace sa DLL (nvngx_dlss.dll) par celle de Spider-Man Remastered ou n’importe quelle autre récente et le ghosting disparaîtra.

    le seul vrai avantage du DLSS c’est qu’il permet de gagner quelques FPS de plus

    C’est pas juste « quelques FPS de plus » à qualité d’image égale. FSR Quality équivaut le plus souvent à DLSS Performance, sauf qu’avec FSR Quality t’as 66.6% des pixels qui sont rendus de manière traditionnelle tandis qu’avec DLSS Performance c’est 25%. Le gain est donc beaucoup plus grand avec DLSS. Et à mode égal (FSR Quality vs DLSS Quality par exemple), c’est la qualité de l’image qui n’est plus la même.

    mais si Nvidia est obligé de faire de l’interpolation d’image aujourd’hui c’est un peu la preuve que le FSR, donc solution open source est dispo quasi partout, le talonne

    Ça n’a pas de sens, FSR 2 n’a même pas six mois et il est évident que NVIDIA bosse sur DLSS 3 depuis plus longtemps que ça. Ils auraient mis l’interpolation pour ajouter une plus-value à leurs nouvelles cartes même sans concurence de la part d’AMD et d’Intel.

  17. Cireme tu me sembles bien plus sévère que ce que j’ai pu trouver sur le sujet, à moins d’avoir raté quelque chose. Ce qui ressortait de ce que j’ai lu était que les 2 solutions étaient en moyenne équivalants tant en rendu qu’en gain d’images, avec des jeux un poil mieux avec l’une ou l’autre.

  18. C’est la conclusion systématique des articles de TechPowerUp mais W1zzard est incompétent sur ce sujet-là. Il fait des comparatifs sans intérêt avec des screenshots trop compressés, poste des vidéos YouTube où il est trop souvent statique et ne zoome pas sur l’image (ce qui permettrait de contrer le mauvais encodage et de révéler les différences bien visibles in-game) puis conclut que c’est du pareil au même.

    Dans l’article sur Deathloop que t’as linké plus haut, il explique que FSR 2.0 est « just as good as DLSS 2.0, actually DLSS 2.3 » mais l’analyse plus poussée de Digital Foundry sortie quelques jours plus tard a montré ce que n’était pas le cas.

    Je suis sur la même ligne que Digital Foundry. Alex Battaglia est vraiment doué pour pointer les différences entre les deux technos – des différences qui me sautent aux yeux dans les jeux où j’ai pu tester.

  19. Merci pour la vidéo, c’est intéressant, mais gardons en tête que ce comparatif ne se base que sur Deathloop, le seul jeu supportant DLSS et FSR 2 au moment des tests. Enfin dans tous les cas ce qui ressort de ce FSR 2 c’est que même si il n’est pas (encore?) tout à fait à la hauteur du DLSS, c’est quand-même loin d’être dégueulasse, surtout quand tu mets en perspective le fait que tout le monde puisse en profiter quelque soit le matos et que le DLSS n’est pas non plus dénué de défauts.

    Je suis plutôt hypé par ce que AMD réussit à faire avec sa solution open source sans hardware dédié et suis réellement curieux de voir jusqu’où ça pourra aller.

20 of 24 comments displayed


Connectez-vous pour laisser un commentaire