C’était aujourd’hui au tour des rouges de présenter leur nouvelle génération de cartes graphiques pour vous, les « gamers ». Deux cartes au programme : la RX 7900 XT et la RX 7900 XTX (Vivement la 7900 XTXTX). Respectivement au tarif conseillé de 899$ et 999$, la plus chère promet des performances jusqu’à 1.7x supérieures à une RX 6950 XT. Malheureusement, AMD n’a pas osé dans sa présentation se comparer à NVIDIA. Difficile alors pour l’instant de savoir comment elles vont se placer par rapport à la récente RTX 4090 ou la plus ancienne 3090 Ti. Néanmoins, sur le papier AMD promet une consommation bien moins importante (300 et 355W) mais surtout un tarif bien en dessous de la 4090 (1599$) et même de la future 4080 (1249$). Côté ray tracing, même si les performances seront plus importantes que la précédente génération, ils devraient tout de même rester derrière NVIDIA. De toute façon, AMD ne semble pas du tout viser la première place pour cette génération en témoigne le tarif assez agressif. Elles seront disponibles le 13 décembre prochain et il faudra attendre les premiers benchmarks pour se faire un réel avis.

Vous pouvez retrouver la conférence entière par ici ou le site dédié à cette adresse.

AMD RDNA3 1 AMD RDNA3 2

Article précédentWarhammer: Vermintide 2 est offert sur Steam jusqu’au 7 novembre
Article suivantUne nouvelle mission gratuite pour Warhammer: Vermintide 2

23 Commentaires


  1. « AMD n’a pas osé dans sa présentation se comparer à NVIDIA »

    Tout est dit je pense, et ça fait chier: Si Nvidia n’a pas de concurrence sérieuse niveau perfs pures, ils ne sont pas prêts de baisser leurs prix aberrants.
    D’autant plus que les prix du transport sont en ce moment tres élevés.

    Paradoxalement je vient de lire que TSMC réduit ses prévisions de vente de puces a cause d’une demande en baisse, les joies des fluctuations du marché…

  2. Même si AMD n’est pas à la hauteur, je pense qu’ils ont quand-même la possibilité de récupérer de bonnes parts de marché si leur rapport prix/perfs est suffisamment avantageux. Tout le monde ne ressent pas le besoin de jouer en 4K TAF full RT @120FPS en consommant 10 balles de l’heure en électricité. Encore faut-il qu’il y ait des cartes dispo, évidemment…

  3. Nvidia devrait faire gaffe quand même. Leurs RTX4090 ont tendance à faire fondre les câbles d’alim.

  4. Ils ont comparé avec leur propre GPU et on peut avoir une idée globale, une 6950 XT c’est globalement une 3090 Ti, donc être en moyenne 50-60% devant, c’est un beau score

    On sera surement en dessous d’une RTX 4090 (qui est un monstre), mais bien devant une RTX 4080 16 Go, qui est vendue plus cher

    En plus la consommation est pas trop élevé, la 7900 XT perds 100$ par rapport à la 6900 XT à son lancement, c’est que des bonnes nouvelles

  5. « AMD n’a pas osé dans sa présentation se comparer à NVIDIA »

    Tout est dit je pense, et ça fait chier: Si Nvidia n’a pas de concurrence sérieuse niveau perfs pures, ils ne sont pas prêts de baisser leurs prix aberrants.

    Tu te bases sur quoi ?
    Parce que si on prends le graphe ci dessous et qu’on considère que la 6950 est approximativement identique à la 3090 ti (ce qui est le cas) on arrive au final à une XTX égalant la 4090 … Et avec 100w de moins

    https://tpucdn.com/review/msi-geforce-rtx-4090-suprim-x/images/relative-performance_3840-2160.png

  6. La consommation est un faux problème sur la 4090 puisque la carte ne perd quasiment pas en performance quand on abaisse sa consommation à ~300W (non pas avec un undervolting compliqué mais bien simplement en bougeant un slider). Son vrai problème c’est son prix.

    Image

  7. « tarif assez agressif »
    EDIT:
    Sinon ce qui est très intéressant par contre c’est les annonces logiciels.

  8. La consommation est un faux problème sur la 4090 puisque la carte ne perd quasiment pas en performance quand on abaisse sa consommation à ~300W (non pas avec un undervolting compliqué mais bien simplement en bougeant un slider). Son vrai problème c’est son prix.

    Image

    Et un limiteur de fps réduit aussi fortement la consommation (beaucoup plus qu’avec Ampere). Dans les fait même si on laisse la limite à 450w, on est souvent loin en dessous en usage réel.

    C’est de très loin le GPU avec le meilleur rapport perfs/watts de tous les temps. Contrairement à la gen d’avant, AMD ne pourra pas reprendre cette couronne on dirait. J’ai peur qu’il leur reste pas grand chose.

  9. La consommation est un faux problème sur la 4090 puisque la carte ne perd quasiment pas en performance quand on abaisse sa consommation à ~300W (non pas avec un undervolting compliqué mais bien simplement en bougeant un slider). Son vrai problème c’est son prix.

    Image

    Le GPU est bottleneck de fou avec un ryzen 7 1800x
    Plus il va monter en fréquence et en nombre d’image plus il consomme
    Aujourd’hui il est « trop fort » pour la plupart des CPU, mais tu lui colles un i9 13900k ou un ryzen 9 7950x, il va facilement monter à 500w

  10. Le GPU est bottleneck de fou avec un ryzen 7 1800x

    C’est le Graphics Score du benchmark qui est indiqué, soit le score GPU, et tout le monde a constaté le même comportement de la RTX 4090 quelque soit le jeu/benchmark et le CPU utilisé. Comme le dit kal, elle a un rapport perf/watts exceptionnel. NVIDIA a simplement poussé inutilement loin la limite haute par défaut et du coup tout le monde ne retient que ce chiffre de 450W.

    Aujourd’hui il est « trop fort » pour la plupart des CPU, mais tu lui colles un i9 13900k ou un ryzen 9 7950x, il va facilement monter à 500w

    Ben non, justement, si tu fixes la limite à 60% (dans GeForce Experience, MSI Afterburner ou encore EVGA Precision X1), la carte ne va pas pouvoir consommer plus de ~270W mais elle va continuer à fournir ~90% de ses performances normales.

  11. Rien pigé au bottleneck. Sauf si ton cpu est à 100% donc ton gpu est limité, euh, si c’est ça. C’est mon cas sur mon pc. I7490k, 2080 RTX, le cpu se traine.
    L’undervolting, j’ai l’impression que c’est nouveau. A cause du coup plus élevé de l’énergie ? Par contre comment c’est possible d’avoir la même performance en baissant sa consommation ? Alors pourquoi autant de puissance, peu de gens sont en 4K. La 4090 est pour un usage semi pro ou joueur fortuné, 0,01% des gamers.
    Alors si AMD n’est pas au niveau d’une 4090, franchement, le coeur de vente c’est le milieu de gamme. Donc osef… Etre égale à une 4080 à la rigueur.
    Mon écran va jusqu’à 144 hz donc au dessus la v-sync, g-sync ne marche plus. Donc aucun intérêt et 144 fps c’est très bien en jeu solo. A voir si plus de fps en ligne ça compense une partie de la latence serveur ou pas, j’ai un doute. On remarque bien la différence de fluidité en local vs online.

    Pour conclure, le prix, ça picote sévère. Une 4080 annoncée au double du prix d’une 2080. Bah non ^^, faut pas pousser mémé dans les orties comme dirait l’autre.

    Hier, j’ai lu un article que sa licencie dans le secteur numérique, les grands groupes. Que oui la demande diminue. Aller si on veut faire le prédicateur, ça sent la récession, suite logique d’une inflation. Qu’en Chine ça coince niveau Covid Zéro. Dernièrement ils ont fermé une usine qui fabrique des Iphone. Tout à augmenté même chez Apple, au magasin, tout. Dsl pour le pavé…

  12. Je trouve ça fou que en 4K, même des jeux pas si neuf, Unreal engine 4 (Kena, Hell let Loose), des jeux « optimisés » (MW2019 et MW2), Spiderman, red dead etc… Même avec une RTX3090, pas moyen de dépasser les 100FPS.

  13. NiroBk L’undervolting des GPU est devenu tendance depuis que la conso des cartes est devenue critique pour les alims et que les températures de certains éléments crèvent les plafonds en réglage usine. Les derniers MHz sont ceux qui coûtent le plus cher en conso et T°, mais faut bien s’assurer de vendre la plus grosse…

  14. @NiroBk L’undervolting des GPU est devenu tendance depuis que la conso des cartes est devenue critique pour les alims et que les températures de certains éléments crèvent les plafonds en réglage usine. Les derniers MHz sont ceux qui coûtent le plus cher en conso et T°, mais faut bien s’assurer de vendre la plus grosse…

    Oui, puis c’est un peu bizarre. D’acheter un GPU pour l’undervolter. C’est contradictoire. Autant prendre une gamme en dessous.

  15. Oui, puis c’est un peu bizarre. D’acheter un GPU pour l’undervolter. C’est contradictoire. Autant prendre une gamme en dessous.

    Tu n’aurais pas les mêmes performances avec la gamme en dessous. Le plus simple c’est de se dire que les GPU haut de gamme actuels sont vendu déjà « overclockés » jusqu’à leur maximum « garanti » pour un gain de performance marginal, et que l’undervolting les remet juste dans une spécification plus « standard ». Très peu de différence de performance à l’usage entre les 2 configurations, mais moins de consommation, donc moins de chauffe, donc moins de bruit.

  16. L’undervolting s’accompagne même souvent d’un gain de performance. Une RTX 3080 avec une fréquence fixée à 1905 MHz et un voltage réduit à 0.9V max sera par exemple plus performante qu’une RTX 3080 stock avec une fréquence moyenne de 1860 MHz à 1V.

    NiroBk pense downclocking quand il lit undervolting mais les deux ne vont pas forcément ensemble. L’undervolting ça consiste juste à réduire le voltage pour une fréquence donnée afin d’augmenter l’efficacité énergétique de la carte. C’est bénéfique, mais il faut y consacrer un peu de temps parce que c’est pas toujours stable.

  17. C’était pour vulgariser…

    Par contre je n’étais pas au courant pour le gain de performance des 3080. Curieux !

  18. @NiroBk L’undervolting des GPU est devenu tendance depuis que

    Je pense que c’est un peu moins tendance depuis qu’on s’est aperçu (oh surprise) que ça causait des plantages.

20 of 23 comments displayed


Connectez-vous pour laisser un commentaire