Visiblement, Nvidia a quelque chose à présenter à la fin du mois. Tous ses comptes de réseaux sociaux se sont affublés d’une nouvelle bannière annonçant un événement qui aura lieu dans 21 jours, soit le 31 août.

teasing Nvidia UltimateCountdown2 scaled

L’image contient aussi un énigmatique « 21 années », probablement en référence aux célèbres GeForce 256, annoncées le 31 août 1999. Évidemment, on pense tout de suite aux nouveaux GPU Ampere qui devraient apparaître sur le marché d’ici la fin de l’année. Pour les plus impatients, un récapitulatif des rumeurs concernant cette nouvelle génération se trouve chez Tom’s Hardware.

Article précédent[TEST] Kill It With Fire, le défouloir pour arachnophobe
Article suivantCyberpunk 2077 présente ses factions et ses armes

7 Commentaires


  1. Je croyais que c’était Turing le nouveau GPU révolutionnaire. Mais en fait non, Turing était une arnaque et c’est « Ampere Gaming » la vraie révolution du GPU ? :O

  2. Nvidia (et tous les constructeurs de chipset en général) aiment donner des noms à leurs générations de composants.
    Maxwell → Série 900
    Pascal → Série 10×0
    Turing → Série 20×0, 20×0 Super et 16×0
    Ampere → Série 30×0

    Je sais pas pourquoi tu dis que Turing était une arnaque. Les GPU étaient très très bon.
    Toute nouvelle génération se veux être « le futur de X ».

  3. Je pense que c’est le mot « révolution » et le marketing qui vient avec qu’il critique. Pas le hard.

  4. Je sais pas pourquoi tu dis que Turing était une arnaque. Les GPU étaient très très bon.

    En dehors du RT pas vraiment, la 2080 est sortie au même prix que la 1080 Ti pour des perfs comparables (et moins de RAM). Pareil pour la 2080 Ti/Titan.
    Pour beaucoup de joueurs les 20XX ont été synonyme de vendre la même puissance pour le même prix en faisant juste glisser les produits dans la gamme.

    Et le RT/DLSS/etc n’a pas été utile avant pas mal de mois après la sortie desdits cartes. Pas la génération la plus dingue donc.

  5. En dehors du RT pas vraiment, la 2080 est sortie au même prix que la 1080 Ti pour des perfs comparables (et moins de RAM). Pareil pour la 2080 Ti/Titan.
    Pour beaucoup de joueurs les 20XX ont été synonyme de vendre la même puissance pour le même prix en faisant juste glisser les produits dans la gamme.

    Et le RT/DLSS/etc n’a pas été utile avant pas mal de mois après la sortie desdits cartes. Pas la génération la plus dingue donc.

    Et pourtant NVIDIA a fait exactement ce qu’il fallait faire. La finesse de gravure ne changeant pas entre la 1080, 1080 Ti et la 2080 (trois produits couvrant 3 années), il n’y a pas plus de budget transistors actifs et consommation disponible pour augmenter les performances (note que tous les transistors ne peuvent etre actifs en meme temps sans outrepasser la limite de consommation). Si NVIDIA n’avait pas mis d’unités RT/TC mais plus de CUDA cores a la place, je pense que tu aurais été quand meme tres décu des performances. Regarde la difference de performance entre le V100 (14nm) et le A100 (8nm), le A100 n’est que 25% plus rapide en CUDA pure. Et ca cela malgré une sacré difference en finesse de gravure.

    Sans compétition sérieuse de la part d’AMD sur les GPUs, c’etait exactement le bon moment pour introduire le ray tracing en hardware sans prendre le risque d’avoir AMD sortir un GPU un brin plus performant mais qui ne supporte pas le ray tracing. NVIDIA a maintenant bientot deux ans d’avance sur la compétition par rapport au ray tracing, les GPUs AMD (et XBOX/PS5) ne sortant pas avant la fin de l’année. Et on ne sait meme pas si AMD aura un equivalent a DLSS. Deux ans! C’est enorme! Ils ont eu le temps de faire evoluer le RT/DLSS d’une jolie demo technique a une fonctionalité presque indispensable (regarde la video de Digital Foundry sur Control DLSS 2).

    karibou a raison. Les GPUs Turing ne sont pas une arnaque, ou en tout cas pas de maniere evidente, ce sont les meilleurs GPUs disponible depuis 2 ans sans aucune compétition sérieuse (et cela sans RT/DLLS). Avec RT/DLSS2 dans des titres comme Control, c’est un autre monde.

    Pour avoir des performances meilleures, il faut soit une meilleure architecture, soit avoir une meilleure finesse de gravure. Tu peux penser ce que tu veux de NVIDIA, mais pour le premier point AMD a montré qu’avoir une meilleure architecture que Turing ce n’est pas simple (et ils ont eu 2 ans pour essayer de ratrapper leur retard), et pour le deuxieme point NVIDIA et AMD sont a la merci des evolutions technologiques chez TSMC et Samsung (et les ameliorations de finesse de gravure ont quand meme sacrément ralenti depuis 10 ans).

    Les améliorations de finesse de gravure étant le principal moteur des réductions de couts et d’augmentation de performance, l’arnaque viendrait elle des lois de la physique?

  6. Blah Blah Blah….

    C’est beau… j’en pleurerais presque… Quel plaisir de lire ce genre de commentaires dans les news, ça nous change des Jean-Kevin et des pleurnichards habituels.
    Merci, sincèrement.

  7. GPSnoopy ce qui est bon pour Nvidia n’est pas forcément bon pour les consommateurs, que ces derniers tirent la gueule c’est un peu normal.

    Comme dit plus haut, à puissance équivalente (donc disponible pour tout les jeux, le DLSS n’étant disponible que sur de rare titres, le RT étant impraticable sur des grosses résolutions) les 20XX n’apportaient rien par rapport à la génération d’avant. J’ai acheté une 1080 Ti deux mois avant les 20XX en serrant les fesses en me disant « si ça se trouve elles seront +30% plus puissantes pour le même prix et tu sera dégoûté », je misais sur un +15%. Finalement c’était +0%, avec le DLSS 1.0 qui n’était pas utilisable en 3440×1440, le RT qui n’était lui non plus pas utilisable en 3440×1440 (si tu te paye un GPU de ce type aujourd’hui, c’est que tu as probablement ce genre d’écran), et de toutes manières même si ça l’était, il n’y avait pas de jeux qui le supportait à la sortie.
    Bref j’ai bien rigolé et pas mal de joueurs on fait l’impasse sur les 20XX pour cette raison là (y’en a même qui ont pris des 1080 Ti après que les 20XX soient sorties).

    Le DLSS 2.0 a l’air cool par contre. Mais c’est sorti il n’y a que quelques mois… pour des GPU sorti en 2018. Ouch.

    Les 30XX par contre, ça a l’air d’être la génération qui va faire un joli saut : maintenant on a vraiment des jeux qui supportent le RT, le DLSS 2.0 est utile pour tout le monde, et en plus on devrai avoir un saut en puissance conséquent.

Connectez-vous pour laisser un commentaire