Ce dossier est une republication de notre article paru en 2003. Face à l’actualité récente des écrans 360Hz qui débarquent : nous pensons qu’il est intéressant de le remettre en avant. 

 

Dans un FPS, à partir de combien de frames par seconde devient-il inutile d’en rajouter ?

Devant la multitude de débats auxquels j’ai pu participer sur Internet, afin de savoir s’il était utile ou non de faire tourner Quake à 24 ou 100 images par seconde, j’ai procédé à quelques recherches afin d’écrire un article permettant de résoudre une fois pour toute à cette éternelle question. Je n’ai peut-être pas trouvé la réponse exacte, mais mon article devrait vous donner les armes nécessaires pour mettre fin à 99% des threads parlant de ce sujet.

Poser les bonnes questions avant de chercher les réponses

Au fur et à mesure que je récoltais des données pour rédiger cet article, l’objet même de la question à laquelle je me proposais de répondre a évolué. À l’origine, je voulais savoir combien d’images l’œil humain pouvait percevoir en une seconde. Une question qui aurait du sens pour un capteur électronique mais qui est parfaitement stupide pour des organes biologiques comme notre oeil et notre cerveau.

Je me suis donc demandé quel était le nombre d’images optimal pour un jeu vidéo, une question dont la réponse n’a que peu d’intérêt : plus il y a d’images, mieux c’est. Il est plus intelligent de se demander à partir de quel framerate un jeu paraît parfaitement fluide, mais là encore il n’y pas de réponse unique : si un film à 24 images par seconde parait parfaitement fluide au cinéma, pourquoi ne pourrait-il en être autant dans un jeu vidéo ?

Je me suis donc résolu à énoncer des faits qui répondent à des questions simples : quelle est l’influence de la persistance rétinienne dans un jeu vidéo ou au cinéma, pourquoi un film est fluide à 24 images/seconde alors qu’un jeu semble haché, d’où vient l’impression de mouvement dans une succession d’images fixes, combien de temps une image doit-elle être affichée pour que l’oeil puisse la saisir. Des questions simples, mais dont les réponses mettront fin à de nombreux débats où les gens s’appuient sur des idées reçues souvent complètement fausses.

Faire table rase des idées reçues

  • L’oeil ne peut voir que 24 images par seconde : faux.
  • Le taux de 24 images par seconde au cinéma a été choisi afin de donner une impression de fluidité : faux.
  • Une succession de 24 images par seconde permet l’illusion d’un mouvement fluide : faux.
  • L’impression de mouvement dans un défilement d’images fixes a pour origine le phénomène de la persistance rétinienne : vrai, heu non, faux !

Persistance rétinienne et cinéma

Au cinéma, entre deux images projetées à l’écran, il n’y a que du noir, ou plus exactement, il n’y a rien. C’est pour compenser la faible luminosité de l’image qui en résulte que les films sont projetés dans le noir. C’est grâce à la persistance rétinienne que nous ne voyons pas l’écran s’éteindre.

La persistance rétinienne est la relative inertie des cellules de la rétine qui gardent, pendant un court temps, la trace d’une impression lumineuse. La persistance rétinienne fait en sorte que l’image imprimée sur la rétine, celle que notre cerveau doit analyser, est en réalité une intégrale pondérée des précédentes 120-125 ms d’informations.

Cependant, la persistance ne joue pratiquement aucun rôle dans la perception cinématographique, contrairement à ce que l’on a souvent affirmé et qu’on affirme encore. Elle n’est en rien à l’origine de la perception du mouvement, bien au contraire : c’est elle qui, dans la réalité, fait en sorte qu’une hélice tournant rapidement nous apparaisse comme étant une paroi translucide et immobile.

L’impression de mouvement au cinéma vient d’un phénomène psychophysiologique : le phénomène phi, ou effet phi.

L’illusion du mouvement : l’effet phi

Ce sont avant tout des phénomènes psychologiques, donc sans rapport avec le fonctionnement de l’oeil, qui permettent de combler un écart réel entre deux images grâce à des processus mentaux. L’effet phi est au premier rang de ces phénomènes : lorsque des points lumineux espacés les uns des autres sont allumés successivement, on voit un trajet lumineux continu là où se trouve en réalité fixité et discontinuité.

Vous pouvez mettre en évidence ce phénomène en vous plaçant dans une chambre parfaitement noire : illuminez un point en face de vous, puis éteignez le tout en en illuminant un second situé à une certaine distance du premier : vous verrez alors un point unique se déplacer lentement d’une position à l’autre de façon parfaitement fluide.

Voilà pour l’illusion du mouvement, mais qu’en est-il de la fluidité ?

Fluidité au cinéma, avec un F comme Flou

Les mouvements au cinéma semblent fluides tout simplement parce que lors d’un mouvement rapide, l’image est floue. Pas un peu flou, complètement floue ; tellement floue que si vous mettez un film sur pause lors d’un combat de karaté, vous ne distinguerez même pas les bras des combattants.

Les constructeurs de cartes graphiques ont d’ailleurs tenté de copier ce phénomène en implémentant le “motion blur”, un effet qui permet de rendre un jeu parfaitement fluide avec un framerate très bas en rendant floues toutes les parties de l’image qui sont en mouvement.

 

Sans motion blur, c’est un fait que les mouvements dans un jeu à 24 images par seconde ne sont pas fluides. D’autre part, un film dont les images seraient parfaitement nettes et qui serait projeté au cinéma à 24 images secondes serait horriblement haché. Les créateurs d’effets spéciaux image par image, de films en images de synthèse et même de dessins animés sont parfaitement conscients de ces faits et sont obligés de jouer avec. C’est ainsi que dans Robocop 1 et 2, on a rajouté un effet de flou permettant aux effets spéciaux en image par image d’être fluides là où ceux de la fin de Terminator 1 sont affreusement hachés.

Cet effet de flou est tel qu’au cinéma, 18 images par seconde suffisent à rendre les mouvements fluides mais on a finalement choisi 24 images comme standard professionnel afin de caser la bande sonore sur la pellicule.

Pour des images nettes, comme celles affichées dans les jeux vidéo n’utilisant pas de motion blur, on a pour habitude de dire qu’un jeu est fluide à partir de 50 images par seconde. Mais cela dépend évidemment de la rapidité des mouvements et des capacités de chaque personne. C’est d’ailleurs pour cette raison que les jeux de course sont les principaux utilisateurs de motion blur. C’est aussi pour cela que les joueurs de Quake qui ont l’habitude de faire des rotations et des mouvements très rapides sont plus sensibles au framerate que les joueurs de jeux où les mouvements sont plus lents comme dans Raven Shield ou Counter-Strike.

Le temps nécessaire pour détecter et analyser une l’image

Imaginez-vous en train de fixer un mur blanc. Si ce mur devient noir pendant 1/25ème de seconde, vous vous en rendrez probablement compte. Il sera plus dur de le détecter s’il ne disparaît qu’1/50ème de seconde. A partir d’1/100ème de seconde, il y a peu de chance que vous vous aperceviez de quoique ce soit.

Imaginez-vous à présent dans une pièce sombre. Si une lumière s’allume en face de vous ne serait-ce qu’1/200ème de seconde, nul doute que vous vous en apercevrez. Certains flashs d’appareil photo ne durent qu’1/2000ème de seconde et pourtant, vous n’avez aucune difficulté à les percevoir. De plus, vous pouvez réussir à saisir de nombreux détails de la scène qui n’a pourtant été illuminée qu’un temps extrêmement court.

La luminosité l’emporte sur les ténèbres, c’est une conséquence directe de la persistance rétinienne : plus une image est lumineuse, plus longtemps elle restera imprimée sur la rétine. Fixez le Soleil 1 seconde si vous n’êtes toujours pas convaincu.

Mais ce qui est important dans cette expérience, pour en revenir à nos jeux vidéo, c’est que dans certaines occasions l’oeil peut saisir une image en moins d’1/2000ème de seconde. Des tests effectués sur des pilotes de l’US Air Force ont démontré qu’ils étaient capables de reconnaître le modèle d’un avion dont l’image ne leur est présentée qu’1/220ème de seconde. On est loin des 1/24ème de seconde du cinéma ou des 50 frames par secondes qu’on estime suffisantes pour rendre un jeu fluide… mais soyons clair, nous ne parlons pas ici de fluidité.

Le temps nécessaire pour détecter une image dépend donc de sa luminosité. De plus, la durée d’exposition nécessaire au cerveau pour l’analyser dépend de la complexité de l’image et de votre familiarité avec ce qui y est représenté.

Si nous voulons réaliser une simulation parfaite de la réalité, il faut donc afficher plus de 2000 images par seconde, bien plus…

Pour en revenir aux jeux vidéo

Dans un jeu où il n’existe pas de flash aussi court, il n’est pas nécessaire d’en arriver à de telles extrémités. Dans un jeu d’action, une telle débauche d’images ne saurait être utile que dans des cas extrêmes, par exemple si vous êtes dans une pièce sombre et qu’une roquette passe devant vos yeux à plus de 1000 Km/h. Et encore, nul doute que le temps que votre cerveau décode l’image, il aura déjà saisi la situation en analysant le son capté par votre oreille.

Quel est donc le framerate idéal dans un jeu vidéo ? Si l’on oublie la fréquence de rafraîchissement de nos écrans, la sensibilité de nos souris, le nombre d’événements effectivement calculés (et non affichés) par le moteur 3D, on peut conclure que plus il y a d’images, mieux c’est.

Ce qui est sûr, c’est qu’avec la technologie dont nous disposons aujourd’hui, ce n’est pas l’œil et encore moins le cerveau qui rendent inutile le fait d’afficher des centaines d’images à la seconde dans un jeu vidéo, ce sont les périphériques d’entrée (la souris et sa définition) et de sortie (l’écran et son taux de rafraîchissement).

Et pour être honnête, il n’est pas très intelligent de parler de la perception humaine en terme d’images par seconde alors que l’œil et le cerveau perçoivent un flux continu de lumière et d’informations.

Sources :

32 Commentaires


  1. C’est un bon article.
    Il serait tout de même intéressant de savoir partir de quel taux (en moyenne) on ne voit plus la différence

  2. C’est un bon article.
    Il serait tout de même intéressant de savoir partir de quel taux (en moyenne) on ne voit plus la différence

    Ça va varier selon plein de facteurs mais aujourd’hui c’est surtout le matériel qui nous limite: les LCDs ne peuvent pas changer leurs pixels d’état assez vite pour beaucoup plus que 200-300hz. En vrai beaucoup de LCDs font encore n’importe quoi au delà de ~120hz et affichent des artefacts d’overdrive, une qualité d’image pourrie etc. Autrement dit: même si 360hz c’est mieux que 144hz, ça va être difficile voir impossible à voir avec les écrans actuels.

    Si le sujet t’intéresse dis toi que même 1000hz (ou 10 000hz en VR!) ça aurait du sens, dans certains cas, si c’était possible.

    (pour ce qui est du problème des performances du PC derrière l’écran à mon avis ça va être réglé dans un futur très proche par de l’interpolation d’images comme tout le monde le fait déjà en VR)

  3. 25FPS: FAUX
    Tout dépend des déplacements dans l’image (je pends ici dans la largeur):
    – 25fps sur un écran de 5cm de large, ça va, cela fait des étapes de 0.2mm, donc à 30cm ça passe.
    – 25fps sur un écran de 55″, ça fait des étapes de 4.8cm, donc même à 2-3 mètres ce n’est pas fluide (ça se voit très bien).
    – 25fps sur un écran de 24″ (le mien par exemple), des étapes de 2cm, à 50-60cm ça se voit aussi.

    Et personnellement au cinéma, plus les films ont des mouvements rapides plus on perçoit cette non fluidité, surtout si vous êtes comme moi à se mettre assez proche de l’écran.
    C’est comme les bandes de couleurs

  4. Merci beaucoup pour ce chouette article. Première fois que je discute d’un article NOFRAG avec ma femme dans le train en rentrant du taf.

    Je me rend compte que je ne savais absolument pas ce qu’était le motion blur. Je pensais que c’était un effet lumineux de merde et je desactivais sans cesse cette option. Peut etre aurais je du la laisser activé pour certain jeu. En tout cas, je ferai les tests desormais.

    Grâce à vous, je sais desormais pourquoi l’image était systématiquement flou quand on mettait un film cassette sur pause. C’était donc l’ancêtre du motion blur c’est bien cela?
    L’article explique le principe pour avoir une image fluide avec peu d’image? Mais quelle est son explication? Ce n’est pas l oeil qui en est à l’origine j’imagine.c’est le cerveau qui reconstitue une image nette et refais donc en permanence la liaison avec l image précédente ?

    Cela pique ma curiosité, je vais voir ce que je vais trouver à ce sujet.

    Merci en tout cas.

    PS : le coup des pilotes de chasse qui reconnaissent une image a 200ms. En gros, on pourrait encore diminuer ce temps en leur balançant un énorme flash lumineux en théorie. J’avais vu il y a quelques année une émission sur des singes, à qui on montrait une succession de chiffre sur une image qui apparaissait très brièvement. Alors que l’homme ne les distinguait pas, les singes etait était capable de reconstituer fidèlement cette succession de chiffre. Leur performance pourrait donc être liée à une persistance rétinienne plus marquée que chez l’homme.

  5. Grâce à vous, je sais desormais pourquoi l’image était systématiquement flou quand on mettait un film cassette sur pause. C’était donc l’ancêtre du motion blur c’est bien cela?

    C’était et c’est toujours du motion blur. Ça n’a pas de rapport avec les cassettes, les films d’aujourd’hui qui sortent en Blu-ray 4K Ultra HD ont toujours le même taux d’images par seconde et sont toujours aussi flous quand on les met en pause alors que quelque chose bouge à l’écran.

    Exemple avec le Blu-ray 4K de Stars Wars The Last Jedi et celui de Joker.

  6. Je me rend compte que je ne savais absolument pas ce qu’était le motion blur. Je pensais que c’était un effet lumineux de merde et je desactivais sans cesse cette option. Peut etre aurais je du la laisser activé pour certain jeu. En tout cas, je ferai les tests desormais.

    On te dit qu’il faut le virer cette merde !

  7. 25FPS: FAUX
    Tout dépend des déplacements dans l’image (je pends ici dans la largeur):
    – 25fps sur un écran de 5cm de large, ça va, cela fait des étapes de 0.2mm, donc à 30cm ça passe.
    – 25fps sur un écran de 55″, ça fait des étapes de 4.8cm, donc même à 2-3 mètres ce n’est pas fluide (ça se voit très bien).
    – 25fps sur un écran de 24″ (le mien par exemple), des étapes de 2cm, à 50-60cm ça se voit aussi.

    Et personnellement au cinéma, plus les films ont des mouvements rapides plus on perçoit cette non fluidité, surtout si vous êtes comme moi à se mettre assez proche de l’écran.
    C’est comme les bandes de couleurs

    Sauf que là tu compares 25fps sur 5cm (la diagonale de 5cm de large) et sur un écran de 60cm (24″).
    Donc évidemment que plus le mouvement est grand (5cm/60cm) sur une période de temps stable (1s j’imagine) à un taux de raffraichissement stable (24fps), les résultats seront différents.
    Un déplacement de 5cm à 24 fps sera semblable sur un écran 5cm ou 24″ de diagonale.
    Evidemment que les mouvements seront différents à l’oeil si pour un même taux de rafraichissement on change la distance.

  8. Je suis “enfin” passé à un écran 144hz … Je vois la différence, mais je regrette l’investissement (tout comme mon clavier mecanique).
    En fait pour le joueur counter strike, il n’y a eu aucun progrès en 20 ans ! On avait aussi des écrans crt 120hz + clavier mécanique et on en faisait pas tout un foin !
    Ah si … Maintenant on tire avec des kqlaqsh rose fluo

  9. 144hz pour un fps c’est good. un jeu solo à partir de 70,80,90 fps. Après si certains arrivent avec 20 fps tant mieux pour eux…

  10. En fait les fps c’est comme la thune, plus y’en a mieux c’est, même si on peut apprendre à se débrouiller avec peu (ce qui semble plus difficile si on est habitué à beaucoup de confort).

    Je dois faire parti des gens qui arrivent avec 20 fps… je tenterais pas Counter Strike avec mon matos par contre…

  11. Je pense que c’était des vidéos chez JAYZTWOCENTS et Linus où ils demandaient à des potes de dire quand c’était à 75,100,120,144hz.
    Genre ils se sont plantés 9/10 et ne ressentaient pas de différences entre 75 et 120hz…
    Après s’être tapé la honte, ils ont quasi avoué “en rigolant” que entre 75hz et 100hz c’était le bon spot pour avoir une bonne sensation de fluidité.
    Le tout après avoir fait l’apologie pendant des années de +100hz.

    Sur ce je vais m’acheter ce 360hz…ouais je vais enfin leet comme au bon vieux temps.

  12. [*]Je suis tombé rcemment sur une video de Linus qui avait abordé le sujet en colaboration avec Nvidia. Il y avait comme cobayes Shroud , un pgm sous Overwatch , un gris streamer et un gugus de chez Linus.

    Ils passaient en revue le 60 Hz , le 140Hjz et le 200+ Hz avec divers tests et IPS.

    Grosso modo , le 140 Hz apportait vraiment un gain significatif par rappirt au 60 , le 200+ le gain par rapport au 140 était bien moindre.

    Je farfouillerais quand je serais sur le PC pour retrouver le lien.

  13. Quand on me parle de 144hz et de 120 fps, je me sens loin et je comprend pas qu’on ai besoin d’autant… je saisis parfaitement la différence entre 30 et 60 fps et je comprend l’utilité du 60 fps minimum pour le multi, mais j’ai jamais eu les roupilles pour faire peter les derniers jeux en 60 fps.

    Mais tout ça reste aussi très subjectif et rapport au vécu, je me suis tellement habitué au 30 fps que voir du 60 fps pour un jeu solo, ça me pète ma suspension d’incrédulité, je trouve que ça fait cheap et vulgos je sais pas pourquoi… rapport au cinéma sans doute, entre le 24 fps d’un Sergio Leone terriblement sérieux et la fluidité stupide d’Helene et les Garçons…

    J’ai eu l’opportunité de faire les Metro en 60 fps sur une PS4, je trouvais ça tellement toc que j’ai préféré passer sur mon PC en 30 fps pour être plus immergé… le 30 fps apporte quelque chose d’étrangement solennel qui améliore l’atmosphère de certains jeux, comme quoi au fond l’expérience de chacun est vraiment unique de ce point de vue. (Après faut pas exagérer, Doom c’est du 60 fps obligé. Mais 60 fps dans Stalker, c’est rédhibitoire, et tant pis si la visée ou le gameplay en pâtit un peu)

  14. J’ai eu l’opportunité de faire les Metro en 60 fps sur une PS4, je trouvais ça tellement toc que j’ai préféré passer sur mon PC en 30 fps pour être plus immergé…

    T’as inversé les chiffres

  15. La compréhension que j’ai toujours eu là dessus, c’est que le nombre de FPS est un arbre qui cache une forêt : la latence (aussi appelé l’input lag), qui est le seul truc véritablement important pour l’expérience de jeu.

    (je ne parle pas seulement de la latence réseau, mais de la latence complète du système : le temps entre le moment où vous pressez une touche et le moment où il y a une réaction à l’écran)

    La latence moyenne est d’au minimum de 1 seconde divisé par le framerate. Donc si toutes les autres sources de latences ont été supprimées, alors effectivement augmenter le framerate va diminuer la latence.

    Mais dans la vraie vie, la latence est additive et ses sources sont nombreuses : un écran non-gamer va avoir 10 millisecondes de temps de réponse, et un clavier moderne (incluant les claviers gamers !) exhibe souvent 45 à 50 millisecondes de latence !

    Si vous jouez avec un clavier avec 45 millisecondes de latence et un écran qui en a 10, vous avez déjà 55 millisecondes de latence dans les pattes. Il faut encore rajouter la latence ajoutée par le framerate : à 30 FPS, vous ajoutez 1000 / 30 = 33 ms (total : 88ms), à 60 FPS, vous ajoutez 17 ms (total : 72ms), à 120 FPS, 8ms (total : 63 ms). Et il faut probablement rajouter encore de la latence supplémentaire par le PC en lui même.

    Globalement, on arrive à des absurdités où les systèmes PCs modernes ont une latence supérieures à 100ms alors que les ordinateurs des années 70 et 80 en ont généralement moins de 60.

    Bref, un framerate plus élevé vous permet de converger vers une asymptote qui est le reste de la latence de votre système. Le framerate peut constituer une portion significative de la latence si ce framerate est bas, mais dés qu’on monte en FPS, c’est le reste du système qui devient le véritable nœud du problème.

    Et comme personne n’en parle jamais, on se retrouve avec des gamers qui se focalisent sur leur écran 144 Hz alors qu’ils ont 50 ou 100ms de latence entre leur clavier et leur écran. Ou encore qui se paluchent sur leur ping fibre à 2ms alors qu’ils ont 10 ou 50 fois ce délai en interne dans leur machine.

  16. J’ai eu l’opportunité de faire les Metro en 60 fps sur une PS4, je trouvais ça tellement toc que j’ai préféré passer sur mon PC en 30 fps pour être plus immergé…

    T’as inversé les chiffres

    Non non, les chiffres sont en adequation avec son propos.
    Je ne comprends absolument pas comment on peut penser cela, je ne conçois absolument pas comment il peut trouver l’ambiance meilleur et solennelle en 30 ips.

    Il n’y a qu’une démarche philosophique qui pourrait l’expliquer.
    Un truc du genre le luxe est superflu, vivons dans la pauvreté.
    En somme, Sadyn, c’est l’abbé Pierre de la génération connectée.

    Je trolle, mais sans deconner, j’arrive toujours pas à concevoir son propos. Solennelle, 30 fps, non, l’association ne fonctionne pas.

  17. @Darkstryder c’est pas simplement la latence mais oui c’est un point important c’est sûr. Par exemple avec un rafraichissement suffisamment élevé et un écran qui suit la route (CRT ou très bon LCD) tu vas pouvoir lire du texte qui se déplace vite, sur un LCD basique à 60hz c’est très vite de la bouillie de pixels (plein de tests ludiques et explications par là https://www.testufo.com). Sur des jeux avec beaucoup de mouvement c’est pas difficile de comprendre l’intérêt d’augmenter la fréquence pour voir plus de détails et avoir une expérience plus immersive. Je te laisse imaginer l’importance de ça en VR, mais on est au point où ils font de la prédiction pour compenser la relative lenteur des écrans et des PCs: https://developer.oculus.com/blog/the-latent-power-of-prediction/ ou https://danluu.com/latency-mitigation/

    Par contre je suis pas tout à fait d’accord pour dire que la latence est plus élevée sur les machines modernes de manière générale.

    En bureautique avec un écran LCD 60hz OK, mais c’est principalement la faute de l’écran justement. Ah et info importante dont ton lien ne parle pas: depuis Windows Vista on a de la v-sync double buffered (2 frames) sur le bureau (le fameux Desktop Window Manager) ça rajoute ~30ms avec un écran 60hz (dans ton lien il semble s’en être rendu compte à la partie “Refresh rate vs. latency”). Linux je sais pas mais Apple depuis quelques années fait pareil à ma connaissance (plus on a d’animations en bureautique plus le tearing va être visible donc c’est compréhensible). La latence supplémentaire du PC que tu évoque est visiblement négligeable si on enlève la v-sync (hors/applis jeux mal codés bien entendu), malgré la complexité des machines modernes.

    Les machines de jeux avec un écran 120hz et plus on tombe sans difficulté en dessous de 40-30ms: https://youtu.be/4oHGinQjt5c?t=476 et d’ailleurs même en 60hz on peut descendre très bas tant qu’il n’y pas de v-sync. Sur blurbusters on trouve des gens qui montrent la même chose (et puis battle(non)sense de toute façon a un protocole de test béton et a testé des souris et claviers aussi).

    Après oui, il y a du bullshit marketing à tout va et des joueurs qui chassent pas toujours les “ms” au bon endroit. Mais autant l’arrivée en masse des LCDs 60hz c’était une grosse régression sur ce point (on est nombreux à se souvenir des joueurs qui faisaient la chasse aux CRTs d’occasion), autant avec l’arrivée des LCDs 120hz de qualité correcte on a bien remonté la pente.

  18. J’avais Shadow of the Tomb Raider. J’avais testé ma 2070 et mon [email protected] en
    – max 30 fps
    – max 60 fps
    – Gsync 75 fps.
    Puis j’ai bridé mon écran en 60fps et j’avais aussi testé :
    – Gsync 60 fps.
    – max 60 fps.
    (avec toutes les options à fond pour bien être dégoutté)

    J’ai dû admettre que la vsync dégueulasse tout pendant les chutes de framerates (autant cinématique que gameplay)
    Alors sur certains jeux aujourd’hui comme Call Of, je débride tout et je fous le max FPS.
    Aucune déchirure, c’est propre… j’me tape des maps avec 150 fps en 1440p.
    Mais sur certains jeux (Comme Tarkov) je suis obligé de mettre la v-Sync (adaptative) sinon avec les déchirures, c’est INJOUABLE.
    J’ai tout essayé, j’y ai passé des heures. Quand tu gagnes de la fluidité d’un coté, tu perds en qualité de l’autre coté.
    Horrible d’être en 2020 et de galérer autant pour jouer à jeu.

    PS : je me rappelle l’enfer d’ArmA3 quand je voulais passé au multi à l’époque. Je croyais péter un câble toutes les deux parties.
    Y’a d’autres gars qui ont choppé un cancer comme moi à cause de certains jeux?

  19. YottaDahK T’es censé limiter le frame rate 3 FPS en dessous du taux de rafraîchissement de ton moniteur, pour éviter que G-Sync ne se désengage et ne se réengage en permanence (chose faisable directement dans le panneau de configuration NVIDIA avec les derniers drivers). Logiquement, si c’est dégueulasse, c’est que G-Sync ne fonctionne pas.

    T’as peut-être aussi tout simplement un mauvais moniteur FreeSync comme il en existe des milliers, avec une plage de fonctionnement hyper restreinte.

  20. Ça serait cool si la rédaction de Nofrag fessait un dossier aussi complet que possible sur les différentes source de latence qu’il est possible et utile de réduire parce que comme le disent certains ici c’est le point centrale du schmilblick.
    C’est pas négligeable pour ceux qui jouent en multi même si après il y a d’autres facteurs qui interviennent et qui dépendant plus de ce que tu peux bien faire sur ton pc.

    Le youtubeur CAPET a fait pleins de vidéos sur ces sujets où il compile des solutions.

    Il y a matière à travailler d’autant qu’on est ici au bon endroit pour en parler et échanger, c’est passionnant je trouve, dans de nombreux cas des gens vont redécouvrir leur pc et leurs jeux.

Connectez-vous pour laisser un commentaire