Explication sur l’opposition entre G-Sync et FreeSync
Lors de l’achat d’un écran dédié aux jeux, il est important de comparer les technologies G-Sync et FreeSync. Toutes deux améliorent les performances du moniteur en adaptant celle de l’écran à la carte graphique. Et chacune possède des avantages et inconvénients précis : la G-Sync offre des performances optimales pour un prix plus élevé alors que la FreeSync est susceptible de provoquer certains effets comme le ghosting.
Que donne donc l’opposition entre G-Sync et FreeSync ? Au final, ce sera à vous de décider laquelle vous convient le mieux (avec l’aide de notre guide ci-dessous).
Avant, les fabricants de moniteurs s’appuyaient sur la norme V-Sync pour s’assurer que les consommateurs et les professionnels pourraient utiliser leurs écrans sans problème en étant connectés à des ordinateurs très performants. Cependant, comme la technologie a évolué rapidement, de nouvelles normes ont été développées, les deux principales étant la G-Sync et la FreeSync.
Avant d’aborder plus en détail les technologies G-Sync et FreeSync, parlons de la V-Sync qui était une des premières normes créées pour résoudre le problème de déconnexion entre les cartes graphiques et les écrans.
Qu’est-ce que la V-Sync ? Et en quoi est-ce important ?
La V-Sync, abréviation de « vertical synchronization » en anglais, est une technologie d’affichage conçue à l’origine pour aider les fabricants de moniteurs à éviter le screen-tearing. Ceci se produit lorsque deux images différentes interfèrent l’une avec l’autre parce que la fréquence de rafraîchissement du moniteur ne peut pas suivre le rythme des données envoyées par la carte graphique. La distorsion est facile à détecter puisqu’elle provoque une coupure ou l’apparition d’un mauvais alignement de l’image.
Cela s’avère utile dans les jeux. Par exemple, actuellement, la moyenne pour un jeu sur ordinateur est de 60 FPS. De nombreux jeux haut de gamme fonctionnent à 120 FPS ou plus, ce qui demande à l’écran une fréquence de rafraîchissement de 120 à 165 Hz. Si le jeu est exécuté sur un moniteur dont la fréquence de rafraîchissement est inférieure à 120 Hz, des problèmes de performance surgissent.
La V-Sync élimine ces problèmes en imposant un plafond précis d’images par seconde (FPS) qu’une application peut atteindre. En gros, les cartes graphiques pourraient reconnaître les fréquences de rafraîchissement du ou des moniteurs utilisés par un appareil, puis ajuster les vitesses de traitement des images en fonction de ces informations.
Bien que la technologie V-Sync soit communément utilisée lorsque les utilisateurs jouent à des jeux vidéo récents, elle fonctionne également bien avec les anciens jeux. La raison est que la V-Sync ralentit la fréquence d’images des cartes graphiques pour répondre aux normes antérieures.
Malgré son efficacité à éliminer le screen-tearing, elle provoque souvent des problèmes comme un affichage « saccadé » et un retard d’affichage. Dans le premier cas, il s’agit d’une variation notable du temps entre les images, entraînant un effet de hachage de l’image.
La V-Sync n’est utile que lorsque la carte graphique transmet la vidéo à une fréquence de FPS élevée, et que l’écran ne prend en charge qu’un taux de rafraîchissement de 60 Hz (ce qui est fréquent parmi les anciens équipements et les écrans non destinés aux jeux). La V-Sync permet à l’écran de limiter les données provenant de la carte graphique, afin de s’assurer que les deux appareils fonctionnent de façon synchrone.
Bien que cette technologie fonctionne bien avec les appareils bas de gamme, la V-Sync dégrade les performances des cartes graphiques haut de gamme. C’est la raison pour laquelle les fabricants d’écrans ont commencé à commercialiser des moniteurs dédiés aux jeux, avec des fréquences de rafraîchissement de 144, 165 et même 240 Hz.
Même si la V-Sync fonctionne bien avec les anciens moniteurs, elle empêche souvent les cartes graphiques récentes de fonctionner au maximum de leurs performances. Par exemple, les moniteurs dédiés aux jeux possèdent souvent une fréquence de rafraîchissement d’au moins 100 Hz. Si la carte graphique produit des données à faible vitesse (par exemple à 60 Hz), la V-Sync l’empêchera de fonctionner à son meilleur niveau.
Depuis la création de la V-Sync, d’autres technologies comme la G-Sync et la FreeSync ont vu le jour, non seulement pour résoudre les problèmes des performances de l’affichage, mais aussi pour améliorer les éléments de l’image comme la résolution d’écran, les couleurs de l’image ou les niveaux de luminosité.
En gardant cela à l’esprit, examinons de plus près les normes G-Sync et FreeSync afin que vous puissiez choisir le moniteur qui vous convient.
Qu’est-ce que la G-Sync ?
Lancée publiquement en 2013, la G-Sync est une technologie développée par NVIDIA qui synchronise l’écran de l’utilisateur avec les données de la carte graphique de l’appareil, rendant les performances plus fluides, surtout pour les jeux. La G-Sync a gagné en popularité dans le domaine de l’électronique car les fréquences de rafraîchissement du moniteur sont toujours meilleures que la capacité du processeur graphique à produire des données. Il en résulte d’importants problèmes de performance.
La G-Sync garantit que, lorsque la vitesse du processeur graphique n’est pas synchronisée avec la fréquence de rafraîchissement du moniteur, la carte graphique ajuste son débit de sortie.
Par exemple, si une carte graphique sortait 50 images par seconde (FPS), l’écran basculerait alors sa fréquence de rafraîchissement à 50 Hz. Si le nombre d’images par seconde diminue à 40, l’écran s’ajuste alors 40 Hz. La plage efficace typique de la technologie G-Sync va de 30 Hz jusqu’à la fréquence de rafraîchissement maximale de l’écran.
L’avantage le plus notable de la technologie G-Sync est la suppression du screen-tearing et d’autres problèmes d’affichage courants rencontrés avec les équipements V-Sync. Les équipements G-Sync y parviennent en contrôlant l’intervalle de suppression de trame (en anglais « vertical blanking interval » ou VBI) du moniteur.
Le VBI représente l’intervalle entre le moment où un moniteur finit d’afficher une image en cours et celui où il passe à la suivante. Quand la G-Sync est activée, la carte graphique reconnaît l’intervalle et attend avant de transmettre les informations, ce qui évite les problèmes d’image.
Pour suivre le rythme des changements technologiques, NVIDIA a développé une nouvelle version de la G-Sync, appelée G-Sync Ultimate. Cette nouvelle norme est une version plus avancée de la G-Sync. Les principales caractéristiques qui la distinguent de l’équipement G-Sync sont le module R3 intégré, la prise en charge de la plage dynamique étendue (HDR) et la capacité à afficher des images en qualité 4K à 144 Hz.
Bien que la G-Sync offre des performances exceptionnelles sur tous les plans, son principal inconvénient est son prix. Pour profiter pleinement des technologies natives de la G-Sync, les utilisateurs doivent acheter une carte graphique et un moniteur équipé de la G-Sync. Ce double prérequis de matériel a limité le nombre d’appareils équipés de la G-Sync parmi lesquels les consommateurs pouvaient choisir. Il est aussi important de mentionner que ces moniteurs ont besoin d’une carte graphique supportant la connectivité DisplayPort.
Alors que l’équipement G-Sync natif sera probablement le plus cher, pour le moment, les entreprises et les consommateurs soucieux de leur budget peuvent continuer à utiliser un équipement compatible avec la G-Sync pour une meilleure expérience visuelle.
Qu’est-ce que la FreeSync ?
Sortie en 2015, la FreeSync est une norme développée par AMD et qui, comme la G-Sync, est une technologie de synchronisations adaptative pour les écrans à cristaux liquides. Elle a pour but de réduire le screen-tearing et les saccades déclenchés par le fait que l’écran ne soit pas synchronisé avec la fréquence d’images du contenu.
Comme cette technologie utilise la technologie Adaptive Sync intégrée dans la norme DisplayPort 1.2a, tout moniteur équipé de cette entrée peut être compatible avec la technologie FreeSync. Cela dit, la FreeSync n’est pas compatible avec les anciennes connectiques comme la VGA ou la DVI.
Le mot « free » dans FreeSync vient du fait qu’il s’agisse d’une norme ouverte, ce qui signifie que les autres fabricants peuvent l’intégrer à leur propre équipement sans avoir à verser à des redevances à AMD. Cela veut dire que de nombreux appareils FreeSync sur le marché coûtent moins cher que les appareils similaires équipés de la G-Sync.
Comme la FreeSync est une norme développée par AMD, la plupart de leurs processeurs graphiques récents prennent en charge cette technologie. De nombreux autres fabricants de matériel électronique prennent aussi en charge cette technologie et, avec les connaissances nécessaires, vous pouvez même faire fonctionner la FreeSync sur des équipements NVIDIA.
Bien que la FreeSync soit une amélioration significative par rapport à la norme V-Sync, cette technologie n’est pas parfaite. L’inconvénient le plus notable de la FreeSync est le ghosting. Cela correspond au fait qu’un objet laisse derrière lui une trace de sa position précédente dans l’image, ce qui provoque l’apparition d’une image ressemblant à une ombre.
La principale cause du ghosting dans les appareils FreeSync est une gestion imprécise de l’énergie. Si la puissance allouée aux pixels n’est pas suffisante, les images présentent des vides dus à un mouvement lent. D’autre part, lorsqu’il y a trop d’énergie, le phénomène de ghosting se produit.
La génération de FreeSync suivante
Pour surmonter ces limitations, AMD a sorti en 2017 une version améliorée de la FreeSync connue sous le nom de FreeSync 2 HDR. Les moniteurs répondant à cette norme doivent être compatibles avec le HDR, avoir des capacités de faible compensation de la fréquence d’images (LFC), ainsi que la capacité de basculer entre la plage de définition standard (SDR) et la plage dynamique élevée (HDR).
Une différence essentielle entre les appareils FreeSync et FreeSync 2 est qu’avec cette dernière technologie, si la fréquence d’images chute en-dessous de la plage supportée par le moniteur, la faible compensation de fréquences d’images (LFC) est automatiquement activée pour empêcher les saccades et le tearing.
Comme la FreeSync est une norme ouverte, et elle l’est depuis le premier jour, les personnes achetant des moniteurs FreeSync disposent d’un choix plus large que celles recherchant des écrans G-Sync natifs.
G-Sync contre FreeSync : des solutions pour répondre à une variété de besoins
Si la performance et la qualité d’image sont votre priorité lors du choix d’un moniteur, alors les équipements G-Sync et FreeSync sont disponibles sous différentes options pour répondre à presque tous les besoins. La principale différence entre les deux normes réside dans les niveaux de retard d’affichage ou le tearing.
Si vous voulez un faible retard d’affichage et que le tearing ne vous dérange pas, alors la norme FreeSync est faite pour vous. En revanche, si vous recherchez des mouvements fluides sans tearing et qu’un léger retard d’affichage ne vous pose pas de souci, alors les moniteurs équipés de la G-Sync sont un meilleur choix.
Pour un particulier ou un professionnel lambda, la G-Sync et la FreeSync offrent toutes les deux une qualité exceptionnelle. Si le coût n’est pas un problème et que vous avez absolument besoin de la meilleure solution graphique, alors la G-Sync est le grand gagnant.
Laisser un commentaire