Comment choisir sa carte graphique ? – Guide d’achat pour tout comprendre

You are currently viewing Comment choisir sa carte graphique ? – Guide d’achat pour tout comprendre
<span class="bsf-rt-reading-time"><span class="bsf-rt-display-label" prefix="Temps de lecture"></span> <span class="bsf-rt-display-time" reading_time="33"></span> <span class="bsf-rt-display-postfix" postfix="min"></span></span><!-- .bsf-rt-reading-time -->

La carte graphique est une pièce essentielle dans un PC dédié, par exemple aux jeux vidéo ou au travail sur la vidéo et l’image. Ainsi c’est elle qui va déterminer l’éventail des possibilités graphiques et la puissance de calcul. Pour bien choisir sa carte graphique il est avant tout important de comprendre tous les termes qui gravitent autour de ce composant. Découvrons ensemble son fonctionnement pour vous permettre de trouver la carte graphique qui correspond à votre usage.


Sommaire

  1. Page 1 Les caractéristiques d’une carte graphique
    1. A quoi sert une carte graphique ?
    2. Le processeur graphique
    3. La mémoire
    4. Design et format d’une carte graphique
    5. SLI et CrossFire, l’art du multi-GPU parallèle
    6. Les systèmes de refroidissement d’une carte graphique
    7. La connectique
    8. Consommation électrique
    9. Prix et dimensions
  2. Page 2 Quelques rappels et conseils dans le choix d’une carte graphique
    1. La question qui tue, qui est le meilleur ?
    2. Benchmark GPU
  3. Page 3 Sélection carte graphique
    1. L’entrée de gamme
    2. Le moyen de gamme
    3. Le haut de gamme
    4. Ultra haut de gamme


Les caractéristiques d’une carte graphique

A quoi sert une carte graphique ?

Une carte graphique, est une carte fille ou d’extension, d’une carte-mère, dédiée aux calculs de la 2D et de la 3D. Elle permet donc de libérer le CPU de tous les calculs liés à l’affichage. C’est également un calculateur programmable très rapide et très perfectionné. Par conséquent elle peut être utile dans beaucoup de domaines, comme :

  • loisirs, jeux vidéo, VR (Virtual Reality), etc.
  • financier, le trading, le minage des crypto monnaies, etc.
  • scientifique, la météorologie, la physique des fluides, etc.
  • infographie, CAO, PAO, etc.

Telle une carte-mère, la carte graphique est composée d’un processeur graphique, le GPU (Graphics Processing Unit), mais aussi de mémoire vive, d’étage d’alimentation, d’un BIOS, connecteurs vidéo,  etc. le tout soudé sur un PCB (circuit imprimé). Pour l’instant il existe deux principaux concepteurs de GPU qui se vouent une lutte sans merci 😉 , AMD l’écurie rouge, et Nvidia l’écurie vert (aussi appelé le caméléon). Ainsi vous l’aurez compris, AMD et Nvidia sont seulement des concepteurs, ils n’ont pas de chaîne de fabrication. Tout est sous traité par des sociétés spécialistes du domaine, TSMC ou GlobalFoundries par exemple (même Samsung avec l’architecture Ampère). Intel est aussi un concepteur de processeur graphique avec ces IGP et depuis peu de carte graphique. Intel a lancer, apres de moultes report, en octobre 2022, sa gamme de carte graphique de bureau ARC.

Nvidia et AMD ne fabriquent rien, oui mais quel intérêt ?

C’est ce que l’on appelle le modèle “fabless”, un concept sans usine de fabrication. À première vue les avantages de ce système sont nombreux. En effet de façon non exhaustive : pas d’usine à concevoir, à construire et à équiper, pas d’employés très qualifiés à acquérir et à gérer, pas de SAV à créer, pas de publicité supplémentaire à faire, etc. . En fait si on prend en compte tous les coûts directs et indirects générés par une fabrication maison, la marge d’AMD ou de Nvidia au final serait sans aucun doute plus faible. Par contre vendre seulement les schémas, les directives, les droits sur un GPU, la marge est forcément plus grande. De toute manière le fait que Nvidia et AMD procèdent ainsi en est la preuve… . Les cartes graphiques quant à elles, sont assemblées par une flopée de fabricants, parmi les plus connues : Asus, Gigabytes, MSI, EVGA.  

L’objet de ce guide est de parler surtout des cartes graphiques pour les PC ou Workstation, pas des IGP (processeur graphique intégré au CPU) où des versions mobile. Néanmoins beaucoup de paramètres sont similaires et peuvent quand même être pris en compte. 

Le processeur graphique

Le die du GPU Turing
Le die du GPU Turing

Un GPU ou processeur graphique ou encore processeur de pixels, est le composant principal d’une carte graphique. Une magnifique et impressionnante machine pour traiter l’image. Mais de nos jours c’est également un fantastique calculateur programmable. À cet égard l’utilisation d’un GPU pour réaliser du calcul générique a pour nom GPGPU (General Purpose computation on Graphics Processing Units). En particulier pour profiter de leurs importantes capacités à traiter les tâches en parallèle.

L’efficacité d’un GPU se mesure, tout comme les CPU, à un ensemble de paramètres similaires. Par rapport à un CPU il est beaucoup moins polyvalent mais bien plus puissant. Les GPU tout comme les CPU se déclinent en plusieurs versions ou gammes plus ou moins brider d’une même architecture. Autrement cela ne serait pas viable de développer une architecture par gamme, tellement les coûts seraient supérieurs.

La fréquence du GPU

La fréquence, indiquée en Mhz ou Ghz, exprime le nombre cycles d’horloges par seconde ou des instructions sont exécutées. En d’autres termes c’est sa vitesse de calcul. Cependant utilisée la fréquence comme point de comparaison de GPU n’est valable que par rapport à une architecture vraiment identique. Il y a les fréquences de bases prescrites selon AMD ou Nvidia, et celles augmentées par les fabricants sur certains de leurs modèles. Par ailleurs Nvidia à un système appelé GPU Boost, qui fait varier automatiquement la fréquence d’horloge du GPU en fonction de la charge. Très utile pour avoir une consommation et un bruit le plus bas possible.

Le nombre de transistors et la taille du die

Globalement on peut dire que plus il y a de transistors plus c’est performant, et plus la taille du die et importante. Mais à nombre de transistors égaux, la taille dépend de la finesse de gravure. La taille du die GPU le plus grand actuellement, revient au monstre de Nvidia, j’ai nommé le Volta GV100 avec ces 815 mm², intégrés dans la Tesla V100. Par ailleurs ce GPU contient la somme astronomique de 21.1 milliard de transistors 😎 .

Finesse de gravure

La finesse de gravure, indiquée en nm, exprime la taille de gravure du die (circuit intégré). Plus c’est bas mieux c’est, cela permet en effet une consommation plus basse et donc un dégagement thermique (TDP) qui va dans le même sens. Le TDP va permettre de calibrer le système de refroidissement, en l’occurrence soit un ventirad soit un système watercooling.

Les coeurs

Architecture Turing

Ils représentent le nombre d’unités de calcul présent dans le GPU. Tout d’abord il y en a plusieurs types, chaque type correspond a un travail particulier. En plus leur efficacité dépend de l’optimisation de leur architecture. Globalement plus il y en a mieux c’est, mais il faut également un certain équilibre entre les différents types de cœurs sinon le rendement global sera moins bon.

Toutes ces unités sont organisées et combinées autour de bloc, comme des poupées russes 😉 . Pour compliquer les choses ces blocs se nomment différemment selon le concepteur et la génération. Par exemple pour Nvidia sur l’architecture Turing (image plus haute) :
les cœurs SP et TMU sont réunis dans des blocs, les SM (Streaming Multiprocessor), eux-mêmes réunis dans des gros blocs, les GPC (Graphics Processing Clusters) accompagné des cœurs RT, RE et TPC (Polymorph Engine pour la géométrie et SM). Les ROP sont quand a eux dans les contrôleurs mémoire.

les stream processors

les stream processors (SP) sont des unités de calcul sur des nombres flottants (FP) (vous savez les nombres décimaux 😉 ) et entiers (INT). Ce sont à vrai dire les plus nombreux et les plus importants. En d’autres termes ce sont des circuits intégrés qui sont spécialisés dans les opérations mathématiques. Je vous garantis au fond, que quand vous déplacez votre PNJ dans votre jeu vidéo préféré, il y a un paquet de calcul qui est réalisé !

Les cœurs orientés pour du calcul en 32 bits (INT et FP simple précision) sont majoritaires sur les modèles grand public.Tandis que sur les versions pro les cœurs sont surtout faits pour du calcul en 64 bits (FP, double précision) et 16 bits (FP, demi-précision), donc beaucoup plus précis. Ainsi le GPU Volta dans sa version complète, avec la Quadro GV100 à 2688 cœurs pour le calcul décimal en 64 bits. Avec sa mémoire ECC elle est parée pour du calcul très précis et lourd.

Tandis que le GPU Turing (TU102), toujours dans une version complète, avec la Titan RTX, a 144 cœurs pour le calcul décimal en 64 bits. Par conséquent c’est moins performant pour ce genre de calcul, mais toujours possible, et moins précis car pas de mémoire ECC. Les nombres manipulables en 64 bits sont justes énormes, en clair c’est 2 exposant 64 (je n’indique pas le nombre en clair car il est bien trop gros).

Ces processeurs de flux, en français, se nomment CUDA (Compute Unified Device Architecture) chez Nvidia, tandis que chez AMD ils utilisent tout simplement le vrai nom. C’est avec les stream processeur que l’on peut faire des calculs purement mathématiques, comme par exemple le minage de crypto monnaie. 

les Tensor

les Tensor sont des unités spécifiques à Nvidia, disponible depuis l’architecture Volta, elles s’occupent de tout ce qui touche à l’IA. Les tensor permettent d’accélérer l’apprentissage, d’interpréter et d’adapter tout dispositif muni de réseaux neuronaux artificiel. Globalement ils améliorent aussi le rendement et l’efficacité énergétique sur ce type d’opération. 

Ray Tracing

Une démonstration du Ray Tracing qui montre une gestion de la lumière excellente

les RT ou Ray Tracing, spécifique à Nvidia, sont des unités qui sont spécialisées dans la physique de la lumière. En d’autres termes cela permet d’avoir des images beaucoup plus réalistes en matière d’exposition lumineuse, de réflexion, de dégradé. La gestion de la lumière est en définitive un facteur essentiel pour atteindre une qualité cinématographique. Ce type d’unités est apparu avec l’architecture Turing.

ROP

les ROP (Render Output Units) sont des unités dédiées aux traitements de l’image, essentiellement actives en fin de tâche. Le traitement englobe en particulier de tout ce qui concerne le lissage, l’adoucissement des bords, pour cacher les effets d’escalier inhérents à toutes images numériques. La netteté de la texture selon l’angle et la distance est aussi prise en compte dans le traitement. Il y a l’anti aliasing (AA), le filtre anisotrope (AF), filtrage bilinéaire et trilinéaire.

TMU

les TMU (Texture Mapping Units) sont des unités qui vont appliquer une texture au polygone qui ont été générées par les RasterEngine. Une texture est une image appliquée à un polygone pour la rendre plus réaliste, notamment pour imiter une surface. Par exemple on prend un grand polygone rectangulaire, puis on applique une image de sable, et voilà vous êtes dans le désert 😎 .

Raster Engine

les RE (Raster Engine) sont des unités qui vont générer les polygones. les polygones sont des formes géométriques fermées qui ont plusieurs côtés. Ils permettent de fabriquer des objets, un environnement, comme par exemple des murs, un sol, des montagnes, un personnage, une voiture, etc. . Plus il y a de polygones plus cela exige de performance, mais en revanche plus les objets générés sont alors réalistes, avec un aspect lisse et moins anguleux. 

Mise au point

J’ai utilisé plus haut les termes grand public et professionnels, même si ils sont utilisés par beaucoup, je ne suis pas à l’aise avec ces appellations. Parce que l’ont peu avec une RTX2080 faire autre chose que du jeu vidéo, comme de la modélisation 3D, du montage vidéo 4K avec plein d’effets, etc. Un travail donc de professionnel, d’un indépendant par exemple.
En résumé les Quadro c’est plutôt de la grande puissance et précisons. Le reste est moins puissant et surtout donne un résultat bien moins précis, mais qui n’est pas utile dans beaucoup d’applications.

Pourquoi il y a autant de cœurs dans un GPU par rapport à un CPU ?

C’est vrai qu’on peut légitimement se poser la question quand on sait que le GPU de la RTX 2080 Ti possède 4352 cœurs CUDA et que de l’autre côté un AMD Ryzen Threadripper 3970X est composé de “seulement” 32 cœurs ou 64 threads (coeur logique), quantité qui est pourtant énorme pour un CPU ! . En fait on ne peut pas comparer les cœurs d’un CPU à un GPU, les deux n’ont pas du tout la même fonction.

Les cœurs d’un CPU sont parfaitement indépendants, en effet chaque cœur peut décoder et exécuter une instruction, c’est un fonctionnement en série. C’est parfaitement adapté à des tâches diversifiées et séquentielles comme l’exécution de plusieurs programmes. C’est par contre moins adapté au calcul matriciel, les performances sont moindres. Les cœurs ont d’ailleurs une fréquence supérieure à ceux que l’on trouve dans un GPU.

En revanche les cœurs d’un GPU sont synchrones, avec une fréquence d’horloge plus basse. Il n’y a qu’un seul interpréteur ou décodeur d’instruction pour tous les cœurs, c’est-à-dire qu’ils font tous la même tâche. C’est ce qu’on appelle une architecture fortement parallèle, parfaitement adaptée au calcul matriciel comme la 3D où tout ce qui est composé de pixels 😉 . 

Un CPU avec plus de 4000 cœurs, c’est possible docteur ?

Un CPU avec autant de cœurs qu’un GPU aurait tout d’abord une très grande taille. En effet les cœurs d’un CPU ont une surface supérieure à leur homologue GPU. Par ailleurs la consommation ainsi que le TDP serait gigantesque et insoutenable. En outre quel serait l’intérêt, la puissance actuelle des meilleurs CPU étant largement suffisants pour les applications d’aujourd’hui.

La mémoire

Alliée indispensable du GPU, la mémoire permet de stocker les données qui vont servir à concevoir les images ainsi que les images calculées, prêtes, qui vont être envoyées à l’écran. Plus le processeur graphique est rapide, plus la mémoire doit l’être aussi, sinon il y aura un bridage de la performance du GPU. Elle se caractérise par trois critères : sa quantité, sa famille et sa fréquence. Note : les contrôleurs mémoire sont intégrés dans le die.

La quantité

Actuellement la quantité varie de quelque Go jusqu’à 80 Go pour les modèles professionnels comme la Nvidia A100 (très cher !). Un minimum de 8 Go est nécessaire pour profiter par exemple de la VR (Virtual Reality), du multi écrans et des jeux en 4 K. Aussi des jeux en 3D, type monde ouvert, avec des textures richement détaillées et une profondeur de champ importante. Ou enfin tout simplement anticiper la demande inéluctable, de plus en plus importante de mémoire vidéo pour les jeux vidéo ou autres logiciel gourmand.

Sa famille

Cela peut être de la DDR qui se trouve sur l’entrée de gamme, de la GDDR sur la moyenne ou haute gamme ou aussi de l’HBM (High Bandwitch Memory), sur le haute de gamme AMD et Nvidia. 

GDDR

La GDDR (G comme graphics) est une mémoire DDR optimisée pour les cartes graphiques. Elles sont similaires mais globalement plus performantes. Au rayon des avantages on trouve :

  • une tension de fonctionnement moins élevée à fréquence égale. A la clé, une consommation et un dégagement thermique moindre, ou une fréquence plus élevée, en se mettant à niveau de la DDR en matière de tension.
  • un bus mémoire plus large avec donc une meilleure bande passante

La GDDR5 est en outre la plus répandue sur les cartes graphiques entrées de gamme et moyenne gamme. La 6e génération de GDDR, la GDDR6, a fait son apparition sur les versions haut de gamme de Nvidia, équipé du GPU Turing. Plus performante avec ces 256 Go/s, mais aussi plus chère (pour l’instant) que la GDDR5.

HBM
La structure très efficace et innovante de l’HBM, gain de place, bus très large et connexion plus directe avec le GPU sont au menu ! .

L’HBM 1ere génération a une fréquence et une tension plus faible, donc une moindre consommation par rapport à la GDDR 5. En revanche la bande passante est bien supérieure, cela grâce à une largeur de bus de 1024 bits (HBM standard de 4 puces DRAM) contre 32 bits pour la GDDR5. Baisser la tension et la fréquence tout en augmentant énormément la taille du bus, permet en effet d’augmenter la quantité de données qui peuvent transiter pendant un cycle d’horloge, tout en baissant la consommation, la classe 😎 ! . Impossible de faire ce genre mémoire plus tôt, car la technologie de fabrication pour gérer un tel niveau E/S, n’était pas du tout disponible ! . 

La mémoire sur le PCB du GPU

L’autre particularité c’est l’emplacement des puces qui sont situées non pas sur le PCB de la carte, mais sur celui du GPU. Également les puces mémoires sont empilées, avec donc un gain de place évident. Résultat la communication avec le GPU est ultra-rapide, un peu comme la mémoire cache d’un CPU. La mémoire HBM en est à la 2e version (256 Go / s), elle est présente sur les cartes graphiques haut de gamme AMD, comme la Radeon RX Vega 64 ou encore la gamme Tesla de Nvidia. Bien que consommant plus et prenant plus de place la GDDR6 est une sérieuse concurrente a l’HBM2 en vertu de sa bande passante similaire et son coût moindre. La dernière version de l’HBM2, l’Aquavolt de Samsung, pousse encore plus loin le débit avec 307 Go / s ! Un gros point négatif quand même, l’HBM est chère et peu disponible.

ECC et NON ECC

Sur les cartes graphiques tournées vers des applications professionnelles, la mémoire est du type ECC (error correcting code). La mémoire ECC est là pour empêcher les erreurs, c’est-à-dire la corruption de données ou de bits (1 a la place de 0 ou l’inverse). En bref elle a la capacité à détecter et corriger les erreurs de bits. C’est essentiel pour les applications ou aucune erreur n’est tolérée car source de potentiel gros problème ou de résultat tout simplement inexact. Par exemple pour l’usage d’un modèle scientifique avec une attente d’un résultat rigoureux ou pour une base de données critique.

En revanche les cartes graphiques orientées vers les jeux vidéo, le travail sur l’image, etc. c’est une mémoire de type non ECC. Cela ne sert à rien pour ce genre d’applications, une erreur de bits va être représentée par exemple dans un jeu vidéo par un pixel d’une teinte légèrement différente, qui va remarquer et être gêné par cela ? .

Cache L1 et L2

Mémoire ultra rapide intégré au sein du GPU, plus il y en a mieux c’est.

La fréquence de la mémoire

Certes plus la fréquence est élevée plus les performances le seront, mais avec en contrepartie une plus grande consommation et chauffe. Comme expliqué plus haut, la voie essentiel pour augmenter les performances au niveau de la mémoire est avant tout l’augmentation de la taille du bus.

Dans tous les cas la gamme et la génération du GPU, détermine automatiquement la quantité et la qualité de la mémoire. Le fabricant aussi mais dans une moindre mesure. Par conséquent si vous choisissez bien votre carte graphique, la quantité et la qualité de la mémoire seront adaptées à la puissance de la carte et à votre usage. Même si c’est important de savoir à quoi correspondent les termes et survoler le fonctionnement 😉 . 

Design et format d’une carte graphique

Custom et référence

Il y a deux types de design présents sur le marché :

Tout d’abord un design représente le nombre, le type et l’emplacement des composants électroniques. Par exemple la taille du PCB, le nombre d’étages d’alimentation, de puces mémoire, le type de ventirad, etc.

  • le customiser, comme son nom l’indique, c’est un design spécial, réalisé par les fabricants eux-mêmes. La raison ? Augmenter notamment les performances ou combler des éventuelles lacunes. Par exemple rajouter des étages d’alimentation, utiliser des composants de meilleure qualité, une augmentation des fréquences d’origine, un ventirad plus efficace et silencieux, etc. . En revanche les designs custom ne sont pas disponibles en même temps que le design de référence et sont plus coûteux. Également cela pose problème aux personnes qui cherchent à la refroidir par watercooling, pour exploiter tout son potentiel, du fait d’un waterblock compatible souvent introuvable.
  • le design de référence est celui d’origine, qui a été conçu par le concepteur du GPU, en outre Nvidia ou AMD. Quand une nouvelle carte graphique fait son apparition elle est présentée avec ce type de design. Petite anecdote les waterblock sont la plupart du temps conçus à partir de ce type de design.

Le low profile

Comme pour la plupart des cartes d’extension, il y a deux formats disponibles pour les cartes graphiques : le low profile et le standard. Le low profile est un format pour les boitiers avec une hauteur limite. Comme par exemple un rack 1U ou encore un boitier HTPC. Malgré tout ce format n’est pas possible pour les cartes haut de gamme du fait du nombre de composants importants. On en trouve généralement sans problème pour les GPU bas de gamme ainsi que moyenne gamme. Le format standard est le format commun des cartes graphiques. La hauteur du PCB est plus ou moins à la hauteur de l’équerre de fixation. Parfois sur les designs custom le PCB dépasse largement cette équerre de fixation (certains modèles STRIX d’Asus par exemple) .

SLI et CrossFire, l’art du multi-GPU parallèle

Pour augmenter la puissance de calcul de votre carte graphique il y a deux solutions soit la changer, soit en rajouter une ou plusieurs autres. Faire fonctionner deux cartes graphiques ou plus ensemble, c’est le principe du SLI (Scalable Link Interface) ou du Crossfire. Le SLI est une technologie de Nvidia et le Crossfire une technologie de AMD. Le fonctionnement des cartes est alors parallèle, c’est-à-dire que chacune des cartes effectue le même travail, il sera alors réalisé beaucoup plus rapidement qu’avec une carte. 

Comment utiliser le SLI ou le CrossFire ?

Tout d’abord il vous faut deux cartes identiques de la même génération. Pour pouvoir utiliser l’un ou l’autre, il est nécessaire d’avoir Windows comme OS, ainsi qu’une carte-mère compatible et d’activer dans le panneau de configuration de votre carte graphique la fonction. Il faut également vérifier si votre alim est capable d’alimenter une seconde carte, sinon il y aura surcharge. Pour les ordinateurs Mac, les cartes graphiques travail séparément, du multi GPU simple en somme. 

Les deux technologies sont similaires à la différence du système SLI de Nvidia où il est nécessaire d’interconnecter les cartes avec un pont. Ce pont est disponible en deux versions : bas débit et haut débit. Le pont haut débit permet de doubler la vitesse de transfert entre les cartes, ce qui permet un jeu avec plus de fluidité, moins de lag. Pour le système Crossfire, il n’y a plus besoin actuellement de pont (c’était sur les anciennes générations), les données passent en effet par les ports PCI express

Un tri SLI a base de carte graphique GTX Titan de Nvidia
Un tri SLI a base de carte graphique GTX Titan de Nvidia

Points positifs

Bien sûr il ne faut pas s’attendre à un doublement des performances pour 2 cartes graphique par exemple. Malgré tout en fonction des jeux, les gains ne sont pas du tout négligeables, ça peut aller jusqu’à 50 % de gain. Si vous avez une configuration multi-écran ou vous jouez en 4K, les ressources et la mémoire supplémentaire seront très utiles. En outre, il est souvent plus avantageux en matière de FPS ou de puissance de calcul brut, de prendre deux cartes de milieu de gamme que de prendre une carte haut de gamme, de la même génération bien sûr. 

Points négatifs

Comme indiqué plus haut, la performance varie selon le jeu vidéo. Certains ne sont même pas compatibles avec le multi GPU, il n’y aura par conséquent aucun gain. Pour qu’il y ait compatibilité il faut que Nvidia prévoit dans leur driver un profil multi-GPU pour chaque jeu vidéo. De plus la prise en charge des nouveaux jeux dans les drivers est plus lente qu’en mono GPU.

Étant donné que chaque carte travaille sur la même tâche, les données sont identiques dans la mémoire de chaque carte. La quantité de mémoire totale n’est donc pas la somme de la mémoire de toutes les cartes. La mémoire totale est en fait égale à la mémoire d’une carte. Mais attention toute cette mémoire supplémentaire est quand même utilisée et bénéfique, il ne faut pas dire ce que je n’ai pas dit ! . 

Il y a une consommation, un bruit et un dégagement de chaleur supérieure. Donc si votre alimentation est trop limitée, il faudra la changer. Aussi et à part si le système de refroidissement est un watercooling il faudra prendre en compte également l’apport calorique supérieur à l’intérieur du boîtier est donc adapté sa ventilation. 

Le système multi-GPU a tendance à introduire du stuttering, Le pont haut débit SLI réduit justement ce mauvais point.

La communication directe et multidirectionnelle entre GPU permet des vitesses largement supérieures au PCIe.

Sur PC il n’y a pas que le SLI ou le Crossfire, le multi GPU permet de faire du calcul divers et varié comme le minage de crypto monnaies ou du calcul scientifique. En revanche il y a un problème qui va grossir de plus en plus avec le muti gpu, c’est la saturation en bande passante des ports PCIe…du fait de carte graphique de plus en plus puissante. Nvidia a anticipé ce problème en développant le NVlink, une interconnexion vraiment haut débit.

Les systèmes de refroidissement d’une carte graphique

Comme tout conducteur électrique ou plutôt semi-conducteur, le GPU dégage de la chaleur par effet Joule. Cette chaleur étant trop conséquente par rapport à la surface de dissipation naturelle du GPU, il est nécessaire de rajouter un système de refroidissement. Le système de refroidissement peut être par air (aircooling) ou par eau (watercooling). La plupart du temps le refroidissement est par air. Le nombre de caloduc (un conducteur thermique), la surface de dissipation, le nombre de ventilateurs et leurs qualités définiront sa performance de refroidissement ainsi que le niveau de bruit de fonctionnement. La qualité du système de régulation automatique de ventilation, en fonction de la température, notamment avec l’arrêt total des ventilateurs quand la carte graphique est hors charge, est un critère important en matière de silence et de performance de refroidissement.

Quand au watercooling malgré son prix et sa complexité d’installation plus importante que l’aircooling, reste la seule solution pour avoir un système de refroidissement très puissant tout en ayant un silence de cathédrale (si le reste du système suis bien sûr).

Il existe aussi des cartes graphiques avec un refroidissement passif, avec un simple radiateur. il y a de ce fait aucun bruit généré, par contre cela est réservé pour les cartes graphiques d’entrée de gamme, qui ont donc un TDP suffisamment bas.

En matière de refroidissement extrêmes il y a le LN2 ou azote liquide que l’on verse dans un godet, idéal pour battre des records. C’est bien sur réservé aux experts et aux overclockeurs, il y a beaucoup de précautions à prendre (attention au cold bug 😎 ). 

Monitoring

Pour suivre la température de votre carte graphique ou encore modifier sa fréquence d’horloge, vous avez pour cela des logiciels conçus par les fabricants comme par exemple GPUTweak d’Asus ou Precision XOC d’EVGA. Également des logiciels tiers comme AIDA64 (payant) ou Speccy (gratuit) vous donneront diverses informations, entre autres sur votre carte graphique.

La connectique

Sont répertoriés ici  tous les systèmes actuels d’interconnexion offerte sur une carte graphique. Je ne parlerais pas de l’AGP et du VGA étant donné que ce sont des ports obsolètes.

HDMI

C’est un signal purement numérique qui transmet le son et l’image. C’est l’évolution numérique de la péritel, c’est une connectique grand public. L’HDMI est représenté par plusieurs versions. Les évolutions concernent différents paramètres comme la résolution, la fréquence, le nombre de canaux audio, etc.

Version :

  • 1.3 : 2560×1600 en 75 hz
  • 1.4 : UHD a 30 hz
  • 2.0 : UHD à 60 hz + HDR (version a)
  • 2.1 :  UHD à 120 hz ou 8K à 60 hz. Évolution majeur de l’HDMI avec une bande passante possible énorme 48 Gbps, incluant des capacités excellente pour les joueurs comme la VRR et l’ALLM. Présent sur la nouvelle architecture Ampère de Nvidia, elle permet la compatibilité G-Sync sur HDMI.

DisplayPort

C’est un signal essentiellement numérique qui transmet le son et l’image, il est le successeur du connecteur DVI. Ce connecteur est dédié à l’informatique au monde professionnel. C’est aussi le connecteur vidéo numérique qui a toujours été le plus performant par rapport aux autres normes et qui l’est toujours à ce jour. Le DisplayPort est le seul connecteur qui est compatible avec le GSync. Contrairement à l’HDMI, le DisplayPort ne nécessite pas de licence pour être utilisé par les fabricants. Il existe en plusieurs versions, plus la version est récente mieux c’est.

Version :

  • 1.1 : jusqu’à 4k à 30 hz
  • 1.2 : jusqu’à 4k à 60 hz
  • 1.4 : jusqu’à 8k à 60 hz et prise en charge de l’HDR

DVI

C’est un signal vidéo numérique, il véhicule donc seulement l’image pas le son. Il n’est quasiment plus utilisés sur les cartes-mére ou carte graphiques, remplacés pas l’HDMI et le DisplayPort . Il y a deux catégories :

  • DVI-D transporte un signal essentiellement numérique. La résolution dépend du nombre de broches. Le Single Link (18 pins) va jusqu’au FullHD en 60 hz. Le Dual Link (34 pins) va jusqu’au 2560×1600 en 60 hz. 
  • DVI-I est identique au DVI-D, mais en plus il prend en charge le signal analogique.

PCI Express

Le PCI-Express est une fiche de connexion plate avec de multiples pistes dorées situées en bas de la carte graphique. Ce port permet l’entrée et la sortie des données et en partie de l’alimentation électrique de la carte graphique. Il y a différentes versions de PCI express, rétro compatible entre elles. Elles correspondent surtout pour le moment à un doublement du débit à chaque évolution. C’est-à-dire en x16 :

  • 4 Go/s pour la gen 1, lancée en 2003
  • 8 Go/s pour la gen 2, lancée en 2007
  • 15 Go/s pour la gen 3, lancée en 2010
  • 31 Go/s pour la gen 4, lancée en 2017
  • 63 Go/s pour la gen 5, lancée en 2019
  • Les spécifications PCIe version 6.0, sont parus en mai 2022, avec comme d’habitude un doublement de la bande passante, soit 121 Go/s en x16.

Les cartes graphiques les plus récentes sont en PCIe 4.0. Chez les verts, Nvidia, elles sont en PCIe 4.0 depuis la sortie de l’architecture Ampére. Chez les rouges, AMD, c’est depuis l’architecture Navi.

Connecteur d’alimentation

Tout comme le connecteur d’alimentation principale d’une carte mére (24 pins) ne peut pas alimenter à lui seul un CPU, les cartes graphiques ont des connecteurs d’alimentation supplémentaire. Dans ce cas c’est a cause de l’impossibilité au port PCI de fournir la puissance nécessaire. Cela peut-être des connecteurs 8 pins ou 6 pins. Ou encore un mélange des deux, 2 x 8 pins mais aussi 6+8 pins en fonction de la consommation. Lors d’une nouvelle configuration, d’un changement de carte graphique, vérifier entre autres si vous avez les sorties nécessaires sur votre alimentation (les alimentations récentes proposent du 6+2pins). 

Un connecteur 12 pins
Le câble 12 pins de Seasonic

Avec l’avènement de l’architecture Ampère, un nouveau connecteur 12 broches a vu le jour. Réserver au modèle haut de gamme et a la gamme Founders Edition du fondeur, il permet d’avoir un connecteur plus compact. Un câble adaptateur est livré avec les cartes…heureusement vu leur prix ! Mais pas très pratique et joli. Je pense que les fabricants d’alimentation ne manqueront pas de vendre, pour leur modèle modulaire, les câbles adéquats a part. Seasonic présente d’ailleurs leur nouveau câble modulaire 12 pins la vidéo qui suit. Ce câble est offert pour les clients de la marque, pendant l’année 2021, merci Seasonic.  

Si vous souhaitez en savoir plus sur les câbles consulter notre guide sur le sujet.

Le connecteur 12VHPWR
fiche be quiet! 12VHPWR

Depuis l’arrivée des RTX 30xx, les cartes graphiques les plus récentes peuvent nécessiter une puissance électrique supérieure à 450 watts. Le connecteur PCI Express 16x de la carte mère, prévu par la spécification PCI Express, ne fournit que 75 watts, tandis que le connecteur à huit broches peut fournir 150 watts. Pour les cartes graphiques qui consomment 450 watts ou plus, cela implique l’utilisation d’au moins trois connecteurs à 8 broches et même quatre connecteurs pour les cartes graphiques les plus overclockées, rendant le design du PCB et du circuit d’alimentation de la puce plus complexe pour installer correctement ces connecteurs imposants.

A cet effet, le connecteur d’alimentation PCI Express 12VHPWR a été développé pour répondre à ces besoins. Intégré à la norme PCI Express 5.0 et ATX 3.0, ce nouveau connecteur d’alimentation se compose de 16 broches (12 pour l’alimentation et 4 pour le signal). Nvidia l’a introduit pour la première fois avec les cartes GeForce RTX 3000, avant de le présenter sous sa forme finale avec les GeForce RTX 4000. Les spécifications PCI-SIG permettent à chaque broche de supporter jusqu’à 9,2 A, soit un total de 55,2 A à 12 V, offrant ainsi une puissance maximale théorique de 662 W, même si en pratique elle est plutôt de 600 W.

Il y a eu des problèmes de brulures fréquentes du connecteur, au début sur les 4090. Ceci n’est ni la faute des fabricants, qui respectent les normes édictées par PCI-SIG, ni la puissance qui passent a traversé ce câble, le souci a plus à voir avec un mauvais contact ! En électricité, la plupart des cas d’incendie viennent de mauvais contact ! cela a l’air de venir de l’utilisateur qui n’enfonce pas à fond le connecteur et aussi surtout du design du connecteur qui est mal conçu, dans le sens, pas d’insertion claire, nette et facile de la fiche.

Consommation électrique

La carte graphique est souvent le composant PC qui consomme le plus parmi tous les autres. Par conséquent il est essentiel de bien prendre en compte la puissance électrique consommée, dans le calcul de la consommation globale de votre PC. Vous trouverez l’information de consommation électrique, exprimée en watts, dans les caractéristiques techniques de la page du produit sur votre site marchand favori ou encore sur le site du fabricant. Cela vous permettra de vérifier si votre alimentation peut le supporter.

Prix et dimensions

Quand vous changez de carte graphique il faut faire attention aux dimensions (la longueur) de la carte par rapport à votre boitier. Vous pouvez obtenir ces informations sur le site du fabricant ou du marchand.

Le choix d’une carte graphique dépend avant tout du budget que l’on peut y allouer, cela reste le nerf de la guerre !. Cela dépendra également de l’usage que l’on veut en faire. Aussi la décision d’anticiper ou non un éventuel besoin futur en calcul. Enfin prendre un modèle plus haut de gamme que nécessaire pour pouvoir la garder plus longtemps. Quand on voit la dégringolade des prix sur ce genre de matériel autant la garder longtemps, non ?

Les paliers de prix des différentes gammes

Le prix d’une carte graphique d’entrée de gamme s’étend généralement de 40 € à 400 €. Elles sont idéales pour des usages bureautiques et en partie multimédias (lecture de film sans traitement lourd, jeux vidéo anciens). Par contre ne pas compter jouer à des jeux vidéos récents avec de l’entrée de gamme. Ou alors avec une résolution Full HD maxi et avec les détails bien réduits. Par ailleurs c’est sur l’entrée de gamme que l’on trouve, le plus souvent, des systèmes de refroidissement passif et un format low profil. Ce sont bien sur des cartes très sobres en termes énergétiques. 

Le moyenne gamme est caractérisée par des prix entre plus 400 € et jusqu’à 800€ environ. Le multi-écran commence à être possible, les jeux vidéo en Full HD 144 Hz et WQHD 60 Hz

Avec le haut de gamme quasiment aucune limite, du multi écran, de la VR, des jeux WQHD 144 Hz ou ultra HD, bref la classe ! Compter des prix entre 800 € à plus de 2000 € 

À noter que les prix des cartes graphique depuis quelque génération sont pris de poussés aigus d’inflation, de manière assez incompréhensible à vrai dire ! l’augmentation a été avec l’architecture Ampere conséquente mais avec Ada lovelace c’est quasiment le double ! le prix des nouvelles générations, devrait être en théorie, a gamme équivalente, égale avec des performances supérieures, en dehors de toute inflation généralisée bien entendue…Ce qui est loin d’être le cas !


Bien ou pas ?
Total : 1 - Moyenne : 5
Vous avez apprécié cet article ? merci de le partager.

Jean-seb

Fondateur, au milieu de l'année 2019, de Config-PC et également rédacteur, je souhaite a travers ce site, partager mon savoir et ma longue expérience sur le matériels et logiciels autour du monde informatique, pour que vous puissiez ainsi mieux acheter et utiliser le matos PC 8-) .

Laisser un commentaire