Conseils d'un expert sur Proxmox VE

Conseils d'un expert sur Proxmox VE par Wasim Ahmed

Conseils d'un expert sur Proxmox VE
pve proxmox proxmoxve expert

Je vous propose un extrait du chapitre 12 du livre "Mastering Proxmox Third Edition" de Wasim Ahmed qui donne de précieux conseils sur comment bien choisir les composants clés pour mettre en place un cluster Proxmox en production.

N'ayant pas ces compétences (je travaille sur des PC de bureau recyclés en serveurs), il faut savoir rester humble et laisser parler les experts.

Bonne lecture!!!!

Jusqu'à présent dans ce livre, nous avons vu le fonctionnement interne de Proxmox. Nous savons maintenant comment configurer correctement un cluster Proxmox entièrement fonctionnel. Nous avons parlé de Ceph - un système de stockage partagé robuste et redondant - et de la façon dont nous pouvons le connecter à Proxmox. Nous avons également vu ce qu'est un réseau virtuel et comment il fonctionne avec le cluster Proxmox.

Dans ce chapitre, nous allons voir quels sont les composants qui jouent un rôle crucial pour rendre un cluster Proxmox prêt pour la production, avec une redondance multicouche, de bonnes performances et une bonne stabilité. Nous allons couvrir les sujets suivants :

  • Définition du niveau de production
  • Composants clés d'une configuration de niveau production
  • Exigences matérielles de niveau d'entrée et de niveau avancé

Tout au long de ce chapitre, vous remarquerez que nous avons utilisé des configurations matérielles construites par des utilisateurs plutôt que des serveurs de marque prêts à l'emploi. Le but est de vous montrer quel type de configuration de nœuds est possible en utilisant du matériel de base disponible sur le marché afin de réduire les coûts tout en mettant en place un cluster Proxmox stable. Les exemples de configurations présentés dans ce chapitre ne sont pas des scénarios théoriques, mais sont tirés de divers clusters en service. Utilisez les informations de ce chapitre uniquement comme une ligne directrice afin que vous puissiez sélectionner le matériel approprié pour votre environnement, quel que soit votre budget.

Définition du niveau de production

Le niveau de production est un scénario dans lequel l'environnement de cluster d'une entreprise est entièrement fonctionnel et sert activement ses utilisateurs ou clients sur une base régulière. Il n'est plus considéré comme une plateforme pour apprendre Proxmox ou une plateforme de test pour tester différentes choses. Une installation au niveau de la production nécessite une planification et une préparation avancées, car une fois l'installation terminée et le cluster mis en ligne, il ne peut pas être mis hors ligne complètement à tout moment lorsque les utilisateurs en dépendent. Une configuration de niveau production correctement planifiée peut vous faire gagner des heures, voire des jours, de maux de tête. Si vous êtes encore en train d'apprendre Proxmox, vous pourriez vouloir mettre de côté du matériel pour vous entraîner afin d'affiner vos compétences avant de tenter une installation de niveau production. Dans cette section, nous allons couvrir certains des composants clés ou caractéristiques d'un environnement de niveau production.

Composants clés

Les composants clés suivants doivent être gardés à l'esprit lors de la planification d'une configuration de cluster de niveau production, en raison des exigences de stabilité et de performance :

  • Matériel stable et évolutif
  • Redondance
  • Charge actuelle et croissance future
  • Budget
  • Simplicité
  • Suivi de l'inventaire du matériel

Matériel stable et évolutif

Un matériel stable est synonyme de temps d'arrêt minimum. Sans matériel de qualité, il n'est pas rare d'avoir une panne matérielle aléatoire dans un environnement de cluster, ce qui entraîne des temps d'arrêt massifs et inutiles. Il est très important de choisir une marque de matériel ayant une bonne réputation et bénéficiant d'un bon support. Par exemple, les composants de classe serveur d'Intel sont réputés pour leur excellente stabilité et leur support. Il est vrai que vous payez plus cher pour les produits Intel, mais parfois la stabilité l'emporte sur le coût plus élevé du matériel. AMD est également un excellent choix, mais statistiquement, le matériel basé sur AMD présente plus de problèmes de stabilité.

Pour les environnements d'entreprise soucieux de leur budget, nous pouvons mélanger du matériel basé sur Intel et AMD dans le même cluster. Puisque Proxmox fournit une option de migration complète, nous pouvons avoir des nœuds Intel servant à plein temps, tandis que les nœuds AMD ne servent que de basculement. Cela réduit les coûts sans compromettre la stabilité. Tout au long de ce chapitre, nous allons rester principalement avec du matériel basé sur Intel. À la fin de ce chapitre, nous verrons quelques clusters basés sur AMD qui ont fait leurs preuves pour vous donner une idée de la viabilité d'AMD dans un environnement de cluster Proxmox.

Lorsque vous choisissez entre Intel et AMD, outre la stabilité, les deux critères suivants sont également des facteurs décisifs :

  • Le coût de l'énergie
  • Génération de chaleur

Les CPU Intel consomment moins d'énergie et fonctionnent beaucoup plus froidement que leurs homologues AMD. L'augmentation de la production de chaleur dans les serveurs AMD entraîne une augmentation des besoins en refroidissement, et donc une augmentation des factures d'électricité. De par leur conception, les CPU AMD utilisent une puissance beaucoup plus élevée par CPU, ce qui est la cause directe de la forte production de chaleur.

Un autre facteur décisif pour le matériel est l'évolutivité et la disponibilité. Les composants matériels utilisés dans les nœuds de serveurs doivent être facilement disponibles lorsqu'ils doivent être remplacés. L'utilisation de composants difficiles à trouver, même s'ils coûtent beaucoup moins cher, ne fait que prolonger les temps d'arrêt lorsque quelque chose doit être remplacé. Une pratique courante consiste à utiliser du matériel identique pour des groupes de serveurs en fonction de leur charge de travail. Cela facilite la gestion du matériel et permet également de constituer des stocks pour remplacer rapidement un nœud en cas de besoin. Cela est extrêmement difficile dans un environnement où un cluster a été constitué en utilisant toutes sortes de marques, modèles et configurations différents.

Redondance

On n'insistera jamais assez sur la nécessité de disposer d'une redondance à différents niveaux dans un environnement de production. Il doit y avoir de la redondance à différents niveaux de composants.

Niveau du nœud

La redondance au niveau du nœud comprend généralement une alimentation électrique redondante, des cartes réseau, un système RAID, etc. Cette redondance est confinée au nœud lui-même. Avec une alimentation électrique redondante, le nœud peut être connecté à deux sources d'alimentation différentes, ce qui garantit un fonctionnement continu en cas de panne de courant.

Remarque

Utilisez toujours des disques SSD en miroir comme lecteur du système d'exploitation. Cela garantira que le système d'exploitation lui-même fonctionnera sans interruption, même si un lecteur tombe entièrement en panne.

Niveau utilitaire

Pour que les nœuds du cluster continuent de fonctionner en cas de panne de courant, nous devons fournir une sorte d'alimentation de secours, que ce soit au moyen d'un onduleur, d'un générateur ou d'un grand parc de batteries.

Niveau réseau

La redondance au niveau du réseau comprend l'infrastructure du réseau, comme les commutateurs et les câbles. En utilisant plusieurs commutateurs et plusieurs chemins réseau, nous pouvons garantir que la connectivité du réseau ne sera pas interrompue en cas de défaillance d'un commutateur ou d'un câble. Les commutateurs gérés de niveau 3, tels que les commutateurs empilables, sont les composants adéquats pour créer des chemins de réseau réellement redondants.

Niveau CVC

On oublie souvent d'installer un équipement de refroidissement adéquat, avec des systèmes de secours pour un refroidissement continu en cas de panne du système CVC. En fonction du nombre de nœuds de serveurs, de commutateurs, etc., chaque environnement réseau crée d'énormes quantités de chaleur. S'il n'y a pas de redondance en place, une défaillance du système de refroidissement peut entraîner la défaillance des composants générant une chaleur extrême. Qu'il soit refroidi par air ou par liquide, le système de refroidissement doit comporter un dispositif de secours pour éviter tout dommage. L'endommagement des composants signifie également une perte de connectivité et une augmentation des coûts.

Niveau de stockage

Le stockage joue un rôle important pour tout environnement virtuel et mérite le même niveau d'attention en matière de redondance que le reste du cluster. Il est inutile de mettre en œuvre la redondance dans tous les nœuds hôtes, les réseaux et les alimentations de Proxmox, puis de placer les images de disques virtuels sur un seul stockage NAS sans aucune redondance. Si le stockage sur un seul nœud tombe en panne, même s'il est considéré comme un stockage partagé, toutes les VM qui y sont stockées seront totalement inutilisables. Dans un environnement de production, il est essentiel d'utiliser des systèmes de stockage de niveau entreprise tels que Ceph et Gluster. Ce type de stockage intègre la redondance dans le firmware/système d'exploitation. Nous devons encore nous assurer que ces nœuds de stockage disposent d'une redondance au niveau du nœud, de l'utilitaire, du réseau et du CVC.

Charge actuelle et croissance future

Lors de la conception d'un cluster, vous devez toujours penser à la croissance future, du moins à la croissance dans un avenir prévisible. Un cluster d'entreprise doit pouvoir grandir avec l'entreprise et s'adapter à l'augmentation des charges de travail et des besoins de calcul. À tout le moins, planifiez de manière à ne pas dépasser vos ressources dans les quelques mois suivant votre déploiement. Les clusters Proxmox et Ceph ont tous deux la capacité de croître à tout moment et à n'importe quelle taille. Cela permet d'ajouter simplement de nouveaux nœuds matériels pour étendre la taille du cluster et augmenter les ressources requises par les machines virtuelles.

Lors du provisionnement de votre configuration de mémoire de nœud, tenez compte de la charge de basculement. Vous devrez probablement disposer d'une capacité de 50 % en cas de défaillance d'un seul nœud. Si deux nœuds d'un cluster à trois nœuds tombent en panne, il faut que chaque machine n'utilise que 33 % de la mémoire disponible. Par exemple, disons que les six nœuds d'un cluster Proxmox disposent de 64 Go de mémoire, et que 60 Go sont consommés à tout moment par toutes les machines virtuelles. Si le nœud 1 tombe en panne, vous ne pourrez pas migrer toutes les machines virtuelles du nœud 1 vers les cinq autres nœuds, car il n'y a pas assez de mémoire pour tout le monde. Nous pourrions simplement ajouter un autre nœud de rechange et migrer toutes les machines virtuelles. Cependant, nous devons nous assurer qu'il y a suffisamment de prises de courant pour pouvoir brancher le nouveau nœud.

Budget

Les préoccupations budgétaires jouent toujours un rôle dans la prise de décision, quel que soit le type d'environnement réseau auquel nous avons affaire. La vérité est qu'une installation peut être adaptée à presque tous les budgets avec une planification intelligente et créative. Les administrateurs doivent souvent travailler avec de très petits budgets informatiques. Nous espérons que ce chapitre vous aidera à trouver le fil conducteur qui permettra de relier un budget aux composants matériels appropriés. En utilisant du matériel de base plutôt que des serveurs de marque complète, nous pouvons facilement mettre en place un cluster Proxmox complet avec un budget très serré. Proxmox fonctionne très bien avec des composants matériels de qualité.

Simplicité

La simplicité est souvent négligée dans un environnement réseau. Souvent, elle est naturelle. Si nous ne sommes pas attentifs à la simplicité, nous pouvons très rapidement rendre un réseau inutilement complexe. En mélangeant un RAID matériel avec un RAID logiciel, en plaçant un RAID à l'intérieur d'un autre RAID, ou en configurant plusieurs disques pour protéger le système d'exploitation, nous pouvons faire chuter les performances d'un cluster à un niveau presque inutilisable ou instable. Proxmox et Ceph peuvent tous deux fonctionner sur du matériel de base de haute qualité, ainsi que sur du matériel de serveur commun. Par exemple, en choisissant un i7 de bureau plutôt qu'un Xeon de serveur, nous pouvons réduire les coûts de moitié tout en fournissant une configuration de cluster très stable et simple, à moins que la tâche ne nécessite spécifiquement une configuration multi-Xeon.

Suivi de l'inventaire du matériel

Un administrateur doit avoir accès à des informations clés sur le matériel utilisé dans un réseau : des informations telles que la marque, le modèle et le numéro de série d'un composant matériel, la date d'achat, le nom du fournisseur, la date de remplacement, etc. Un système de suivi adéquat permet de gagner beaucoup de temps lorsqu'il s'agit de retrouver l'une de ces informations. Chaque entreprise est différente, et les systèmes de suivi peuvent donc être différents, mais la responsabilité de la collecte de ces informations incombe uniquement au gestionnaire ou à l'administrateur du réseau. Si aucun système n'est en place, la création d'une simple feuille de calcul peut suffire à assurer le suivi de toutes les informations relatives au matériel.

Sélection du matériel

Plusieurs facteurs influencent le type de matériel à sélectionner, par exemple si le cluster va prendre en charge de nombreuses machines virtuelles avec moins de ressources ou servir quelques machines virtuelles avec plus de ressources. Un cluster qui se concentre sur de nombreuses machines virtuelles doit avoir un nombre de cœurs de processeur beaucoup plus élevé, notre objectif est donc de mettre autant de cœurs que possible par nœud. Lorsqu'un cluster se concentre sur quelques machines virtuelles, avec beaucoup plus d'utilisateurs par machine virtuelle, nous devons disposer d'une grande mémoire. Ainsi, un système avec un plus petit cœur mais une plus grande quantité de mémoire est beaucoup plus approprié. De même, un cluster peut se concentrer sur les deux types et créer un environnement de cluster hybride. Un environnement hybride commence généralement par une configuration matérielle d'entrée de gamme, puis évolue vers une configuration de niveau avancé à mesure que l'entreprise se développe et qu'elle dispose d'un budget plus important. Par exemple, une petite entreprise peut démarrer son infrastructure de cluster avec du matériel stable de type ordinateur de bureau, puis le remplacer progressivement par une plate-forme de type serveur, telle que Xeon, pour faire face à son expansion.

Dimensionnement de l'unité centrale et de la mémoire

Une question souvent posée lorsqu'il s'agit de créer des environnements virtuels est de savoir quelle quantité de CPU ou de mémoire sera nécessaire dans chaque nœud et quelle quantité allouer par machine virtuelle. C'est l'une de ces questions qui est très ouverte, car sa réponse varie grandement d'un environnement à l'autre. Cependant, il y a quelques points à garder à l'esprit pour éviter une sur- ou sous-allocation.

C'est un fait que nous allons, et c'est souvent le cas, manquer de mémoire bien plus tôt que de CPU pour un Proxmox donné ou tout autre nœud hôte. À partir de l'utilisation de chaque VM sur les nœuds Proxmox, nous pouvons déterminer les besoins en RAM et en CPU sur ce nœud. Dans cette section, nous allons passer en revue les facteurs qui nous aideront à décider des besoins en CPU et en mémoire.

Socket unique ou multi-socket

Un nœud multi-socket aura toujours de meilleures performances qu'un single socket, quel que soit le nombre de cœurs par CPU. Ils fonctionnent efficacement dans la distribution de la charge de travail des VM. Ceci est vrai pour les architectures Intel et AMD. Si le budget est disponible, un nœud à quatre sockets offrira les performances maximales de tout nœud à configuration de sockets.

Hyper-threading - activer ou désactiver

L'une des principales différences entre Intel et AMD est l'hyper-threading. Tous les cœurs des processeurs AMD sont des cœurs réels, alors que tous les processeurs Intel sont équipés de l'hyper-threading, qui crée deux cœurs virtuels par cœur physique. Une autre question qui est posée bien trop souvent est de savoir s'il faut activer ou désactiver l'hyper-threading. D'après des centaines de rapports et de tests, il semble qu'il soit préférable de le laisser activé pour les serveurs Intel les plus récents. La crainte d'une dégradation des performances due à l'hyper-threading n'est plus valable, car il a traversé des décennies de développement et tous les problèmes initiaux ont été résolus. Il est également préférable de ne pas compter tous les cœurs hyper-threading comme des cœurs réels, car ils sont toujours virtuels. Lorsque vous comptez le nombre total de cœurs disponibles dans un nœud, adoptez une approche conservatrice et comptez un peu moins que le nombre total de cœurs.

Commencez petit avec les ressources de la machine virtuelle

Une machine virtuelle est complètement différente d'une machine physique et doit être traitée comme telle. Elle ne consomme pas de CPU et de mémoire comme un nœud physique. La meilleure pratique consiste à toujours provisionner les ressources CPU et mémoire avec parcimonie, puis à les augmenter en fonction des performances de l'application. Cela permet à la VM d'utiliser efficacement les ressources allouées, ce qui permet à toutes les VM de fonctionner efficacement dans le nœud. En surprovisionnant le CPU et la mémoire pour toutes les VM du nœud, nous dégradons les performances du nœud, car toutes les VM se battront pour avoir plus de temps CPU. Commencez toujours avec un seul CPU virtuel (vCPU) pour la plupart des VMs. Commencez par deux vCPU pour les VM à forte intensité de processeur, comme les serveurs de base de données, les serveurs d'échange, etc. Surveillez l'utilisation des ressources de la VM et ajustez-la en conséquence. Un moyen rapide de voir quelle VM utilise le plus de CPU ou de mémoire est de passer par le menu de recherche du centre de données ou du nœud, qui affiche la liste de toutes les entités et peut être trié.

Lors de l'allocation de vCPU pour une seule VM, ne dépassez jamais le nombre total de cœurs dans le nœud. Cela dégraderait les performances de l'ensemble du nœud et de toutes les VM qu'il contient.

Note

Gardez à l'esprit que dans un environnement virtuel, plus de CPU et de mémoire pour une machine virtuelle ne signifie pas toujours une meilleure performance.

Équilibrer les ressources du nœud

Assurez-vous toujours que chaque nœud Proxmox dans un cluster dispose de ressources CPU et mémoire similaires. Si certains nœuds se retrouvent avec plus de ressources que les autres, cela posera un problème lors de la tentative de déplacement ou de migration des machines virtuelles d'un nœud à ressources élevées vers un nœud à ressources faibles. Le nœud disposant de moins de ressources ne sera pas en mesure de gérer toutes les machines virtuelles, ce qui entraînera des temps d'arrêt plus longs en cas de défaillance du nœud. Ce problème peut être atténué en utilisant une combinaison de quelques nœuds à hautes ressources et de plus de nœuds à faibles ressources.

Production de clusters Ceph

Comme mentionné tout au long de ce livre, Ceph est un système de stockage distribué très résilient qui se combine bien avec Proxmox pour stocker les images de disques virtuels. Il existe quelques facteurs clés qui font d'un cluster Ceph un bon choix pour un environnement virtuel de niveau production.

Oubliez le RAID matériel

Lorsqu'il s'agit de nœuds et de clusters Ceph, nous pouvons oublier le RAID matériel. Il faut plutôt penser au RAID multi-nœuds ou clusterisé. Cela est dû à la nature distribuée de Ceph et à la façon dont les données sont dispersées dans tous les disques du cluster, quel que soit le nœud dans lequel se trouve le disque. Avec Ceph, nous n'avons plus à nous soucier de la défaillance d'un périphérique dans un nœud particulier. Ceph est plus performant lorsqu'il a accès à chaque disque directement, sans RAID au milieu. Si nous plaçons les disques dans un RAID par nœud, nous allons en fait nuire considérablement à Ceph et supprimer tout ce qui rend Ceph génial. Nous pouvons cependant toujours utiliser la carte d'interface RAID pour mettre en œuvre une configuration JBOD ou pour pouvoir connecter de nombreux disques par nœud.

Solid State Drive pour Ceph Journal

Les données entrantes pour le cluster Ceph sont écrites dans un journal avant d'être transmises aux OSD eux-mêmes. Ainsi, un disque dédié tel qu'un SSD augmentera considérablement la vitesse d'écriture, car il peut atteindre une vitesse d'écriture extrême, bien plus rapide qu'un disque SATA ou SAS standard. Même le plus rapide des disques d'entreprise de 15 000 tr/min n'atteint pas les performances d'un SSD. Lors de la sélection d'un SSD pour un journal Ceph, il faut faire attention à la marque ou au modèle.

Tous les disques SSD ne sont pas performants pour un journal Ceph. Actuellement, le seul SSD capable de résister à la charge rigoureuse de Ceph tout en offrant une grande vitesse d'écriture et une protection contre les pertes de puissance est le DC S3700 ou S3500 d'Intel. Il existe d'autres SSD qui peuvent également être performants, mais ceux mentionnés ont une durée de vie beaucoup plus longue. Leur protection intégrée contre les coupures de courant empêche également la corruption des données du journal, ce qui peut entraîner des données corrompues dans les OSD. Visitez le lien suivant pour un article sur la façon de tester les disques SSD adaptés à Ceph et une liste des SSD possibles pour le cluster Ceph :

Ceph: how to test if your SSD is suitable as a journal device? | Sébastien Han

Au lieu des disques SSD SATA standard, nous pouvons également utiliser des disques SSD basés sur PCI, qui peuvent fournir une augmentation extrême des performances par rapport aux disques SSD SATA standard. Si les baies de disques sont limitées pour les disques SSD dédiés, c'est le choix idéal. Le lien suivant indique les SSD Intel PCI-E qui peuvent être considérés comme un journal Ceph :

http://www.intel.com/content/www/us/en/solid-state-drives/solid-state-drives-750-series.html

Ceph peut toujours être utilisé sans l'utilisation de lecteurs de journaux SSD dédiés. Nous pouvons configurer les OSD de Ceph pour stocker les journaux sur le même disque rotatif, mais en raison de la faible vitesse des disques mécaniques, nous verrons des temps d'attente d'E/S élevés dans les nœuds Proxmox. L'utilisation de disques SATA ou SAS de qualité professionnelle réduira ce temps d'attente IO, mais pas autant qu'un SSD dédié.

Note

Ne placez jamais un journal dédié, que ce soit un SSD ou un disque dur, sur une sorte de RAID. Cela réduira les performances du journal, qui à leur tour affecteront les performances globales de Ceph.

Bande passante réseau

Disposer d'une large bande passante réseau est crucial pour Ceph ou tout autre stockage. Plus la bande passante est dédiée, plus les performances et la latence de la VM en bénéficieront. Notez ici que lorsqu'un journal dédié tel qu'un SSD est utilisé, le besoin en bande passante réseau augmentera de manière significative, car davantage de données traverseront le cluster Ceph pour la réplication et la distribution. Pour un cluster Ceph où le SSD est utilisé comme journal dédié, un réseau gigabit ne devrait pas être utilisé pour le réseau du cluster Ceph. Au minimum, 10 GB serait un bon réseau. Nous pouvons également utiliser InfiniBand comme solution de réseau alternative pour un budget plus faible. Si ni l'un ni l'autre n'est possible, plusieurs gigabits liés fonctionneraient également. Sur un seul gigabit, le réseau deviendra un goulot d'étranglement, entraînant une dégradation des performances à l'échelle du cluster.

De plus, la synchronisation du cluster Ceph devrait être sur son propre réseau dédié, avec le réseau public Ceph sur un autre. Ceph utilise le réseau du cluster pour engager toutes les synchronisations entre les OSD. Cela évite une charge inutile sur le réseau public.

Refroidissement liquide

Dans cette solution, l'équipement informatique est refroidi à l'aide de liquide, car le liquide est 1 000 fois meilleur que l'air pour le transfert de chaleur. Nous pouvons efficacement éliminer la chaleur directement de l'équipement informatique et la transférer avec une grande facilité hors de l'installation. Le refroidissement par liquide élimine la nécessité de faire fonctionner un grand système de chauffage, de ventilation et de climatisation, ce qui permet de réaliser des économies considérables et de réduire considérablement le bruit. Le refroidissement liquide ne nécessite aucun ventilateur interne, ce qui permet de décupler la densité de serveurs par rack. Le refroidissement liquide est l'avenir, car de plus en plus d'installations informatiques réalisent tout son potentiel. En utilisant le refroidissement liquide, nous pouvons également diminuer notre consommation d'énergie, ce qui réduit énormément notre empreinte carbone. Il existe différentes solutions de refroidissement liquide sur le marché.

Immersion totale dans l'huile

Les équipements informatiques sont totalement immergés dans de l'huile minérale. L'huile chaude est pompée dans un échangeur de chaleur liquide-liquide, où la chaleur est évacuée, à l'aide d'eau, vers une tour de refroidissement extérieure. L'eau et l'huile n'ont jamais un contact total, seulement un transfert de chaleur. Cette solution de refroidissement liquide est non seulement la plus rentable à l'heure actuelle, mais aussi la plus salissante, car les serveurs sont plongés dans l'huile. Elle nécessite également plus d'espace, puisque tous les racks sont couchés sur le dos. Toutefois, cet espace supplémentaire peut facilement être compensé par une densité accrue par nœud. Actuellement, Green Revolution Cooling est le pionnier de cette technologie. Visitez les liens suivants pour leur site officiel et une excellente vidéo montrant la technologie en action :

Site officiel :

Liquid Immersion Cooling for Data Centers | ICEraQ | GRC
GRC is the leader in liquid immersion cooling for data centers. Our ICEraQ™ micro-modular systems increase efficiency and lower CAPEX & OPEX by 50%.

Il existe une autre technologie qui mérite d'être mentionnée ici. Elle est similaire à l'immersion, mais l'immersion est isolée dans le nœud de serveur lui-même. LiquidCool Solutions a une approche unique qui consiste à remplir un châssis de serveur scellé avec de l'huile minérale pour éliminer la chaleur.

Visitez le lien suivant pour plus d'informations sur cette approche :

Innovative Immersion Cooling Harsh Environment, 5G/Edge, DataCenter
LCS offers a full suite of innovative immersion IT cooling products and solutions that cross the spectrum of the IT industry from small mobile devices, like the rugged RT for rapid field deployment at the Edge or in harsh environments, to rack-based offerings for hyperscale datacenters … and everyth…

Immersion totale dans 3M Novec

Comme pour le refroidissement par immersion dans l'huile, il s'agit également d'une technologie d'immersion totale, dans laquelle le fluide technique 3M Novec est utilisé à la place de l'huile minérale. L'avantage de cette option est l'absence de saleté. Contrairement à l'huile, ce fluide ne colle à aucun équipement et ne nécessite aucun échangeur de chaleur ou pompe pour déplacer le fluide lui-même. Ce fluide a une température d'ébullition de 60 degrés Celsius, à laquelle il se transforme en vapeur. Lorsque la vapeur entre en contact avec un serpentin froid situé sur le dessus du réservoir, elle se transforme en liquide et redescend dans le réservoir. Seule une pompe est nécessaire pour faire circuler l'eau dans le serpentin, ce qui réduit de moitié l'équipement nécessaire au refroidissement à l'huile.

Visitez le lien suivant pour une présentation vidéo de la technologie :

https://www.youtube.com/watch?v=a6ErbZtpL88

Refroidissement par liquide à contact direct
La chaleur est éliminée directement de la source de chaleur, telle que l'unité centrale et la mémoire, à l'aide d'une plaque froide et d'un liquide de refroidissement tel que l'eau ou tout autre agent réfrigérant. Comme aucun équipement n'est immergé, cette technologie peut être utilisée avec l'infrastructure existante sans modification majeure, tout en augmentant la densité par nœud et en réduisant la consommation d'énergie. Il ne s'agit pas d'une technologie unique, car ce type de solution de refroidissement liquide est utilisé depuis plusieurs années. Les solutions de refroidissement liquide grand public utilisent cette technologie standard. Asetek est connu pour ses solutions de refroidissement liquide pour les utilisateurs d'ordinateurs de bureau.

Visitez leur site officiel en cliquant sur le lien suivant :

Asetek Gaming Hardware | Asetek
Founded in 2000, Asetek designs, manufactures, and sells gaming hardware for next-level immersive gaming experiences.

CoolIT Systems est un autre fournisseur de solutions de refroidissement liquide par contact direct qui mérite d'être mentionné ici. Ils adoptent également l'approche de la plaque froide pour refroidir les équipements par refroidissement liquide. Certaines de leurs solutions peuvent être mises en œuvre directement dans le rack en tant qu'unité de refroidissement standard, sans qu'il soit nécessaire de disposer d'une installation d'eau ou d'une tour de refroidissement.

Visitez le lien suivant pour plus d'informations sur leur solution :

Main page - CoolIT Systems
CoolIT Systems is the leader in liquid cooling solutions for HPC and data centers. Click to learn more about CoolIT’s services and technology