ATS_Blog_banner

L’arrivée inévitable de l’IA dans la gestion de l’infrastructure des centres de données

La maintenance d’un centre de données est une tâche complexe. Tous ceux qui ont contribué à maintenir l’infrastructure opérationnelle en permanence tout en essayant de réduire les dépenses opérationnelles savent de quoi il retourne.

Maintenir la disponibilité est facile lorsque l’on dispose de ressources illimitées. Il suffit de faire un 3N+1 ou mieux et vos chances de panne sont proches de zéro.

Cependant, personne ne peut se permettre une telle dépense. Ni pour l’investissement, ni pour les coûts d’exploitation liés à la bonne marche de tous ces équipements.

ATS_DCIM_Human_Error_Icon_1

Dès lors, quel est le plus grand risque concernant la disponibilité de votre data center ? Votre équipe

Lire plus →

ATS_DCIM_Data_Center_Protection_Icon_1

Bien sûr, votre data center est protégé contre le feu…

Lire plus

Où est la croisée des chemins ?

Un responsable opérationnel d’un centre de données a la tâche complexe de trouver la croisée des chemins où la somme des CapEx et des OpEx égale la disponibilité requise. Comment atteindre une disponibilité maximale avec un investissement minimal et le coût opérationnel le plus bas ? Parfois, le taux de disponibilité est fixé à une certaine limite, disons 99,995 % et les coûts doivent se décliner en conséquence. Dans d’autres cas, il faut trouver la disponibilité maximale pour un coût donné. Dans tous les cas, le gestionnaire opérationnel examine un éventail d’options très complexe où chaque décision influence d’autres variables. C’est un peu comme un jeu d’échecs où il faut pouvoir anticiper.

L’IA bat les humains encore et encore

En 1996, c’était l’ordinateur IBM « Deep Blue » qui affrontait le champion du monde d’échecs Garry Kasparov et le battait dans un tournoi d’échecs par 3,5 à 2,5. En 2017, l’IA « AlphaGo » battait le champion du monde en titre, Ke Jie, en remportant 3 parties sur 3 de Go, un jeu beaucoup plus complexe que les échecs. L’intelligence artificielles (IA) s’est avérée à maintes reprises meilleure que les humains dans la prise de décisions stratégiques. Il est donc naturel que l’IA soit utile dans la prise de décisions très complexes dans un centre de données.

À quel point cela peut-il être complexe de gérer un centre de données ?

Un tel centre intègre un certain nombre de variables qui sont toutes liées entre elles. Comme la température de l’air au niveau du serveur, celle à l’entrée et à la sortie de la climatisation CRAC, la vitesse aéraulique et le niveau d’efficacité des différents dispositifs d’infrastructure. Ensuite, il y a la demande énergétique variable dans le temps des serveurs. Certains clusters atteignent un pic pendant la nuit, d’autres sont plus sollicités pendant les heures de bureau.

Pendant que vous jonglez avec tous ces paramètres, vous devez simultanément tenir compte de la redondance de tous les équipements afin qu’aucune défaillance unique n’entraîne une panne. Si vous êtes toujours en mesure de jongler sans faire tomber toutes les balles encore en l’air, vous devez également porter attention à entretenir tout ce matériel. Puis, à conserver la redondance pendant cette période de maintenance ; ah ! et encore, faire tout cela en consommant le minimum d’énergie possible.

Vous voyez le scénario ? C’est une tâche presque impossible à gérer pour les humains. Les machines sont capables de faire des calculs presque infiniment plus vite que les humains.

S’agit-il uniquement d’une question de calculs ?

Non, car un ordinateur qui fait des calculs ne fait que calculer ce qui a été codé. Il ne peut pas penser par lui-même. L’apprentissage en profondeur ou le « deep learning » permet à un ordinateur d’analyser une quantité massive de données et d’en tirer des conclusions. Mais même cela a ses limites : qu’en est-il des situations qui ne se sont jamais produites dans le passé ? Comment prédire ce qui n’a encore jamais été testé ? C’est là qu’intervient le concept de « jumeau numérique ». Une technologie que Perf-iT met en œuvre dans sa dernière version de 4D Cool, un radicalement nouveau concept pour la gestion de l’efficacité des data centers.

Jumeaux numériques et le conditionnel « et si ? »

4D Cool est un système de gestion basé sur des données réelles, générées par un nombre limité de capteurs, sur la dynamique des fluides computationnelle (CFD) pour prédire la température dans chaque coin de votre data center et sur une version entièrement digitalisée de votre data center. En analysant la sortie du CFD avec les données réelles des capteurs, le système améliore constamment ses prédictions. Le niveau de prédiction devient suffisamment élevé pour analyser des situations hypothétiques telles que : et si, nous avons un transformateur défectueux… et si, 500 serveurs supplémentaires sont placés dans cette allée. Ces scénarios « et si, » ne peuvent être calculés avec ce concept de jumeau numérique que si ce dernier est une représentation exacte de votre centre de données réel.

L’avenir des data centers est digital

La taille et la complexité des centres de données ne cessent de croître. Aucune personne n’est capable de gérer simultanément autant de variables et de prédire les effets des changements d’un grand nombre de paramètres. Les ordinateurs doivent entrer en ligne de compte. Mais faire seulement des moulinettes de calcul ne fera pas l’affaire. L’ordinateur doit être capable de vérifier ses propres calculs en les recoupant avec des données réelles. C’est exactement ce que fait un jumeau numérique. Le DC manager dispose désormais d’un outil qui lui permet d’analyser les effets des changements dans son centre de données, lui permettant ainsi de déterminer le meilleur plan d’action. 4D Cool est cet outil et nous serons heureux de vous le démontrer.

Abordons les exigences de votre centre de données.

[contact-form-7 id= »87593″ title= »Contact Form – Blog Post »]