ATS_Blog_banner

Die unvermeidliche Ankunft der KI im Infrastruktur-Management von Rechenzentren

Das sorgsame Betreiben eines Rechenzentrums ist eine komplexe Aufgabe. Wer schon einmal damit zu tun hatte, die Infrastruktur am Laufen zu halten und gleichzeitig die Betriebskosten zu senken, weiß, wovon wir sprechen.

Mit unbegrenzten Ressourcen lässt sich die Betriebszeit sicherlich leicht garantieren. Das wäre so als würde man 3n+1 folgen und die Chancen auf einen Ausfall gegen Null gehen.

Allerdings kann sich sicherlich niemand einen solchen Kostenaufwand leisten. Weder die Investition selbst, noch die Kosten für den ununterbrochenen Betrieb.

ATS_DCIM_Human_Error_Icon_1

Was ist die größte Gefahr für die Betriebszeit Ihres Rechenzentrums? Ihre Mitarbeiter.

Mehr erfahren →

ATS_DCIM_Data_Center_Protection_Icon_1

Sicherlich haben Sie Ihr Rechenzentrum vor Feuer geschützt…

Mehr erfahren

Die Suche nach dem Optimum

Der Betriebsleiter eines Rechenzentrums steht vor der komplexen Aufgabe, den idealen Punkt zu finden, an dem die Summe von CapEx und OpEx mit der Betriebszeit übereinstimmt. Wie lässt sich mit minimaler Investition und niedrigsten Betriebskosten eine maximale Betriebszeit erreichen? Eine Methodik ist es, als Betriebszeit einen bestimmten Grenzwert festzulegen, z. B. 99,995 %, wovon sich anschließend die Kosten ableiten lassen. Alternativ lässt sich die maximale Betriebszeit für vorgegebene Kosten bestimmen. So oder so: Der Betriebsleiter steht vor einer hohen Komplexität an Möglichkeiten, bei denen sich jede Entscheidung auf andere Variablen auswirkt. Es ist ein bisschen wie beim Schach, wo immer schon der nächste Zug bedacht werden muss.

KI schlägt den Menschen immer wieder

1996 trat der IBM-Computer „Deep Blue“ gegen den Schachweltmeister Garri Kasparow an und besiegte ihn in einem Schachturnier 3,5 zu 2,5. 2017 besiegte das KI-Computerprogramm „AlphaGo“ den amtierenden Weltmeister Ke Jie, indem es 3 von 3 Go-Spielen gewann – und Go ist noch viel komplexer als Schach. Künstliche Intelligenzen (KI) haben immer wieder bewiesen, dass sie in der strategischen Entscheidungsfindung besser sind als Menschen. So wird verständlich, dass die KI auch bei der äußerst komplexen Entscheidungsfindung in einem Rechenzentrum hilfreich ist.

Der Betrieb eines Rechenzentrums – wie komplex kann das sein?

In einem Rechenzentrum gibt es eine ganze Reihe von Variablen, die miteinander verknüpft sind. Denken Sie nur an die Lufttemperatur auf Serverebene, die Temperatur am CRAC-Einlass und -Auslass, die Luftgeschwindigkeit und den Effizienzgrad der verschiedenen Infrastrukturelemente. Zudem gibt es noch den zeitabhängigen Energiebedarf der Server. Bei manchen Clustern liegt der Spitzenwert in der Nacht, andere sind während der Büroarbeitszeiten aktiver.

Sie müssen aber nicht nur mit all diesen Parametern jonglieren, sondern gleichzeitig auch die Redundanz Ihrer gesamten Anlagen berücksichtigen, damit nicht eine einzelne Störung zu einem Ausfall führt. Und jetzt denken Sie noch an die Instandhaltung all dieser Hardware und den Erhalt der Redundanz während der Wartung – ach, und zudem dürfen Sie natürlich nur so wenig Energie wie möglich verbrauchen.

Sehen Sie? Das ist für Menschen eine geradezu unlösbare Aufgabe. Maschinen können fast unendlich schneller rechnen als Menschen.

Aber geht es immer nur ums Rechnen?

Nein, denn wenn ein Computer etwas berechnet, führt er nur das aus, was ihm einprogrammiert wurde. Er kann nicht selbst denken. Mit Deep Learning kann ein Computer zwar enorme Datenmengen analysieren und daraus Schlussfolgerungen ziehen. Aber auch hier gibt es Grenzen: Was ist mit Situationen, die so noch nie eingetreten sind? Wie soll man etwas vorhersagen, was noch nicht getestet wurde? Hier kommt das Konzept „Digital Twin“ ins Spiel. Perf-iT setzt diese Technologie in seiner neuesten Version von 4D Cool ein, einem radikal neuen Konzept für das Effizienzmanagement von Rechenzentren.

Digitale Zwillinge und „Was wäre, wenn?“

Das Managementsystem 4D Cool basiert auf realen, von einer begrenzten Anzahl Sensoren erzeugten Daten, numerischer Strömungsmechanik (CFD) zur Vorhersage der Temperatur in jedem Winkel Ihres Datenraums und einer komplett digitalisierten Version Ihres Rechenzentrums. Durch die Analyse der CFD-Ausgabe mit den realen Daten der Sensoren verbessert das System ständig seine Vorhersagen. Der Grad der Vorhersagbarkeit wird dadurch hoch genug, um hypothetische Situationen zu analysieren, wie zum Beispiel: Was wäre, wenn ein Transformator kaputtgeht? Was wäre, wenn wir in dem Gang noch 500 Server aufstellen würden? Solche Was-wäre-wenn-Szenarien lassen sich nur mit solch einem Digital-Twin-Konzept berechnen, denn der digitale Zwilling ist eine exakte Kopie Ihres realen Rechenzentrums.

Die Zukunft der Rechenzentren ist digital

Rechenzentren werden immer größer und immer komplexer. Kein Mensch ist in der Lage, so viele Variablen gleichzeitig im Griff zu haben und die Auswirkungen von Veränderungen bei mehreren Variablen vorherzusagen. Hier müssen Computer übernehmen. Aber mit bloßer Rechnerei ist es nicht getan. Der Computer muss seine eigenen Berechnungen durch Gegenkontrollen mit realen Daten überprüfen. Und genau das macht ein digitaler Zwilling. Damit hat der Leiter eines Rechenzentrums ein Tool, mit dem er die Auswirkungen von Veränderungen im Rechenzentrum analysieren und entsprechend entscheiden kann, welche Vorgehensweise am besten ist. Dieses Tool heißt 4D Cool und wir führen es Ihnen sehr gern einmal vor.

Sprechen wir über die Anforderungen Ihres Rechenzentrums.