Exhibitor Press Releases
Der Digitale Zwilling: Transparenz statt Unwissenheit im Rechenzentrum
Während des gesamten Lebenszyklus eines Rechenzentrums
beeinflussen Kapazitätsverluste nicht nur unmittelbar die angestrebte
Energieeffizienz, sondern auch die Sicherheit des Betriebs. Die Bedeutung
dieses Aspekts wird häufig unterschätzt, insbesondere aufgrund fehlender
Transparenz hinsichtlich der aktuellen und zukünftigen lokalen Verfügbarkeit
der geplanten Ressourcen. Dieser Artikel beleuchtet, wie durch ein
intelligentes Management von Rechenzentren und prädiktive Analysen eine erhöhte
Transparenz geschaffen werden kann. Die koordinierte Nutzung verfügbarer
Kapazitäten ist ohne einen digitalen Zwilling oftmals nicht in verständlicher
Form darstellbar; traditionelle Methoden der Datenerfassung erweisen sich hier
als ineffizient und bergen potentiell erhebliche Risiken für den sicheren
Betrieb.
Rechenzentren sind konzipiert, um
verschiedenste Anforderungen zu einer bestimmten Zeit zu bedienen. Doch im
Verlauf ihres Bestehens ändern sich diese Anforderungen meist deutlich.
Unternehmensziele verschieben sich, technologische Innovationen kommen hinzu,
und es werden regelmäßig neue gesetzliche Vorgaben eingeführt – das alles
geschieht in immer kürzeren Abständen. Daher sind CIOs und CTOs gefordert, sich
kontinuierlich neues Wissen anzueignen und ihre Strategien flexibel an diese
Veränderungen anzupassen. Während die physische und technische Grundstruktur
eines Rechenzentrums meist konstant bleibt, unterliegt die IT-Landschaft einem
kontinuierlichen Wandel.
Infolgedessen stehen Eigentümer und Betreiber
von Rechenzentren vor der Herausforderung, Veränderungen in einem sich ständig
wandelnden System – dem IT-Raum – vorzunehmen. Häufig fehlt dabei die
Möglichkeit, präzise vorherzusagen, wie sich die geplanten Anpassungen auf die
Infrastruktur auswirken werden. Diese Unsicherheit birgt erhebliche Risiken:
Eine Fehlentscheidung kann nicht nur die Geschäftsprozesse beeinträchtigen,
sondern im schlimmsten Fall auch zu einem kompletten Ausfall führen.
Betrachten wir die Situation objektiv und nehmen erst einmal
Abstand von herausfordernden Momenten, sei es durch Warnmeldungen zu auftretenden
Ausfällen oder neue Kapazitätsanforderungen wie KI-Server, welche die
verfügbaren Ressourcen schnell an Ihre Grenzen und darüber hinauskatapultieren.
Im Wesentlichen gibt es zwei sinnvolle Arbeitsweisen, wie sie
solchen Herausforderungen begegnen können: Die erste ist
die, „wie wir es immer gemacht haben“. Die zweite ist die „beste Art und Weise“,
wie wir es tun könnten. Die erste Methode hat ihre Vorteile, weil sie keine
Unruhe verursacht und jeder seinem routinierten, aber ausgetretenen Weg folgt.
Aber sie untergräbt den eigentlichen Zweck des Rechenzentrums, nämlich mit den
vorhanden Ressourcen effizient umzugehen und somit den langfristigen Unternehmenserfolg
maximal zu unterstützen. Die zweite Methode ist definitiv besser für den
nachhaltigen Umgang mit Ressourcen. Allerdings ist es mit Schwierigkeiten
verbunden, „die beste Art und Weise” zu finden und umzusetzen. Hier sei
gesagt - Rechenzentren sind nicht wirklich Umgebungen, in welchen man per „Trail
& Error “den besten Weg evaluieren kann.
Um diesem Risiko entgegenzuwirken, existiert
mittlerweile eine innovative Lösung: der Digitale Zwilling. Mit Hilfe dieses
virtuellen Abbilds des Rechenzentrums lassen sich sämtliche vorgesehenen
Änderungen in einer sicheren Testumgebung simulieren und analysieren, bevor sie
in der Praxis umgesetzt werden. Dadurch wird es möglich, potentielle Probleme
frühzeitig zu erkennen und die Stabilität sowie Effizienz der Anlage nachhaltig
zu sichern.
Der digitale Zwilling bildet die physische
Anlage als exaktes virtuelles Abbild ab. Diese digitale Nachbildung ermöglicht
es, das Rechenzentrum in einer realitätsnahen Simulationsumgebung zu
analysieren und verschiedene Szenarien durchzuspielen. So können beispielsweise
einzelne Server in Ihrer Position evaluiert oder Steckdosen virtuell geschaltet
werden, um die Auswirkungen auf die Gesamtinfrastruktur zu bewerten. Ein
zentrales Instrument dabei ist die numerische Strömungsmechanik (CFD), mit der
sich der Luftstrom innerhalb der Anlage simulieren läßt. Auf diese Weise
erhalten Betreiber wichtige Einblicke in thermische Eigenschaften,
identifizieren potentielle Hotspots und erkennen Fehlerquellen, welche
andernfalls zu Ausfallzeiten führen könnten.
Ein besonderer Vorteil der
Digital-Twin-Technologie besteht darin, daß auch komplexe Fragestellungen
risikofrei untersucht werden können: Was passiert, wenn eine Kühleinheit
ausfällt? Wie wirkt sich das Hochfahren von neuer IT & Racks auf die
bestehende IT und deren benötigte Kühlung aus. Welche Folgen hat der Austausch
einzelner Server? All diese Analysen lassen sich mit Hilfe des digitalen
Zwillings schnell, transparent und ohne Gefahr für die reale Infrastruktur
durchführen. So können Unternehmen selbst anspruchsvolle Szenarien durchspielen
und fundierte Entscheidungen treffen, bevor Änderungen tatsächlich umgesetzt
werden.
Mit dem Einsatz eines digitalen Zwillings
erhalten Betreiber die Möglichkeit, ihr Rechenzentrum in sämtlichen denkbaren
Konfigurationen sowie unter verschiedensten Komplikationen oder sogar
Katastrophenfällen präzise modellieren. Die virtuelle Nachbildung erlaubt es,
Schwachstellen innerhalb der Infrastruktur effektiv zu identifizieren und
gezielt zu beheben. Dadurch verlieren selbst anspruchsvolle Anforderungen aus
dem Unternehmen ihren Schrecken, da die Auswirkungen solcher Anfragen vorab
transparent simuliert und bewertet werden können.
Die Aufgabe, Ausfälle im Rechenzentrum zu
verhindern, bleibt weiterhin ein zentraler Bestandteil der Arbeit von
Infrastruktur- und Betriebsfachleuten. Allerdings erfordert die zunehmende
Komplexität und Dynamik der IT-Landschaft eine grundlegende Veränderung der
bisherigen Vorgehensweisen. Glücklicherweise stehen die notwendigen Tools und
Fähigkeiten bereits heute zur Verfügung: Mit Hilfe eines digitalen Zwillings
können Betreiber Ausfallszenarien realitätsnah durchspielen und geplante
Änderungen sicher in der virtuellen Umgebung umsetzen. So wird das Risiko für
die reale Infrastruktur minimiert und die Grundlage für zukunftsfähige
Entscheidungen geschaffen.
Diese Technologie ermöglicht es, zu
überprüfen, ob die Vorlauftemperatur der Klimageräte ohne Risiko erhöht werden
kann, wodurch Energie und Geld gespart und der CO2-Fußabdruck der Infrastruktur
reduziert werden.
Sie ermöglicht die Auswahl
energieeffizienterer Lösungen (Freikühlung, Hintertüren, DLC, Hybridkühlung).
Durch das Durchbrechen der Glasdecke von
Rechenzentren, die zu 60 % ihrer ursprünglichen Kapazität ausgelastet sind,
ermöglicht DT eine Erhöhung dieser Grenze auf bis zu 90 %. Dies ist der beste
Weg, um die vorhandenen Infrastrukturen mit ihrer maximalen Kapazität zu nutzen
und die Investitionskosten zu optimieren. Dadurch verzögert sich der Bau neuer
Rechenzentren, was eine radikale Möglichkeit darstellt, die Umweltauswirkungen
unserer digitalen Welt zu reduzieren.
Da auch in Zukunft durch den vermehrten Bedarf
an KI-Hardware neue Herausforderungen auf uns zukommen werden, geben digitale
Zwillinge nicht nur bei der Neuplanung eines Rechenzentrums, sondern bei der
stark veränderten Nutzung von Rechenzentren den Managern die Möglichkeit, die
Kontrolle zu behalten und die Vielzahl von Unternehmen zu unterstützen, die auf
sie angewiesen sind, um effektiv zu arbeiten.
Hier sei zum Abschluß nur erwähnt, daß die
vermehrt eingesetzte Flüssigkeitskühlung (z.B. DLC, Direct Liquid Cooling auf
dem GPU Chip) für die KI-Hardware meist nur 70% der direkten Lasten am Chip
bedient, doch die restlichen 30 % - und hier sprechen wir gerne über > 30KW
– über konventionelle Luftkühlung abgeführt werden muß.
Cloud & AI Infrastructure
Cloud & Cyber Security Expo
Big Data & AI World
Data Centre World 