Wie Rechenzentren in der Klimakrise manövrieren| Corning

Wie Betreiber von Rechenzentren in der Klimakrise einen kühlen Kopf bewahren können

Wie Betreiber von Rechenzentren in der Klimakrise einen kühlen Kopf bewahren können

2022 wurden weltweit Rekordtemperaturen verzeichnet, mit weitreichenden Auswirkungen auch auf Rechenzentren. Kühlungsbedingte Ausfälle während einer extremen Hitzewelle betrafen sowohl Google Cloud als auch Oracle in Großbritannien. Und auch ein Rechenzentrum von Twitter in Kalifornien hielt den extremen Temperaturen nicht stand.

Für Betreiber von Rechenzentren wird sich die Lage leider nur noch verschärfen. Nicht nur wegen der zunehmenden Auswirkungen des Klimawandels, sondern auch wegen des Energieverbrauchs von Rechenzentren und deren Notwendigkeit den steigenden Bandbreitenbedarf zu decken. Wenn sich Rechenzentren weiterentwickeln, um höhere Geschwindigkeiten wie 400 oder 800G zu bewältigen, müssen sie Transceiver mit höherer Geschwindigkeit einsetzen, die im Allgemeinen mehr Strom verbrauchen. Und in Anbetracht dessen, was wir über Pluggable Optical Transceiver wissen, bedeutet eine höhere Geschwindigkeit auch eine größere Wärmeabgabe und damit einen noch höheren Kühlungsbedarf.

Diese hohen Datenübertragungsraten mögen für einige noch in weiter Ferne liegen, aber angesichts des Klimawandels ist es für die Betreiber von Rechenzentren schon jetzt unverzichtbar, sich gegen steigende Temperaturen zu wappnen. Werfen wir einen Blick auf einige Möglichkeiten, wie dies erreicht werden kann.

Der richtige Standort

Die Wahl des richtigen Standortes kann von entscheidender Bedeutung sein, wenn ein neues Rechenzentrum geplant wird. Besonders wichtig ist es, Standorte zu vermeiden, an denen das Energienetz bereits jetzt mit Problemen zu kämpfen hat. Auch wenn die folgenden Orte nicht für jede Anlage in Frage kommen, ist es doch interessant, einige der extremeren Beispiele dafür zu sehen, wie die Umgebung für die natürliche Kühlung genutzt werden kann.

Vor einigen Jahren baute einer unserer Kunden, Green Mountain, ein Rechenzentrum im Inneren eines Berges auf einer Insel in einem abgelegenen norwegischen Fjord. Die 21.000 Quadratmeter große Anlage mit sechs Hallen und mehreren speziellen Kundenbereichen nutzt 100 Prozent erneuerbare Wasserkraft und die effiziente Kühlung des angrenzenden Fjords, um eine Stromverbrauchseffektivität (Power Usage Effectiveness, PUE) von weniger als 1,2 zu erreichen – weit unter dem damaligen Branchendurchschnitt.

Meta, ehemals Facebook, verfügt über ein Rechenzentrum in Luleå am Nordpol welches die Minusgrade in der Region nutzt und einen PUE-Wert von nur 1,07 aufweist. Am anderen Ende der Skala haben einige Betreiber Rechenzentren in Wüstenumgebungen gebaut, wie z. B. eBay in Phoenix. Clevere Kühlsysteme und die Vorteile der trockenen Wüstenluft machen diese Standorte überraschend effektiv und sicher vor möglichen Naturkatastrophen wie Überschwemmungen.

Höhere Dichte erreichen

Natürlich gibt es auch eine Reihe kleinerer, leichter umsetzbarer Maßnahmen, die Betreiber von Rechenzentren zur Optimierung der Kühlung ergreifen können. Dazu gehört die Auswahl der richtigen Produkte, um einen besseren Luftstrom zu ermöglichen und die Kühlung zu minimieren, sowie die Auswahl von Geräten mit höherer Anschlussdichte, um die Energieeffizienz von Netzwerk- und Serverschränken zu maximieren.

Eine höhere Dichte lässt sich zum Beispiel mit VSFF-Steckern (Very Small Form Factor) erreichen. MDC- und SN-Steckverbinder ermöglichen eine direkte Verbindung von einem Hochgeschwindigkeits-Transceiver zu einem anderen Transceiver. Das ermöglicht den Einsatz einzelner Steckverbinder in verschiedene Switches, die von 400G auf 4x100G ausbrechen. Darüber hinaus passen bis zu drei MDC- oder SN-Duplex-Steckverbinder in die Grundfläche eines LC-Duplex-Steckers, was einen enormen Dichtevorteil darstellt.

Für Betreiber, die mit Platzmangel in Serverschränken zu kämpfen haben, ist die Implementierung von LC-Duplex-Konnektivität mit Hilfe von LC-zu-MDC-Patchkabeln und kompatibler Hardware ein effektiver Ansatz. Und einer, der für weitere aktive Geräte oder zur Erweiterung der Kundenanschlüsse verwendet werden kann, um zusätzliche Einnahmequellen zu generieren. So kann nicht nur das LC-Duplex-Steckgesicht auf der Transceiver-Seite beibehalten werden, sondern auch die Port-Dichte mit MDC in Modulen oder Kassetten derselben Größe um bis zu dreimal erhöht werden – damit könnte man 432 statt 144 Fasern in einer Höheneinheit unterbringen.

Wenn es um die Verbesserung der Luftzirkulation geht, nehmen Sie zum Beispiel Altice Portugal. Das Telekommunikationsunternehmen hatte im Rahmen seines wachsenden Netzwerks mit einer erhöhten Kabeldichte zu kämpfen, die zu Hotspots in den Server-Schränken führte. Bezieht man den Klimawandel in die Überlegungen ein, könnten diese Bereiche noch heißer werden und verheerende Auswirkungen auf den Betrieb haben, wenn keine Lösung gefunden wird. Durch die Umstellung von Duplex-Verkabelung auf ein 12-Faser basiertes strukturiertes Verkabelungssystem, waren die Hotspot-Probleme kein Thema mehr. Das Rechenzentrum profitierte außerdem von einer verbesserten Effizienz und Flexibilität und war gleichzeitig für weitere Upgrades gerüstet.

Port-Breakout-Anwendungen

Neben der Optimierung der Verkabelungsinfrastruktur können Port-Breakout-Anwendungen den Stromverbrauch von Netzwerkkomponenten und Transceivern positiv beeinflussen. Die Leistungsaufnahme eines 100G-Duplex-Transceivers für einen QSFP-DD beträgt etwa 4,5 Watt, während ein 400G-Parallel-Transceiver, der im Breakout-Modus als vier Ports mit je 100G betrieben wird, nur drei Watt pro Port verbraucht. Das entspricht einer Einsparung von bis zu 30 Prozent, ungeachtet der zusätzlichen Einsparungen bei der Klimatisierung und dem Stromverbrauch des Switch-Chassis und deren Beitrag zur Platzeinsparung.

Mit Port-Breakout-Anwendungen können Betreiber von Rechenzentren außerdem die Port-Kapazität einer Switch-Karte verdreifachen, die in einem 10G- oder 25G-Netzwerk betrieben wird. Zudem sind keine Konvertierungsmodule oder Kabelaufteiler erforderlich. Somit werden keine zusätzlichen Steckerpaare benötigt, die die Einfügedämpfung beeinträchtigen können.

Vorsicht ist besser als Nachsicht

Natürlich gibt es viele Hilfsmittel und Lösungen für das Wärmemanagement in Rechenzentren, von der Anordnung der Warm- und Kaltgänge über den Einsatz von Kältemitteln und Flüssigkeitskühlung bis hin zu Edge- und Cloud-Technologien. Die Frage ist nur, ob sie weit genug gehen, um dem Klimawandel zu begegnen. Es gibt weitere Kühltechnologien am Horizont, die künstliche Intelligenz und Robotersensoren nutzen. Die Innovation in diesem Bereich geht also weiter.

Es ist jedoch keine Zeit zu verlieren, wenn es um die Herausforderungen des Klimawandels geht. Vor allem, in Kombination mit der steigenden Nachfrage nach höheren Bandbreiten. Rechenzentrumsbetreiber können es sich nicht leisten, auf einen hitzebedingten Ausfall zu warten, bevor sie Maßnahmen ergreifen. Wie das Sprichwort sagt: Vorsicht ist besser als Nachsicht. Glücklicherweise gibt es große und kleine Veränderungen, die sich heute schon vornehmen lassen, um einen Beitrag zu leisten.

Cindy Ryborz

Cindy Ryborz ist EMEA (Europa, Mittlerer Osten, Afrika) Marketing Manager für Rechenzentren. In dieser Funktion leitet sie die Online- und Offline-Marketingaktivitäten für die Segmente Enterprise, Colocation/Multitenant und Hyperscale Data Center in der gesamten Region.

Cindy verfügt über mehr als 14 Jahre Erfahrung in den Bereichen Kundenbetreuung und Marketing bei Corning. Im Juni 2012 trat sie dem Marketing-Team bei und war für die Umsetzung der Local Area Networks-Strategie von Corning in der gesamten EMEA-Region verantwortlich. Im Jahr 2016 übernahm sie die Rolle des Strategischen Marketing Managers für In-Building Networks, Local Area Networks, bevor sie 2018 in ihre aktuelle Rolle wechselte.

Cindy hat einen Master of Arts von der Humboldt-Universität zu Berlin, Deutschland.

Cindy Ryborz
Corning Optical Communications
Letzte Aktualisierung: Mai 2023