Die Wirtschaftlichkeit von Port-Breakouts | Corning

Die Wirtschaftlichkeit von Port-Breakouts

Die Wirtschaftlichkeit von Port-Breakouts

Von David Bjerke und Nilson Gabela
Erschienen im Data Center Journal | Sommer 2018

Port-Breakout-Implementierungen sind zu einem beliebten Netzwerk-Tool geworden und treiben die große Nachfrage der Industrie nach parallel-optischen Transceivern voran. Heutzutage wird ein Port-Breakout üblicherweise verwendet, um parallel-optische Transceiver mit 40/100Gbps (40/100G) als vier diskrete Links mit jeweils 10/25Gbps (10/25G) zu betreiben. Ein Breakout paralleler Ports ist vorteilhaft für mehrere Anwendungen, wie z. B. den Aufbau groß angelegter Leaf-Spine-Netzwerke und die Realisierung der heutigen 10/25G-Netzwerke mit hoher Dichte. Letztere Aufgabe steht im Fokus dieses Artikels.

Der Cisco Visual Networking Index sagt voraus, dass der IP-Verkehr von 2015 bis 2020 mit einer durchschnittlichen jährlichen Wachstumsrate von 22 Prozent zunehmen wird, angetrieben durch das rasante Wachstum bei kabellosen und mobilen Geräten. All diese Daten führen zu Wachstum sowohl in Unternehmens- als auch in Cloud-Rechenzentren. Dieses Wachstum erklärt, warum Rechenzentren oft die ersten Anwender der schnellsten Netzwerkgeschwindigkeiten sind und konsequent nach Lösungen suchen, mit denen Schrank- und Stellflächen eingespart werden können. Vor nur wenigen Jahren fand in der Welt der strukturierten Verkabelung eine Dichte-Revolution statt, bei der die Dichte der passiven optischen Rechenzentrums-Hardware auf 288 Glasfaser-Ports mit LC- oder MTP-Anschlüssen in einem 4HE-Gehäuse verdoppelt wurde. Dieser Anstieg hat sich nun auf die Switching-Seite übertragen, wo der Einsatz einer Port-Breakout-Konfiguration die Port-Kapazität einer Switch-Line-Card, die in einem 10G- oder 25G-Netz arbeitet, bis zu verdreifachen kann.

Um zu verstehen, wie Port Breakout-Implementierungen funktionieren, müssen wir zunächst die Transceiver verstehen, die das Netzwerk verwendet. Der vorherrschende hochdichte Transceiver mit 1 Gbps (1G) und 10G ist der verbesserte Small Form-Factor Pluggable (SFP+). Da die Geschwindigkeiten auf 40G gestiegen sind, hat sich der Quad Small Form-Factor Pluggable (QSFP) zum bevorzugten hochdichten Transceiver entwickelt. Bei parallelen 40G-Anwendungen laufen vier 10G-Kupferleiterbahnen in die Rückseite des QSFP-Transceivers, und vier diskrete 10G-Optiken senden Licht über acht Fasern aus der Vorderseite des Transceivers. Diese Gestaltung ermöglicht es einem 40G-Transceiver, entweder als vier diskrete 10G-Links oder als ein 40G-Link zu arbeiten.

Der erste und offensichtlichste Vorteil des Betriebs eines 10G-Netzes über parallele Ports ist die Dichte, die mit einer einzigen Switch-Line-Card erreicht werden kann. Hochdichte SFP+-Switch-Line-Cards verfügen in der Regel über maximal 48 Ports. Heute sind jedoch hochdichte QSFP-Line-Cards mit 36 Ports erhältlich. Wenn eine Line-Card im Breakout-Modus arbeitet, kann jeder der 40G-Ports aufgeteilt als vier diskrete 10G-Ports dienen, wodurch sich die Kapazität der Line-Card auf 144x10G-Ports auf einer einzigen Line-Card verdreifacht. Die Abbildungen 3 und 4 zeigen diese Konfiguration.

Wie bereits erwähnt, unterstützt eine 40G-QSFP-Line-Card mit 36 Ports im Port-Breakout-Modus insgesamt 144x10G-Links, da jeder 40G-Port als 4x10G-Link fungiert. Um die gleiche Anzahl von 10G-Links mit herkömmlichen SFP+-Transceivern zu unterstützen, wären, wie in Abbildung 5 dargestellt, SFP+-Line-Cards mit 3x48 Ports erforderlich. Da die Menge der Anforderungen an die 10G-Port-Kapazität steigt, nimmt dieser Effekt weiter zu. Für jedes Gehäuse, das vollständig mit 40G-Line-Cards bestückt ist, die im 10G-Port Breakout-Modus betrieben werden, wären drei Gehäuse erforderlich, wenn das Netzwerk mit herkömmlichen 10G SFP+-Line-Cards mit 48 Ports ausgestattet wäre. Durch den Einsatz von 40G-Line-Cards sinkt der Platzbedarf im Rechenzentrum erheblich.

Zusätzlich zu den Platzeinsparungen, die im Rechenzentrum von entscheidender Bedeutung sind, werden wirtschaftliche Einsparungen sowohl bei den Investitionen (CapEx) als auch bei den laufenden Betriebskosten (OpEx) möglich. Konzentrieren wir uns zunächst auf die Investitionseinsparungen, indem wir die Kosten für den Aufbau eines 10G-Netzes mit standardmäßigen hochdichten SFP+-Line-Cards und die Kosten für den Aufbau eines 10G-Netzes mit hochdichten QSFP-Line-Cards betrachten.

Wir untersuchten ein Szenario mit einem Gehäuse für acht Switch-Line-Cards, das vollständig mit QSFP-Line-Cards mit 36 Anschlüssen bestückt war. Die Line-Cards wurden mit parallel-optischen 40G-Transceivern bestückt, die im Breakout-Modus arbeiteten, so dass die Gesamtanzahl der Gehäuseports 1.152x10G betrug. Um die vergleichbare 10G-Port-Kapazität unter Verwendung von 10G-SFP+-Line-Cards zu erreichen, sind insgesamt drei Gehäuse mit acht 48-Port-Line-Cards erforderlich. Der Kostenvergleich umfasst die Kosten für das Switch-Gehäuse, die Line-Cards und die zugehörigen Transceiver, wobei für alle Komponenten die Standardlistenpreise zugrunde gelegt wurden. Die in Abbildung 6 aufgeführten Gehäusekosten umfassen die erforderlichen Netzteile, Lüftereinschübe, Supervisor-, Systemcontroller- und Fabric-Module. Da die Anzahl der zur Unterstützung der 10G-Portdichte erforderlichen Gehäuse bei der Verwendung von SFP+-Transceivern steigt, nimmt auch die Anzahl dieser zusätzlich erforderlichen Komponenten zu. Als Ergebnis ergibt die Studie, dass auf einer Pro-Port-Basis die Bereitstellung diskreter 10G-Ports im Vergleich zur Bereitstellung von 40G-Ports im Breakout-Modus für Multimode-Anwendungen fast 85 Prozent mehr kostet. In den Abbildungen 6 und 7 sind die Ergebnisse in grafischer bzw. tabellarischer Form dargestellt.

Betrachten wir nun die Vorteile bei den Betriebskosten. Zunächst einmal haben die 40G- und 10G-Switch-Gehäuse und Line-Cards der meisten Hersteller ähnliche Leistungsanforderungen. Eine ca. 67-prozentige Reduzierung des Strom- und Kühlungsbedarfs ergibt sich aus der Reduzierung der Anzahl der Gehäuse und Line-Cards um zwei Drittel, zusätzlich zu den zuvor erwähnten Platzeinsparungen. Als weiteren Vorteil können wir die für den Betrieb der Transceiver zusätzlich benötigte Energie einsparen. Die Daten in Abbildung 8 zeigen eine mehr als 60-prozentige Stromeinsparung für die Transceiver bei Verwendung von Multimode-Breakout-Konfigurationen.

Neben den Vorteilen in Bezug auf Platzeinsparungen und Kosten können Sie bereits an Tag zwei einen weiteren Zusatznutzen erzielen, wenn Sie Ihre Netzwerkgeschwindigkeit von einer 10G- (oder 25G-) Architektur mit hoher Dichte auf ein natives 40G- (oder 100G-) Netzwerk erhöhen. Während das Netzwerk von 10G (oder 25G) im Breakout-Modus auf native 40G (oder 100G) umgestellt wird, können die bestehenden 40/100G-Optiken und Line-Karten, die im Breakout-Modus arbeiten, weiterhin die 40/100G-Links verarbeiten. Dieser Ansatz ermöglicht zwei Geschwindigkeitsgenerationen aus Switches, Line-Cards und zugehörigen parallel- optischen Transceivern.

Da parallel-optische Transceiver mit acht Fasern arbeiten, ist zu überlegen, wie die strukturierte Verkabelung des Rechenzentrums so gestaltet werden kann, dass sie den Breakout-Modus unterstützt. Zu den empfohlenen Designs gehören Lösungen, die die Base-8-MTP-Verbindungstechnik für die optische Infrastruktur nutzen, um die Faserausnutzung und das Port Mapping zu optimieren. Wie die Abbildungen 9a, 9b und 9c zeigen, ermöglicht die Bereitstellung von Verbindungen mit einem 8-Faser-MTP-Steckgesicht  eine einfache und optimierte Lösung für den Breakout auf vier LC-Duplex-Ports zum Patching auf 10G-Geräteanschlüsse.

Figure 9a. Port breakout using an eight-fiber harness.
Figure 9b. Port breakout using an eight-fiber module.
Figure 9c. Port breakout with a cross-connect, using an eight-fiber port-breakout module.

In den Abbildungen 9a und 9b sind Designs mit strukturierter Verkabelung dargestellt, bei denen ein dedizierter Verkabelungs-Backbone zwischen den Geräten mit 40/100G- und 10/25G-Ports installiert ist. Abbildung 9a ist nützlich, wenn alle vier der 10/25G-Ports in einer einzigen Geräteeinheit untergebracht sind. Die Anordnung in Abbildung 9b hingegen ist hilfreich, wenn die Patchkabel der strukturierten Verkabelung verschiedene Geräteanschlüsse in einem Schrank erreichen müssen. Abbildung 9c bietet jedoch die größte Flexibilität für die strukturierte Verkabelung des Rechenzentrums, indem die 40G (MTP)-Ports an einem Cross-Connect-Standort in LC-Duplex-Ports unterteilt werden. Mit einer Cross-Connect-Implementierung in einem zentralen Patching-Bereich kann jeder 10/25G-Breakout-Port vom 40/100G-Switch an jedes Gerät gepatcht werden, das eine 10/25G-Verbindung benötigt.

Alle Werte in diesem Artikel sowie zusätzliche, nicht im Detail behandelte Vorteile von Netzwerken in Leaf-Spine-Architekturen verdeutlichen, warum parallel-optische Transceiver für hochdichte 10G- und 25G-Netzwerke so beliebt sind. Obwohl unser Fokus bisher auf Ethernet-Netzwerken im Rechenzentrum lag, funktioniert der gleiche Ansatz auch in Storage Area Networks (SAN) über Fibre Channel. SAN-Director-Line-Cards sind mit parallel-optischen QSFP-Transceivern erhältlich, die in 4x16GFC arbeiten und hochdichte 16GFC-SAN-Fabrics ermöglichen. Die Vorteile erklären, warum sowohl Ethernet als auch Fibre Channel Parallel-Optik mit acht Fasern für alle vorhandenen Geschwindigkeiten auf ihren Roadmaps haben, einschließlich 400G und darüber hinaus. Bei der Bewertung von Optionen für den Einsatz von 10G oder 25G sollten Sie einen Breakout von parallelen Ports aufgrund der Vernetzung und der wirtschaftlichen Vorteile in Betracht ziehen.

Über die Autoren:

Jennifer Cline ist Plug & Play Systems Product-Line Manager bei Corning, wo sie für die Verwaltung der MTP-Rechenzentrumslösungen des Unternehmens verantwortlich ist. Zuvor hatte sie Positionen in den Bereichen Engineering Services, Marketing, Field Sales und Market Development inne. Jennifer ist BICSI-Mitglied und besitzt sowohl CDD- als auch CDCDP-Zertifizierungen. Sie erhielt den Abschluss Bachelor of Science in Mechanical Engineering von der North Carolina State University.

David Hessong ist derzeit bei Corning als Manager für die globale Marktentwicklung von Rechenzentren tätig. Während seiner Karriere in dem Unternehmen hatte er Positionen in den Bereichen Engineering Services, Product Line Management und Market Development inne. David hat zahlreiche Fachartikel veröffentlicht und zu mehreren technischen Konferenzveranstaltungen beigetragen. Er hat in den Vereinigten Staaten und Kanada Kurse und Seminare über Rechenzentren und Systemgestaltung gehalten. David erhielt den Abschluss Bachelor of Science in Chemical Engineering von der North Carolina State University und einen Master-Abschluss in Business Administration von der Kelly School of Business der Indiana University.

Artikel herunterladen

Wenn Sie diesen Artikel zum späteren Lesen oder als Referenz speichern möchten, laden Sie den Artikel bitte herunter.

Herunterladen