Artificial Intelligence and Machine Learning are at the Edge of What? | Corning

We use cookies to ensure the best experience on our website.
View Cookie Policy
_self
Accept Cookie Policy
Change My Settings
ESSENTIAL COOKIES
Required for the site to function.
PREFERENCE AND ANALYTICS COOKIES
Augment your site experience.
SOCIAL AND MARKETING COOKIES
Lets Corning work with partners to enable social features and marketing messages.
ALWAYS ON
ON
OFF

Künstliche Intelligenz und Machine Learning in Rechenzentren

Künstliche Intelligenz und Machine Learning in Rechenzentren

Einleitung

Künstliche Intelligenz und Machine Learning sind die wohl revolutionärsten Technologien seit der Einführung der Elektrizität. Diese Technologien sind mächtiger als das Internet und die Mobilitätsrevolution zusammen. Laut einer Studie von PwC wird die KI-Branche bis 2030 etwa 15 Billionen Dollar wert sein. Der Grund, warum diese Technologien so leistungsfähig sind, liegt darin, dass sie aus riesigen Datenmengen schnell und effizient neue Erkenntnisse gewinnen können. Wir leben in einer datengetriebenen Welt (Marktanalysten schätzen, dass über 80% der heute vorhandenen Daten erst in den letzten 2 Jahren erzeugt wurden), und ohne Werkzeuge, die diese riesigen Datenmengen auswerten können, würden wir in einem Datenmeer ertrinken.

Um ein kurzes Beispiel zu nennen: In diesem Jahr wird die Welt etwa 40 Zettabytes an Informationen generieren. Das sind 40 TRILLIONEN Gigabyte an Informationen. Es ist nicht möglich, dass wir Menschen all diese Informationen verarbeiten können – selbst wenn alle Menschen Tag und Nacht zusammenarbeiten würden, wäre es mathematisch unmöglich. Durch den Einsatz leistungsfähiger und gut trainierter KI-/ML-Modelle können wir diese riesigen Datenmengen präzise verarbeiten und die Daten identifizieren, auf die wir reagieren müssen.

Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen in jedem Sektor neue Möglichkeiten zur Optimierung ihrer Arbeitsabläufe. Praktisch jeder Teil einer Organisation kann davon profitieren, vom Kundenservice, Forschung und Entwicklung, Personalwesen und Finanzen bis hin zu Marketing, Vertrieb und Produktion. Viele Unternehmen in ganz Deutschland haben KI bereits erfolgreich in ihr Tagesgeschäft integriert.

Die Otto Group setzt KI im E-Commerce ein, um Produktrückgaben zu reduzieren. Das Unternehmen identifizierte Faktoren, die überhaupt erst zu Rücksendungen führen, wie z.B. eine Bestellung, die in mehreren Paketen zu unterschiedlichen Zeiten eintrifft, oder Lieferungen, die länger als zwei Tage dauerten. Otto verwendet ein Programm, das mithilfe dieser Informationen prognostiziert, was Kunden zukünftig kaufen werden. Diese Erkenntnisse nutzt das Versandunternehmen dann, um eben diese Produkte frühzeitig zu bestellen. KI analysiert über 3 Milliarden zurückliegende Transaktionen und über 200 Variablen wie Suchanfragen auf der Website des Unternehmens und Wetterinformationen, um vorherzusagen, was Kunden aller Voraussicht nach bestellen werden.

 

 
 
     

 

Die Ergebnisse sind exzellent. Das Programm kann zukünftige Käufe in den nächsten 30 Tagen mit 90-prozentiger Genauigkeit vorhersagen und die Produktrückgabe so um über zwei Millionen Artikel pro Jahr reduzieren.

Einige Banken verwenden KI für administrative Aufgaben. Die Commerzbank, die zweitgrößte Bank in Deutschland, verwendet KI für die Erstellung von Geschäftsberichten. Die Berichte basieren auf gängigen Berichtsstandards und -mustern und können daher über maschinelles Lernen leicht gelesen werden.

Im Energiesektor kann die KI auf andere Weise genutzt werden. Künstliche Intelligenz kann die Last in Stromnetzen verteilen, den Bedarf steuern und Aktionen koordinieren. Dafür analysiert KI unstrukturierte Daten, die in der Regel etwa 80 % der Daten in einem Unternehmen ausmachen und daher zu einer effizienteren und effektiveren Versorgung führen können.

Automobilunternehmen setzen ebenfalls KI-Applikationen in verschiedenen Bereichen ein. Bei BMW führt KI Qualitätskontrollen von Autoteilen während des Herstellungsprozesses durch. Eine Kamera nimmt in Echtzeit Bilder der Teile auf, die dann von der KI z.B. auf Mikrorisse geprüft werden, um eine hohe Produktqualität und Sicherheit zu gewährleisten.

Volkswagen hingegen nutzt KI zur Prognose von Fahrzeugverkäufen. Das Programm arbeitet mit 250 verschiedenen Fahrzeugmodellen in 120 Ländern und verwendet kontextbezogene Informationen wie länder- und branchenspezifische Auflagen, Wetterentwicklungen und Wachstumsprognosen. Volkswagen setzt KI auch in virtuellen Ausstellungsräumen ein, um Fahrzeugmodelle nach den Vorlieben und Wünschen der Kunden zu präsentieren.

Die Anforderungen erfüllen

Die Herausforderung an KI- und ML-Anbieter besteht darin, die höchste Servicequalität zu den niedrigsten Kosten zu liefern. Aber wie kann man die höchste Dienstleistungsqualität bieten? Die Reduzierung von Latenzzeiten und die Bereitstellung von Bandbreitenbedarf für zukünftige (KI-Anwendungen spielen dabei eine Schlüsselrolle.  Die Latenzzeit kann verbessert werden, indem die physische Distanz, die die Daten zwischen Gerät und Prozessor zurücklegen müssen, verringert wird. Insgesamt begünstigen diese Latenzanforderungen kleinere Rechenzentren näher an dem Ort, an dem Daten erstellt und verarbeitet werden. Dadurch werden Übertragungskosten und Servicequalität optimiert. Dann müssen Anbieter nach den niedrigsten Kosten für die Nutzung dieser Anwendungen suchen. In der Vergangenheit erhöhte die Netzwerk-Architektur die Kosten mit der Menge der bewegten Daten und der zurückgelegten Entfernung oder "Sprünge". KI und ML haben die Menge der zu übertragenden Daten und somit auch die Übertragungskosten drastisch erhöht. Wegen ihrer Nähe zum Entstehungsort der Daten sind Edge-Rechenzentren zunehmend die Lösung und Colocation Rechenzentren sind die Orte, an denen ein Großteil dieser Daten beherbergen. Sie sind vor allem für kleine und mittelständische Unternehmen eine Alternative zum Aufbau eines eigenen Rechenzentrums und stellen laut Corning die Investitionen mit dem geringsten Risiko dar, weil sie einen schnelleren Weg zu Umsätzen aufgrund der schnellen Bereitstellung durch Verfügbarkeit bieten.

Wie kann man KI und ML verkabeln und einsetzen?

Das ursprüngliche Problem der KI war der enorme Bedarf an Rechenleistung. Glücklicherweise schließen Unternehmen wie Nvidia, Intel, AMD und viele andere durch immer leistungsfähigere Prozessoren die Lücke in der Rechenleistung. Dies ermöglicht Unternehmen wie BMW, der Otto Group, Commerzbank und zahllosen anderen den Einsatz von KI-Applikationen im Bereich des Edge-Computing. Dazu gehört die Installation leistungsfähiger Hardware direkt vor Ort, die die vor Ort generierten Daten nach dem trainierten Modell verarbeitet. Dadurch werden die Latenzzeit und der Bedarf an Echtzeit-Bandbreite drastisch reduziert.

Das Problem besteht jedoch darin, dass ein "edge only" KI/ML-Ansatz in der Realität nicht machbar ist, denn die Hardware kann zwar die Datenverarbeitung von trainierten Modellen übernehmen, ist aber nicht leistungsfähig genug, um das vollständige Modell zu trainieren und zu verbessern - dafür wird eine viel leistungsfähigere Hardware benötigt.

 

 
 
     

 

Hier kommt ein hybrider Ansatz ins Spiel

In einem typischen hybriden Design verarbeitet der Edge-Server alle Vor-Ort-Daten unter Verwendung des bereits trainierten Modells. Die perfekte Kombination aus Edge-Server und Colocation Anbieter, ermöglicht ausreichend Flexibilität, wenn sich das Netzwerk und die Anwendungen weiterentwickeln.  Für die optische Infrastruktur setzen Colocation Rechenzentren in der Regel Singlemode-Fasern ein, um den Endnutzern eine Skalierung zu ermöglichen. Für diejenigen Unternehmen, die KI / ML einsetzen, ist es wichtig, sowohl den heutigen Bandbreitenbedarf als auch den zukünftigen in der Netzwerkplanung zu berücksichtigen. Eine Faustregel besagt, dass man die durchschnittlich erwartete Bandbreite mit 4 multipliziert. So viel Bandbreite sollte ein Unternehmen in seinem System berücksichtigen, da. Bandbreite das erste ist, was in KI-/ML-Implementierungen von den rasch wachsenden Anforderungen aufgefressen wird.

Dieser Anstieg der Bandbreite unterstreicht auch den Bedarf an Lösungen mit hoher Dichte sowohl für Colocatoren als auch für Endnutzer. Colocation Rechenzentren maximieren ihre Einnahmen durch die Generierung von Whitespace, während Endnutzer den Whitespace, in den sie investiert haben, effizient nutzen können. Ort und Infrastruktur können viele Formen und Größen haben, aber insgesamt ist es wichtig, einen Anbieter mit einer Produktbreite zu suchen, der alles unterstützt, was Sie tun möchten (Single- oder Multimode, LC oder MTP). Für den Endnutzer besteht eine Möglichkeit, die Gesamtbetriebskosten zu senken, darin, die Verbindungsdichte zu erhöhen und den Stromverbrauch zu reduzieren. Dies kann durch eine parallel-optische Übertragung der Daten und Port Breakout-Anwendungen ermöglicht werden.  Diese Anwendung ermöglicht den Einsatz von Hochgeschwindigkeits-Transceivern, z.B. vier individuelle 10G-Transceiver, die eine hohe Schaltdichte bei gleichzeitig reduziertem Stromverbrauch zu betreiben. Um die Vorteile von KI und ML wirklich nutzen zu können, muss es ein Netzwerk von miteinander verbundenen Rechenzentren geben, die die Datenverarbeitung näher am Entstehungsort der Daten durchführen. Daraus ergibt sich die Notwendigkeit einer globalen Skalierung mit einem konsistenten und modularen Produktportfolio, das eine vollständige Lösung von der Peripherie bis zu den zentralen Rechenzentren bietet.

Colocation Rechenzentren bieten hier Investitionen mit geringem Risiko und einen schnelleren Weg zu Umsätzen aufgrund der schnellen Bereitstellungs- und Verfügbarkeitszeiten. Zum Trainieren und Aktualisieren des Modells werden alle Daten an die Trainingsserver gesendet, die sich in einem privaten Rechenzentrum, primär in einem Colocation-Rechenzentrum oder in der Cloud befinden. Diese Trainingsserver nutzen die neuen Daten, um automatisch zu lernen und die Genauigkeit des verwendeten Modells weiter zu verbessern.

Durch eine Entfernung von weniger als 10 km für die Übertragung der Daten können Anbieter die Latenzzeit oft um 45% reduzieren. Was bedeutet das? Ein zentrales Rechenzentrum bleibt weiterhin erforderlich, aber es wird auch ein Trend zu kleineren und regionalen Rechenzentren geben, die näher am Ort der Datenerzeugung liegen. Colocation Rechenzentren sind dabei das Hauptvehikel für diese kleineren und regionalen Datenzentren. Edge-Rechenzentren sind eine Erweiterung dieser Colos mit hoher Verbindungsdichte oder werden dort gehostet, wobei beide Dienste voneinander abhängen, um einen vollständigen Service für den Kunden und das Netzwerk zu bieten. Colocations mit den am stärksten vernetzten Einrichtungen und einem vielfältigen Kundenmix im Ökosystem profitieren von den anfänglichen Vorteilen des Edge-Rechenzentrums.

Zentralen der Telekommunikationsanbieter sind eine Form eines Edge Data Centers, sogenannte CORD (Central Office Redesigned as a Data Center). Der Trend geht dahin, traditionelle Vermittlungsstellen in eine Art Edge-Rechenzentrum umzuwandeln, die in der Regel sehr nahe beim Kunden angesiedelt sind.

Was erwartet uns in Zukunft?

KI und ML sind Anwendungen, die auf Dauer bleiben werden. Es gibt einen klaren geschäftlichen und menschlichen Nutzen für den enormen Zuwachs an Umsatz und Produktivität, die diese Anwendungen den Endnutzern bieten werden. Die Verlagerung zu mehr verfügbarer Bandbreite auf regionaler Ebene ist mit der aktuellen Architektur nicht ausreichend abgebildet (unter Beibehaltung der niedrigsten Kosten und der höchsten Servicequalität). Wir werden sehen, dass diese KI- und ML-Anwendungen vorwiegend an den äußeren Rändern der Netzwerke laufen, für die meisten Unternehmen also in den Colocation Rechenzentren liegen. Colos bieten das geringste Risiko und die schnellste Möglichkeit für das Unternehmen Umsätze zu generieren. Dies führt dazu, dass zunehmend mehr miteinander vernetzte Einrichtungen mit hochdichten Lösungen an mehr Standorten gefordert werden, anstatt wie bisher in größeren zentralen Knotenpunkten.