Blockchain et le cloud, comment ils transforment l'architecture du Data Center | Corning

Blockchain et le cloud, comment ils transforment l'architecture du Data Center

Blockchain et le cloud, comment ils transforment l'architecture du Data Center

par Anthony Robinson, RCDD CDCDP ™ CNIDP® Corning Incorporated.
Publié dans " ICT Today " , mai-juin 2019.

Tendances autour des Data Center

La gestion des Data Centers a traditionnellement focalisé sur le stockage des données et la préparation de la reprise après sinistre, mais elle ne répond pas toujours aux demandes de récupération de données multi-utilisateurs en temps réel. Le marché digital actuel concerne de plus en plus d'utilisateurs et de données. Cette croissance exerce une pression pour faciliter des transmissions plus rapides pour un nombre croissant d'utilisateurs dans le monde. Face aux mégadonnées, les opérations du Data Center passent du stockage à l'analyse et au traitement des données en temps réel.

Aujourd'hui, les organisations se tournent vers la Blockchain, technologie qui agit comme un enregistreur, utilisant plusieurs Data Centers à travers le monde pour vérifier les modifications aux ensembles de données. La blockchain renforce le besoin d'infrastructures sécurisées pour les réseaux de Data Center. Selon le cabinet d'études Research & Markets, le marché de la blockchain devrait passer de 1,2 milliard de dollars en 2018 à 23 milliards de dollars en 2023, en partie en raison du développement d'applications et de services destinés aux entreprises en dehors des fonctions traditionnelles de finance et de transaction. Les Data Centers doivent s'adapter aux nouvelles stratégies commerciales.

Afin d'ouvrir la voie à de telles technologies, les grands Data Centers font évoluer leurs infrastructures sous l'impulsion de la croissance rapide du cloud computing. De nombreuses entreprises, y compris des géants de l'Internet, augmentent leurs investissements dans les Data Centers au pays et à l'étranger, pour s'assurer qu'ils sont prêts pour la prochaine génération de services cloud. Mais ils ont besoin de la bonne infrastructure en place pour assurer la transmission rapide et transparente des données, de la voix et de la vidéo à un nombre croissant d'utilisateurs. De plus, ils ont besoin d'un moyen sûr de garder une trace des données sensibles. Pour ces raisons, de nombreux Data Centers passent des architectures de réseau arborescentes à 3 niveaux à une architecture Spine-Leaf qui peut s'adapter à la blockain et aux demandes croissantes de traitement des données. Qu'implique ce changement?

Structure de réseau à 3 niveaux vs Structure de réseau Spine-Leaf à 2 niveaux

Contrairement à l'entreprise traditionnelle, où le trafic du Data Center est dominé par les interactions locales client-serveur (du nord au sud), le trafic du grand Data Center Internet est dominé par le trafic de serveur à serveur (d'est en ouest) requis pour les applications de cloud computing. Le nombre d'utilisateurs accédant aux données via des applications n'est pas seulement énorme, ils ont également des demandes diversifiées et fragmentées et nécessitent une expérience utilisateur ininterrompue. Les Data Centers Internet nécessitent une bande passante plus élevée et une architecture de réseau beaucoup plus efficace pour prendre en charge les pics de trafic intense de leur grand nombre d'utilisateurs. Ces pics de trafic de données pourraient être provoqués par tout : appels vidéo, demande de musique et de vidéos en ligne, jeux, achats, événements d'actualité, etc.

L'architecture actuelle du réseau arborescent à trois niveaux est basée sur le modèle de transmission traditionnel du nord au sud. Lorsqu'un serveur doit communiquer avec un autre serveur à partir d'un segment de réseau différent, son serveur doit passer par le chemin de : la couche d'accès -> couche d'agrégation -> couche principale <- couche d'agrégation <- couche d'accès. Dans un service Big Data avec des milliers de serveurs communiquant dans un environnement de cloud computing, ce modèle n'est pas efficace car il consomme une grande quantité de bande passante système et crée des problèmes de latence.

Pour relever ces défis, les grands Data Centers Internet du monde adoptent de plus en plus une architecture de réseau Spine-Leaf, plus efficace pour transférer des données entre les serveurs (d'est en ouest). Voir figure 1.

 

   
 

Figure 1: Architecture de réseau traditionnelle à 3 niveaux par rapport Spine-Leaf 2 niveaux
 

Cette architecture de réseau se compose principalement de deux parties - une couche de switch Spine et une couche Leaf. Sa caractéristique la plus avantageuse est que chaque switch Leaf est connecté à chaque switch Spine dans un pod, ce qui améliore considérablement l'efficacité de la communication et réduit le délai entre les serveurs. De plus, une architecture de réseau à 2 niveaux Spine évite d'avoir besoin de dispositifs de switch de couche centrale coûteux et facilite l'ajout progressif de switchs et périphériques réseau pour une expansion en fonction des besoins de l'entreprise, économisant ainsi sur les coûts d'investissement initiaux.

Relever les défis de câblage d'une architecture à deux niveaux Spine-Leaf

Les gestionnaires de Data Center rencontrent de nouveaux problèmes lors du déploiement d'un Data Center avec une architecture à deux niveaux. Étant donné qu'un switch est nécessaire pour connecter chaque switch Spine, la gestion d'une quantité massive de câblage devient un défi majeur. Le module d'interconnexion Mesh Corning (tableau 1) résout ce problème difficile.

Tableau 1: Module Mesh

Module Mesh 4x4 Description

Port d'entrée MTP® 4 x 8 fibres , Port de sortie MTP 4 x 8 fibres Type de fibre:

l'interconnexion maillée OS2 et OM4 SR4 vs PSM4 ne nécessite pas de conversion de port LC.

De nombreux utilisateurs ont commencé à utiliser des cartes 40G haute densité pour des applications 10G. En fait, selon les fournisseurs de transceivers, plus de 50% des déploiements multimodes 40G profitent de cette capacité. Par exemple, une carte 10G SFP + haute densité a 48 ports 10G, tandis qu'une carte QSFP + 40G haute densité peut avoir 36 ports 40G. En tant que tel, une carte 40G peut être utilisée pour obtenir  4x36 ports = 144 x 10G dans le même espace de câblage et la même consommation d'énergie, réduisant ainsi le coût et la consommation d'énergie du 10G à port unique. Ces économies de coûts peuvent également être appréciées à mesure que les vitesses augmentent jusqu'à 100G. Nous avons vu fin 2018 que le 400G commencerait à être expédié cette année-là, avec la possibilité de pénétrer dans des connexions de serveur à plus faible vitesse.

Par simplicité nous resterons avec l'exemple du breakout 40G. La figure 2 montre trois applications typiques des modules Mesh dans le système de câblage. Quatre canaux QSFP 40G (A, B, C, D) sont répartis en canaux 4x4 10G à l'entrée MTP du module Mesh. Les canaux 10G sont ensuite mélangés à l'intérieur du module maillé afin que les quatre canaux 10G associés au transceiver QSFP A soient répartis sur les quatre sorties MTP. Le résultat est que les quatre transceivers SFP connectés à la seule sortie MTP reçoivent un canal 10G de chacun des transceivers QSFP A, B, C et D. Ainsi, nous obtenons une connexion de structure 10G entièrement maillée entre les ports de switch Spine QSFP et les ports de switch Leaf sans jamais rompre les connexions LC vers la zone de distribution principale (MDA).

 

   
  Figure 2: Trois applications typiques des modules Mesh dans le système de câblage  

 

L'exemple ci-dessous montre comment optimiser la structure de câblage d'un Spine-Leaf à la MDA. Par exemple, nous utilisons un switch Leaf avec une carte de 48 x 10G SFP + ports et un switch Spine avec des cartes 4x36 40G QSFP + ports. Si un switch Leaf a un taux de sursouscription de 3: 1, les ports de liaison montante 16 x 10G de chaque switch Leaf doivent se connecter à 16 switch Spine. Étant donné que le port 40G du switch Spine est utilisé comme quatre ports 10G, chaque switch Spine doit connecter 4x36x4 = 576 switchs Leaf, comme illustré à la figure 3.

 

   
  Figure 3: Topologie de réseau à 2 niveaux Spine-Leaf dans une application 10G  

 

 

   
  Figure 4: Comparaison entre structures de câblage traditionnelle & Spine-Leaf   

 

Si le câblage traditionnel est utilisé pour obtenir un maillage complet des switchs Spine-Leaf, un port 40G QSFP + de chaque switch Spine est divisé en 4 x 10G canaux via un module MTP-LC dans le MDA, puis interconnecté via un câble de raccordement avec le nombre correspondant de modules MTP-LC aux canaux 10G du switch Leaf (voir partie gauche de la figure 4). La méthode traditionnelle n'a pas été largement utilisée car le système de câblage est très complexe, le coût relativement élevé et il nécessite beaucoup d'espace de rack au MDA. Dans ce scénario, l'utilisation d'un module Mesh peut être une bonne solution pour résoudre ces difficultés. Comme le montre le graphique à droite de la figure 4, dans le cas d'un module utilisé dans MDA, le maillage complet des switchs Leaf est obtenu sans rupture de port 40G du switch Spine en canaux 10G via un Module MTP-LC. Cela améliore considérablement la structure de câblage MDA en éliminant les corrections massives LC-LC et peut être d'une grande valeur pour l'utilisateur, comme le montre le tableau 2.

Tableau 2: Avantages d'un module Mesh dans le MDA

Les avantages Valeur
Densité Économisez 75% d'espace de distribution MDA
Connexions MTP Réduisez de 75% le nombre de jarretières MDA
Perte de liaison Diminuez la perte de liaison de 10%
Coût Réduisez les coûts d'installation de 45%

Blockchain

Lorsque l'infrastructure appropriée pour la quantité croissante de trafic de données est en place, les Data Centers peuvent mieux sécuriser ces données. Les blockchains ont gagné en popularité grâce aux exemples récents de Bitcoin et Ethereum, mais elles ne se limitent pas au secteur financier. La technologie est une sorte de registre externe. Sa méthode cryptographique peut distribuer des données sur plusieurs ordinateurs, ce qui rend le piratage plus difficile.

Une caractéristique majeure de la Blockchain est sa tendance vers une «communauté partagée», où les utilisateurs privés peuvent louer de l'espace supplémentaire sur leurs disques durs pour que d'autres utilisateurs puissent stocker des données. Cependant, cela n'élimine pas le potentiel d'intérêt commercial. Les Data Centers qui mettent en œuvre la technologie peuvent fournir aux clients une méthode de stockage encore plus sécurisée pour les informations sensibles.

Conclusion

Les infrastructures de réseau des Data Centers passent par des transformations majeures pour répondre à la demande de trafic en constante augmentation et à la nécessité de stocker en toute sécurité des informations sensibles. De plus, ils doivent prendre en charge l'Internet des objets, les réseaux 5G et des milliards de nouveaux équipements tout en continuant à fournir la vitesse et l'échelle croissantes requises pour les interconnexions.

Les Data Centers évoluent, non seulement au niveau architectural, mais aussi physique. Il existe de plus en plus de connexions multifibres offrant des connexions haute densité. L'interface 10G n'est plus suffisante pour satisfaire les demandes.

En plus de l'augmentation des besoins en bande passante, la partie Spine du réseau Data Center a été progressivement mise à niveau de 10G à 40G, avec des installations 100G devenant la norme. En utilisant 40G décomposé en 4 x 10G maintenant, ou 100G en 4 x 25G, l'architecture Spine-Leaf fournit une structure économique et efficace pour la gestion d'une grande distribution de données. L'utilisation du module Mesh pour obtenir un maillage complet de la partie Spine prend en charge le réseau 40G ou 100G actuel tout en assurant la transition vers les futures capacités du réseau 400G.

Non seulement les Data Centers doivent évoluer pour répondre à la demande d'un trafic plus élevé et d'un plus grand nombre d'équipements, mais ils doivent également prioriser le stockage sécurisé des données sensibles des utilisateurs. En transformant leur architecture et en adoptant une stratégie de Blockchain, ils peuvent franchir la prochaine étape vers une société complètement connectée.

Partager