Apprentissage automatique dans les architectures de centres de données

Tendance

La nouvelle génération d’applications de données

Lors du développement de l’apprentissage automatique pour un centre de données, tous les facteurs affectant les performances, l’évolutivité et la résilience doivent être pris en compte dès le début.

Il peut être essentiel de disposer de la bonne architecture pour correctement ajouter l’apprentissage automatique aux centres de données. L’infrastructure du centre de données peut être essentielle pour activer les fonctionnalités de l’architecture informatique, étant donné que la plupart de son contenu est transmis ou approvisionné par l’architecture informatique.

 

Lors du développement de l’apprentissage automatique pour le centre de données, tous les facteurs affectant les performances, l’évolutivité et la résilience de l’installation doivent être pris en compte dès le début, pendant la période de planification. Pour ce faire, les concepteurs de système se concentrent généralement sur le développement d’une architecture flexible capable de prendre rapidement en charge de nouvelles applications.

 

Ne pas réussir à traiter ces aspects lors de la planification peut conduire à des architectures de données inefficaces ou inexactes, qui peuvent au final entraîner une panne totale du système et de l’alimentation. Les opérateurs de centres de données perdent alors des volumes considérables de données critiques.

 

Plusieurs facteurs peuvent provoquer ce type de défaillance, notamment un calcul incorrect des besoins en énergie, un choix incorrect de l’équipement d’alimentation et une conception incorrecte du mécanisme de transfert automatique. Pour aider à optimiser les capacités de l’apprentissage automatique dans l’architecture de centre de données d’aujourd’hui, les concepteurs de système doivent prendre en compte les problèmes courants à l’origine de la défaillance du système et les composants qui peuvent résoudre les causes de ces problèmes.

Perspectives de la directrice technique sur le Cloud Computing

Vidéo en anglais

Erin Byrne, directrice technique et vice-présidente de TE, discute de ses points de vue sur le Cloud Computing et les mégatendances influençant l’architecture de conception.

Perspectives de la directrice technique sur le Cloud Computing

Vidéo en anglais

Erin Byrne, directrice technique et vice-présidente de TE, discute de ses points de vue sur le Cloud Computing et les mégatendances influençant l’architecture de conception.

L’un des problèmes de l’industrie des centres de données d’aujourd’hui est que les termes intelligence artificielle (IA) et apprentissage automatique sont couramment utilisés de manière interchangeable, ce qui peut être à la source de confusions et d’inexactitudes. Il est essentiel de retenir que l’apprentissage automatique est habituellement un sous-ensemble de l’IA. Avec l’IA, l’accent est mis sur le développement de machines capables de « penser », tandis que l’apprentissage automatique consiste généralement à définir des algorithmes pour permettre aux machines d’« apprendre » grâce à des fonctions répétitives. Bien que l’apprentissage automatique ne soit pas un concept nouveau, l’augmentation de la puissance de traitement informatique et la diminution du coût par bit représentent l’un des changements au cours des dernières années. Cela peut permettre aux concepteurs de faire en sorte que l’apprentissage automatique prenne une plus grande place dans notre vie quotidienne, des moteurs de recommandation tels que Google et Netflix aux applications de médias sociaux intégrées, en passant par la reconnaissance des empreintes digitales et faciales sur les smartphones.

 

Depuis l’émergence des premières applications d’apprentissage automatique dans les industries aérospatiale et aérienne, qui ont permis d’innover dans la conception d’ailes, de nombreux concepteurs ont fait évoluer leur réflexion sur les utilisations de l’apprentissage automatique et comprennent maintenant qu’il est nécessaire d’aligner les possibilités et les compromis lorsqu’ils cherchent à optimiser la conception.

 

Ce changement a un impact dans le centre de données, où nous voyons maintenant souvent l’utilisation de l’IA et de l’apprentissage automatique passer d’applications limitées dans des ordinateurs standard et des boîtiers autonomes à une gamme d’applications spécifiques au silicium. Cela peut aider l’industrie à se concentrer sur l’optimisation du réseau du centre de données, en utilisant l’IA et l’apprentissage automatique dans chaque partie de ces réseaux pour étendre les fonctionnalités au fil du temps.

Au cours des cinq prochaines années, l’utilisation de l’apprentissage automatique devrait passer d’infrastructures dédiées à des infrastructures plus flexibles capables de fournir la capacité d’évoluer, de changer et de se diversifier instantanément. Alors que l’une des principales fonctions de la collecte de données d’apprentissage automatique est centrée sur les interactions homme-machine, des interactions machine à machine commencent à se dessiner, et peuvent ne pas nécessiter de données ou d’entrées humaines. Lorsque les machines commencent à créer des voies de communication, les systèmes pourraient aider à traiter et à transmettre des données de façon à nous donner de nouvelles informations sur de plus grands volumes de données.  

 

Le processus d’ajout de l’apprentissage automatique dans les systèmes de données tels que les serveurs et les racks de données peut souvent varier, en fonction de ce que le concepteur du système tente de réaliser, ainsi que de la charge de travail de l’opérateur du centre de données pour ajouter l’apprentissage automatique au noyau. 

 

L’ajout de l’apprentissage automatique dans des centres de données nouveaux ou existants survient généralement pour résoudre un problème connu existant, comme des problèmes dans de grands modules d’apprentissage ou des problèmes de réseau en raison d’algorithmes développés à partir de données reçues. La plupart des solutions d’aujourd’hui ont tendance à être personnalisées pour s’adapter à l’ampleur du problème.

 

Parmi les défis liés à la conception de solutions client, citons l’optimisation de la distribution de puissance, la réduction des niveaux thermiques et l’amélioration des performances à haut débit/faible latence dans les interconnexions. Étant donné que tout doit normalement être interconnecté dans le centre de données, les composants du système doivent offrir la flexibilité nécessaire pour être installés et fonctionner dans de petits espaces, et répondre aux exigences de vitesse attendues sans augmenter la puissance thermique.

 

Souvent, les concepteurs doivent tenir compte de la proximité du matériel lors de la planification de l’architecture. Pour trouver le bon équilibre, il peut être nécessaire de faire des compromis en termes de conception, de coût et de structures d’alimentation et de refroidissement. Normalement, il existe un plafond pour la quantité d’énergie pouvant être correctement contrôlée et refroidie dans les centres de données, ce qui peut fournir aux concepteurs des indications sur la façon de faire des compromis et peut leur permettre de développer des accélérateurs et des conceptions de systèmes plus efficaces, ainsi que d’adopter des caractéristiques thermiques avancées.

Chez TE, nous collaborons avec nos clients pour les aider à concevoir et à fabriquer les composants qui peuvent répondre aux exigences d’apprentissage automatique dans les centres de données allant de la très grande échelle et de la colocalisation aux exigences pouvant permettre l’edge computing. Nous pouvons proposer des solutions conçues pour une vitesse et un rendement énergétique élevés dans les architectures de centres de données, y compris des assemblages de câbles en cuivre externes à connexion directe, avec des interfaces, ainsi que notre technologie de support XLA (Extra Large Array), des connecteurs encartables, des assemblages de câbles de connecteur de fond de panier Strada Whisper et des câbles internes haute vitesse en cuivre. Ces produits sont souvent choisis pour nos clients majoritairement en fonction de la conception du système dans lequel ils vont être utilisés. Nos conceptions d’alimentation comprennent des assemblages de câbles d’énergie, des jeux de barres, des systèmes de distribution de puissance et des solutions de gestion thermique.

 

En s’associant à TE, notre client peut s’attendre à des solutions fiables, durables et hautes performances, tout en recevant des conseils d’experts en ingénierie capables de résoudre les problèmes d’architecture qu’il peut rencontrer. Grâce à ces collaborations, nos clients peuvent développer des solutions efficaces de nouvelle génération qu’ils peuvent faire évoluer rapidement pour intégrer l’apprentissage automatique au cœur de leur système de données. Nos ingénieurs peuvent aider à résoudre les problèmes de performance, afin que notre client puisse se concentrer sur d’autres priorités, telles que le développement de projets au niveau de l’application et la résolution de problèmes abstraits liés aux logiciels.

Auteurs TE

  • Mike Tryson, vice-président et directeur technique, données et périphériques
  • Erin Byrne, vice-présidente et directrice technique, capteurs
  • Dave Helster, ingénieur TE, données et périphériques
  • Jonathan Lee, directeur principal de l’ingénierie – câbles en vrac mondiaux, données et périphériques
  • Christopher Blackburn, technologue – architecture système, données et périphériques