Aprendizado de Máquina em Arquiteturas de Data Center

Tendência

A nova geração de aplicações de dados

Ao desenvolver aprendizado de máquina para um data center, todos os fatores que afetam o desempenho, escalabilidade e resiliência devem ser considerados desde o início.

Ter a arquitetura certa pode ser crucial para adicionar com sucesso aprendizado de máquina aos data centers. A infraestrutura do data center pode ser a chave para habilitar a funcionalidade da arquitetura de TI, uma vez que a maior parte de seu conteúdo é passado ou originado pela arquitetura de TI.

 

Ao desenvolver aprendizado de máquina para o data center, todos os fatores que afetam o desempenho, escalabilidade e resiliência da instalação devem ser considerados no início, durante o período de planejamento. Para isso, os designers de sistemas normalmente se concentram no desenvolvimento de uma arquitetura flexível que possa suportar novas aplicações rapidamente.

 

A falha em abordar esses aspectos durante o planejamento pode levar a arquiteturas de dados ineficientes ou imprecisas que podem, em última análise, causar total falha no sistema e na energia, o que pode fazer com que as operadoras de data center percam grandes volumes de dados essenciais.

 

Existem vários fatores que podem causar esse tipo de falha, incluindo calcular incorretamente os requisitos de energia, escolher incorretamente o equipamento de alimentação e projetar incorretamente o mecanismo de transferência automática. Para ajudar a otimizar os recursos de aprendizado de máquina na arquitetura atual do data center, os designers de sistemas devem considerar os problemas comuns que causam falha no sistema e os componentes que podem abordar as causas desses problemas.

Insight do CTO sobre Computação em Nuvem

Vídeo em Inglês

Erin Byrne, CTO e Vice-presidente da TE, fala sobre suas perspectivas de Computação em Nuvem e megatendências que influenciam a arquitetura de design de última geração.

Insight do CTO sobre Computação em Nuvem

Vídeo em Inglês

Erin Byrne, CTO e Vice-presidente da TE, fala sobre suas perspectivas de Computação em Nuvem e megatendências que influenciam a arquitetura de design de última geração.

Uma questão na indústria de data centers de hoje é que os termos inteligência artificial (IA) e aprendizado de máquina são comumente usados de forma intercambiável, o que pode levar a confusão e imprecisões. O que é fundamental para lembrar é que o aprendizado de máquina é um subconjunto de IA. Com a IA, o foco está no desenvolvimento de máquinas que podem "pensar", enquanto o aprendizado de máquina geralmente é sobre a definição de algoritmos para permitir que as máquinas "aprendam" através de funções repetitivas. Embora o aprendizado de máquina não seja um conceito novo, uma das mudanças nos últimos anos é o aumento do poder de processamento de computadores com uma diminuição no custo por bit. Isso pode permitir que os designers encontrem oportunidades para tornar o aprendizado de máquina uma grande parte de nossas vidas cotidianas, desde mecanismos de recomendação como Google e Netflix até aplicações integradas de mídia social e reconhecimento de impressões digitais e facial em smartphones.

 

Desde o surgimento das primeiras aplicações de aprendizado de máquina nas indústrias aeroespacial e aérea, que possibilitou que muitos designers de aeronaves inovassem em projetos de asas, muitos designers evoluíram seu pensamento sobre os usos do aprendizado de máquina para uma compreensão abrangente de alinhar potenciais e compensações ao procurar otimizar o design.

 

Essa mudança está causando um impacto no data center, onde agora vemos frequentemente o uso de IA e aprendizado de máquina transitando das aplicações limitadas em computadores padrão e caixas autônomas para uma gama de aplicações específicas de silício. Isso pode ajudar a abrir as portas para que o setor se concentre na otimização da rede de data center, usando IA e aprendizado de máquina em cada parte dessas redes para expandir a funcionalidade ao longo do tempo.

Nos próximos cinco anos, espera-se que o uso do aprendizado de máquina se afaste de infraestruturas dedicadas para infraestruturas mais flexíveis que possam fornecer a capacidade de escalar, alterar e diversificar instantaneamente. Embora uma das principais funções da coleta de dados de aprendizado de máquina esteja centrada em torno de interações de homem para máquina, uma oportunidade está surgindo para interações máquina a máquina, o que pode não exigir a necessidade de dados ou entradas inseridos por humanos. Quando as máquinas começam a criar caminhos de comunicação, os sistemas podem ajudar a processar e transmitir dados de maneiras que possam nos dar novas percepções sobre volumes maiores de dados.  

 

O processo de adicionar aprendizado de máquina em sistemas de dados, como servidores e racks de dados, muitas vezes pode variar, dependendo do que o designer do sistema está tentando alcançar, bem como a carga de trabalho da operadora de data center para adicionar aprendizado de máquina ao núcleo. 

 

Adicionar aprendizado de máquina em data centers novos ou existentes é comumente feito para resolver um problema conhecido existente, como problemas em grandes pods de aprendizado ou problemas de rede devido a algoritmos que foram desenvolvidos a partir de dados recebidos. A maioria das soluções hoje em dia tende a ser personalizada para corresponder ao tamanho do problema.

 

Alguns desafios na concepção de soluções para o cliente incluem otimizar a distribuição de energia, reduzir os níveis térmicos e melhorar o desempenho de alta velocidade/baixa latência nas interconexões. Como normalmente tudo no data center deve ser interligado, os componentes do sistema devem oferecer a flexibilidade para serem instalados e trabalhar em espaços pequenos e atender aos requisitos de velocidade esperados sem aumentar a saída térmica.

 

Muitas vezes, os designers precisam explicar a proximidade do hardware ao planejar a arquitetura. Acertar esse equilíbrio pode exigir trocas de design, custo e estruturas de energia e resfriamento. Normalmente, existe um teto para quanta energia pode ser adequadamente controlada e resfriada em data centers, o que pode fornecer aos designers orientações sobre como fazer trocas e pode permitir que eles desenvolvam aceleradores e projetos de sistemas mais eficientes e adotem escolhas térmicas avançadas.

Na TE, fazemos parcerias com nossos clientes para ajudar a projetar e fabricar os componentes que podem atender aos requisitos de aprendizado de máquina em data centers, desde a hiperescala e a colagem até requisitos que podem permitir a computação de borda. Podemos oferecer soluções projetadas para alta velocidade e eficiência energética em arquiteturas de data center, incluindo encaixes diretos, conjuntos externos de cabos de cobre – com  interfaces, bem como nossa tecnologia de soquete de matriz extra grande (XLA), conectores edge de placa, conjuntos de cabos de conectores backplane Strada Whisper e cabos internos de cobre de alta velocidade. Esses produtos são muitas vezes escolhidos para nossos clientes com base, mais do que qualquer outra coisa, no design do sistema em que eles serão usados. Nossos projetos de energia incluem conjuntos de cabos de alimentação, barramentos, sistemas de distribuição de energia e soluções de gerenciamento térmico.

 

Em parceria com a TE, nosso cliente pode esperar soluções confiáveis, duráveis e de alto desempenho, ao mesmo tempo em que recebe orientação especializada de engenheiros que podem resolver os problemas de arquitetura que podem precisar resolver. Por meio dessas colaborações, nossos clientes podem desenvolver soluções eficientes de última geração que possam escalar rapidamente para integrar o aprendizado de máquina em seu núcleo de sistema de dados. Nossos engenheiros podem ajudar a resolver problemas de desempenho, para que nosso cliente possa se concentrar em outras prioridades, como trabalhar no desenvolvimento de projetos no nível de aplicações e resolver preocupações abstratas relacionadas ao software.

Autores da TE

  • Mike Tryson, Vice-presidente e CTO, Dados e Dispositivos
  • Erin Byrne, Vice-presidente e CTO, Sensores
  • Dave Helster, Parceiro da Engenharia da TE, Dados e Dispositivos
  • Jonathan Lee, Gerente Sênior de Engenharia – Cabo Em Massa Global, Dados e Dispositivos
  • Christopher Blackburn, Tecnólogo – Arquitetura de Sistemas, Dados e Dispositivos