Adaptador InfiniBand NVIDIA MCX555A-ECAT de Porta Única 100Gb/s QSFP28 PCIe 3.0 x16 ConnectX-5

Detalhes do produto:

Marca: Mellanox
Número do modelo: MCX555A-ECAT
Documento: CONNECTX-5 infiniband.pdf

Condições de Pagamento e Envio:

Quantidade de ordem mínima: 1 unidade
Preço: Negotiate
Detalhes da embalagem: Caixa externa
Tempo de entrega: Baseado no inventário
Termos de pagamento: T/T
Habilidade da fonte: Fornecimento por projeto/lote
Melhor preço Contato

Informação detalhada

Status dos produtos: Estoque Aplicativo: Servidor
Doença: Novo e Original Tipo: Com fio
Velocidade máxima: EDR e 100GBE Conector Ethernet: QSFP28
Destacar:

Adaptador InfiniBand NVIDIA ConnectX-5

,

Placa de rede QSFP28 de 100Gb/s

,

Placa Mellanox PCIe 3.0 x16

Descrição de produto

NVIDIA ConnectX-5 MCX555A-ECAT Cartão de Adaptador InfiniBand
Single-Port QSFP28 100Gb/s InfiniBand & Ethernet PCIe 3.0 x16 RDMA habilitado

Adaptador de rede de alto desempenho e baixa latência de 100Gb / s projetado para HPC, AI e centros de dados em nuvem.e correspondência de etiquetas para cargas de trabalho MPI, proporcionando um desempenho e eficiência de CPU líderes no setor.

Visão geral do produto

ONVIDIA ConnectX-5 MCX555A-ECATÉ uma placa de adaptador InfiniBand de 100Gb/s com uma única porta num fator de formato PCIe de baixo perfil.100 Gb/s de capacidadeO cartão suporta InfiniBand (até EDR) e 100GbE, fornecendo conectividade versátil para computação de alto desempenho, armazenamento,e ambientes virtualizados.

Construído com um switch PCIe incorporado e capacidades avançadas de RDMA, o MCX555A-ECAT descarrega tarefas críticas de comunicação da CPU, permitindo um maior desempenho da aplicação,menor consumo de energiaÉ totalmente compatível com slots PCIe 3.0 x16 e suporta uma ampla gama de sistemas operacionais e frameworks de aceleração.

Características fundamentais
  • Até 100 Gb/sConectividade por porta (InfiniBand EDR / 100GbE)
  • Conector QSFP28 únicopara cabos ópticos ou de cobre
  • Interface de host PCIe 3.0 x16(auto-negocia para x8, x4, x2, x1)
  • RDMA, semântica de envio/recepçãocom transporte fiável baseado em hardware
  • Identificação e encontro de descargaspara MPI e SHMEM
  • NVMe sobre tecidos (NVMe-oF)para armazenamento eficiente
  • GPUDirect RDMA (PeerDirect)aceleração para comunicação com GPU
  • Controle de congestionamento baseado em hardware e suporte de roteamento adaptativo
  • Virtualização SR-IOV:até 512 funções virtuais
  • Compatível com a RoHS, com baixo fator de forma(incluindo o bracket de altura)
Tecnologia avançada e descargas

A arquitetura ConnectX-5 integra uma gama de motores de aceleração de hardware que reduzem a intervenção da CPU e melhoram a escalabilidade dos aplicativos:

  • MPI Tag Matching & Rendezvous Offload:Descarrega o processamento de correspondência de mensagens e protocolo de encontro, melhorando drasticamente o desempenho do MPI para clusters HPC.
  • RDMA fora de ordem com roteamento adaptativo:Permite o uso eficiente de vários caminhos de rede, mantendo a semântica de conclusão ordenada, maximizando a utilização do tecido.
  • NVMe-oF Destino de descarga:Permite que os sistemas de armazenamento NVMe servem acesso remoto com sobrecarga de CPU quase zero, ideal para arquiteturas de armazenamento desagregadas.
  • Transportes dinâmicamente interligados (DCT):Fornece escalabilidade extrema para grandes sistemas de computação e armazenamento, eliminando a sobrecarga de configuração de conexão.
  • ASAP2 Comutação acelerada e processamento de pacotes:Descarga de hardware para Open vSwitch (OVS) e túnel de rede de sobreposição (VXLAN, NVGRE, GENEVA).
  • Paging sob demanda (ODP):Suporta paging de memória virtual para operações RDMA, simplificando o desenvolvimento de aplicativos.
Desdobramentos típicos
  • Computação de Alto Desempenho (HPC):Ideal para clusters de supercomputação, simulações baseadas em MPI e cargas de trabalho de pesquisa científica que exigem baixa latência e altas taxas de mensagens.
  • Formação em IA e Aprendizado Profundo:Combinado com o GPUDirect RDMA, permite uma comunicação rápida de GPU para GPU entre nós, acelerando os tempos de treinamento.
  • Sistemas de armazenamento NVMe-oF:Implementar como alvos de armazenamento ou iniciadores em ambientes NVMe over Fabrics para acesso de armazenamento de blocos de alto rendimento e baixa latência.
  • Cloud e Data Centers Virtualizados:O SR-IOV e as descargas de virtualização suportam ambientes multi-locatários com QoS garantida e isolamento seguro.
  • Negociação de Alta Frequência (HFT):A latência ultra-baixa e o carimbo de tempo de hardware (IEEE 1588v2) satisfazem as exigências das aplicações de serviços financeiros.
Compatibilidade e interoperabilidade

O MCX555A-ECAT foi projetado para uma ampla compatibilidade com switches NVIDIA InfiniBand (por exemplo, Quantum, Spectrum) e switches 100GbE de terceiros.Suporta DACs de cobre passivos e cabos ópticos ativos através de portas QSFP28.

Sistemas operacionais e software:

  • RHEL / CentOS, Ubuntu, Windows Server, FreeBSD, VMware ESXi
  • OpenFabrics Enterprise Distribution (OFED) / WinOF-2
  • NVIDIA HPC-X, OpenMPI, MVAPICH2, Intel MPI, MPI de plataforma
  • Kit de desenvolvimento de planos de dados (DPDK) para bypass do kernel
Especificações técnicas
Parâmetro Especificações
Modelo MCX555A-ECAT
Fator de forma PCIe de baixo perfil (14,2 cm x 6,9 cm sem suporte), suporte alto pré-instalado, suporte curto incluído
Velocidade e tipo de porta 1x QSFP28, até 100Gb/s InfiniBand (EDR) e 100GbE
Interface do host PCI Express 3.0 x16 (compatível com x8, x4, x2, x1)
Suporte para InfiniBand Compatível com o IBTA 1.3, 100Gb/s EDR, FDR, QDR, DDR, SDR; 8 faixas virtuais + VL15; 16 milhões de canais de E/S
Suporte Ethernet 100GbE, 50GbE, 40GbE, 25GbE, 10GbE, 1GbE; IEEE 802.3cd, 802.3bj, 802.3by, 802.3ba, 802.3ae
Capacidades de RDMA RDMA sobre Ethernet convergente (RoCE), hardware de transporte confiável, RDMA fora de ordem, operações atômicas
Descargas de armazenamento NVMe sobre Fabrics descarga de alvo, iSER, SRP, NFS RDMA, SMB Direct, transferência de assinatura T10 DIF
Virtualização SR-IOV (até 512 funções virtuais), VMware NetQueue, NPAR, PCIe Access Control Services (ACS)
Descargas da CPU TCP/UDP/IP descarga sem estado, LSO/LRO, descarga de soma de verificação, RSS/TSS, inserção/descarga de etiquetas VLAN/MPLS
Redes de sobreposição Descarga de hardware para encapsulamento/desencapsulamento VXLAN, NVGRE, GENEVE
Gestão NC-SI via MCTP, PLDM para monitor/controle e atualização de firmware, I2C, SPI, JTAG
Iniciação remota Iniciação remota através de InfiniBand, Ethernet, iSCSI; suporte UEFI, PXE
Consumo de energia Não especificado publicamente; faixa típica inferior a 20 W
Temperatura de funcionamento 0°C a 55°C (ambiente típico)
Conformidade RoHS, REACH, FCC, CE, VCCI, ICES, RCM

Nota: Especificações derivadas da documentação do produto NVIDIA ConnectX-5. Para obter os mais recentes detalhes e suporte ao firmware, consulte as notas oficiais de lançamento da NVIDIA.

Guia de seleção ConnectX-5 Família
Número da peça de encomenda Portos / Velocidade Interface do host Fator de forma Características fundamentais
MCX555A-ECAT 1x QSFP28, 100 Gb/s PCIe 3.0 x16 PCIe de baixo perfil Portão único padrão, EDR InfiniBand / 100GbE
MCX556A-ECAT 2x QSFP28, 100 Gb/s PCIe 3.0 x16 PCIe de baixo perfil Dual-port, EDR/100GbE
MCX556A-EDAT 2x QSFP28, 100 Gb/s PCIe 4.0 x16 PCIe de baixo perfil ConectX-5 Ex, PCIe Gen4 melhorado
MCX556M-ECAT-S25 2x QSFP28, 100 Gb/s 2x PCIe 3.0 x8 Socket Direct Conexão de servidor de duplo soquete através de um arnês
MCX545B-ECAN 1x QSFP28, 100 Gb/s PCIe 3.0 x16 OCP 2.0 Tipo 1 Fator de forma do Open Compute Project

Para variantes OCP ou Multi-Host, entre em contato com as vendas.

Por que escolher o ConnectX-5 MCX555A-ECAT
  • Desempenho superior de aplicação:Descarga de hardware para MPI, NVMe-oF e sobrepõe núcleos de CPU livres para lógica de negócios.
  • Tecido RDMA escalável:DCT, XRC e RDMA fora de ordem fornecem escalabilidade linear para milhares de nós.
  • Aceleração da GPU pronta:GPUDirect RDMA permite acesso direto à memória entre GPUs e adaptadores de rede, eliminando gargalos da CPU em clusters de IA.
  • Deslocamento flexível:Uma única porta QSFP28 simplifica o cablagem e é ideal para arquiteturas leaf-spine de 100Gb/s.
  • Protecção dos investimentos:O suporte tanto para InfiniBand quanto para Ethernet permite uma transição perfeita entre os protocolos conforme as necessidades evoluem.
Serviço e Apoio

O Hong Kong Starsurge Group fornece suporte completo ao ciclo de vida dos adaptadores NVIDIA ConnectX-5, incluindo assistência de configuração pré-venda, orientação de atualização de firmware e serviço de garantia.A nossa equipa técnica pode ajudar:

  • Verificação da compatibilidade com o servidor e com a infraestrutura do switch
  • Ajuste de desempenho para cargas de trabalho de HPC ou armazenamento
  • Opções de suportes personalizados e requisitos de embalagem a granel
  • Serviços de processamento RMA e de substituição avançada

Entre em contacto com os nossos engenheiros de vendas para obter informações sobre os preços dos volumes e os prazos de entrega.

Perguntas Frequentes
P: Qual é a diferença entre MCX555A-ECAT e MCX556A-ECAT?
A: O MCX555A-ECAT tem uma única porta QSFP28, enquanto o MCX556A-ECAT tem duas portas. Ambas suportam 100Gb/s por porta e PCIe 3.0 x16. Escolha uma única porta para cablagem mais simples ou uma dupla porta para maior densidade.
P: Este cartão pode ser usado num slot PCIe 3.0 x8?
R: Sim, o cartão negocia automaticamente para larguras de faixa x8, x4, x2 ou x1, embora o rendimento máximo possa ser limitado pela largura de banda disponível.
P: Suporta RoCE (RDMA sobre Ethernet Convergente)?
R: Sim, o ConnectX-5 suporta RoCE para tecidos Ethernet, fornecendo serviços RDMA de baixa latência em redes Ethernet padrão.
P: Que cabos são compatíveis?
R: O cartão funciona com DACs de cobre passivo QSFP28 (até 5m) e cabos ópticos ativos (AOC) para alcançar mais, bem como transceptores ópticos para conectividade de fibra.
P: Este cartão é suportado no VMware ESXi?
R: Sim, o VMware ESXi é suportado com drivers nativos e recursos SR-IOV. Consulte o guia de compatibilidade do VMware para versões específicas.
Precauções de manuseio e instalação

Descarga eletrostática (ESD):Manter na embalagem antiestática até à instalação.Requisitos de refrigeração:Assegurar um fluxo de ar adequado no chassi do servidor para manter a temperatura de funcionamento dentro da gama especificada.Atualizações do firmware:Use as ferramentas oficiais de firmware da NVIDIA (MFT) e verifique a compatibilidade com sua versão do sistema operacional e do driver antes de atualizar.Cable Bending (Flexão de cabo):Seguir as diretrizes do raio de curvatura do cabo QSFP28 para evitar a degradação do sinal.

Este é um produto de classe A. Em um ambiente residencial pode causar interferências de rádio.

Sobre a Hong Kong Starsurge Group Co., Limited
Adaptador InfiniBand NVIDIA MCX555A-ECAT de Porta Única 100Gb/s QSFP28 PCIe 3.0 x16 ConnectX-5 0

Fundada em 2008,Hong Kong Starsurge Group Co., Limitedé um fornecedor de hardware de rede, serviços de TI e soluções de integração de sistemas orientado por tecnologia.Controladores, e cablagem de alta velocidade, a Starsurge combina uma profunda experiência técnica com uma abordagem orientada para o cliente.,e empresa, oferecendo soluções IoT, sistemas de gestão de rede, desenvolvimento de software personalizado e entrega global multilingue.A Starsurge ajuda os clientes a construir eficientes, infra-estrutura de rede escalável e confiável.

Fatos-chave NVIDIA MCX555A-ECAT
100 Gb/s
Velocidade das portas (InfiniBand e Ethernet)
PCIe 3.0 x16
Largura de banda da interface do host
512 VFs
Funções virtuais SR-IOV máximas
NVMe-oF
Meta de armazenamento descarregada de hardware
Matriz de compatibilidade
Componente / Sistema Estatuto de compatibilidade Notas
Comutadores de banda infinita quânticos NVIDIA Certificado Compatibilidade EDR, HDR quando se utiliza um firmware adequado
Comutadores Ethernet de Espectro NVIDIA Certificado Módulos 100GbE, 50GbE, 25GbE suportados
Comutadores 100GbE de terceiros Compatível Requer conformidade com as normas IEEE; testado com os principais fornecedores
Servidores de GPU (NVIDIA DGX, HGX) Certificado com GPUDirect Aceleração RDMA para comunicação multi-GPU
Arquivos de armazenamento com NVMe-oF Apoio Descarga de alvo permite um acesso eficiente ao tecido NVMe
Lista de verificação do comprador Adaptador InfiniBand de 100 Gb/s
  • Confirme que o servidor tem um slot PCIe 3.0 x16 (ou x8) disponível com uma distância suficiente.
  • ¢ Determinar o número de portas: de porta única (MCX555A-ECAT) versus de porta dupla (MCX556A-ECAT).
  • ¢ Escolha o tipo de cabo: DAC de cobre passivo para distâncias curtas (≤ 5 m) ou óptico para corridas mais longas.
  • Verificar o suporte ao sistema operativo e aos drivers (OFED, Windows, VMware).
  • Para os clusters de GPU, certifique-se da compatibilidade GPUDirect RDMA com o seu modelo de GPU e versão do driver.
  • Verifique se é necessário um suporte alto ou curto para o chassi do servidor.
Produtos relacionados
  • NVIDIA MCX556A-ECAT Adaptador ConnectX-5 de duas portas de 100 Gb/s
  • NVIDIA MCX556A-EDAT ConnectX-5 Ex com suporte PCIe 4.0
  • NVIDIA Quantum-2 QM9700 40 portas 800Gb/s InfiniBand Switch
  • Cabos DAC passivos Mellanox QSFP28 (1m, 2m, 3m)
  • Comutadores Ethernet NVIDIA Spectrum-4 SN5600 100GbE/400GbE
Orientações e recursos relacionados
  • NVIDIA ConnectX-5 InfiniBand Adaptador de Cartão Manual do Usuário
  • RDMA sobre Ethernet Convergente (RoCE) Guia de implantação
  • GPUDirect RDMA Melhores práticas para clusters de IA
  • NVMe sobre Fabrics com ConnectX-5 Guia de configuração
  • Guia de instalação e ajuste da OFED


Deseja saber mais detalhes sobre este produto
Estou interessado em Adaptador InfiniBand NVIDIA MCX555A-ECAT de Porta Única 100Gb/s QSFP28 PCIe 3.0 x16 ConnectX-5 você poderia me enviar mais detalhes como tipo, tamanho, quantidade, material, etc.
Obrigado!
Esperando sua resposta.