Adaptador Inteligente InfiniBand NVIDIA ConnectX-6 MCX653105A-HDAT de Porta Única de 200Gb/s com Criptografia de Hardware e PCIe 4.0

Detalhes do produto:

Marca: Mellanox
Número do modelo: MCX653105A-HDAT
Documento: connectx-6-infiniband.pdf

Condições de Pagamento e Envio:

Quantidade de ordem mínima: 1 unidade
Preço: Negotiate
Detalhes da embalagem: Caixa externa
Tempo de entrega: Baseado no inventário
Termos de pagamento: T/T
Habilidade da fonte: Fornecimento por projeto/lote
Melhor preço Contato

Informação detalhada

Status dos produtos: Estoque Aplicativo: Servidor
Doença: Novo e Original Tipo: Com fio
Velocidade máxima: Até 200 GB/s Conector Ethernet: QSFP56
Modelo: MCX653105A-HDAT
Destacar:

NVIDIA ConnectX-6 Adaptador de banda Infini

,

Placa de rede PCIe 4.0 de 200Gb/s

,

Adaptador InfiniBand com criptografia de hardware

Descrição de produto

Adaptador InfiniBand NVIDIA ConnectX-6 MCX653105A-HDAT

Adaptador Inteligente de Porta Única de 200 Gb/s HDR com Computação na Rede e Criptografia de Hardware

O NVIDIA ConnectX-6 1x QSFP56 oferece taxa de transferência total de 200 Gb/s em uma única porta QSFP56, combinando latência ultrabaixa, descarregamentos de hardware e criptografia XTS-AES em nível de bloco. Projetado para clusters HPC, IA e armazenamento NVMe-oF, este adaptador PCIe 4.0 x16 descarrega operações coletivas, RDMA e criptografia da CPU, maximizando o desempenho e a escalabilidade das aplicações em ambientes de data center exigentes.

InfiniBand e Ethernet de 200 Gb/s Criptografia de Hardware (XTS-AES) RDMA / GPUDirect Descarregamentos NVMe-oF
Visão Geral do Produto

O 1x QSFP56 pertence à família de adaptadores InfiniBand NVIDIA ConnectX-6, projetada para desempenho extremo em data centers modernos. Esta placa QSFP56 de porta única suporta até PCIe 3.0/4.0 x16 (HDR InfiniBand ou 200 GbE) com aceleração total de hardware para RDMA, transporte confiável e computação na rede. Ao integrar descarregamentos de operações coletivas, correspondência de tags MPI e aceleração NVMe over Fabrics, o adaptador reduz significativamente a sobrecarga da CPU, ao mesmo tempo que aumenta a eficiência da rede. Sua criptografia em nível de bloco AES-XTS integrada garante a segurança dos dados sem penalidade de desempenho, tornando-o ideal para serviços financeiros, pesquisa governamental e implantações de nuvem em hiperescala.

MCX653105A-HDAT
Velocidade da Porta
Até 200 Gb/s (HDR InfiniBand / 200 GbE) em QSFP56 única
Até 215 milhões de mensagens por segundo
Até 215 milhões de mensagens/seg
Criptografia de Hardware
Nível de Bloco XTS-AES de 256/512 bits, compatível com FIPS
motores de aceleração de Computação na Rede
Descarregamentos coletivos, descarregamentos de destino/iniciador NVMe-oF, buffer de rajada
Principais Recursos
PCIe Gen 4.0 / 3.0 x16 (retrocompatível)
Virtualização e Descarregamentos
SR-IOV (1K VFs), ASAP2, descarregamento Open vSwitch, túneis overlay
RDMA e GPUDirect
RoCE, XRC, DCT, Paginação Sob Demanda, suporte a GPUDirect RDMA
PCIe de baixo perfil em pé (suporte alto pré-instalado, acessório de suporte curto incluído)
PCIe de baixo perfil em pé, suporte alto pré-instalado + suporte curto incluído
Tecnologia Avançada: Computação na Rede e Segurança

O NVIDIA ConnectX-6 integra motores de aceleração de Computação na Rede que descarregam operações críticas do data center da CPU do host. O MCX653105A-HDAT suporta transporte confiável baseado em hardware, roteamento adaptativo e controle de congestionamento, garantindo desempenho previsível em redes de grande escala. Acesso Direto à Memória Remota (RDMA) permite transferências de dados sem cópia, contornando o kernel do sistema operacional. Com NVIDIA GPUDirect RDMA, a memória da GPU se comunica diretamente com o adaptador de rede, reduzindo a latência para treinamento de IA e simulações de HPC. A criptografia XTS-AES em nível de bloco integrada (chave de 256/512 bits) garante a segurança de dados em trânsito e em repouso sem sobrecarga da CPU, e o adaptador foi projetado para atender aos requisitos de conformidade FIPS 140-2.

Implantações Típicas
  • Computação de Alto Desempenho (HPC): Simulações em larga escala, previsão do tempo e dinâmica de fluidos computacional que exigem interconexão de baixa latência de 200 Gb/s.
  • Clusters de IA e Deep Learning: Treinamento distribuído com GPUDirect RDMA, maximizando a taxa de transferência entre nós de GPU.
  • Sistemas de Armazenamento NVMe-oF: Armazenamento desagregado de alto desempenho com descarregamentos completos de destino/iniciador, reduzindo a utilização da CPU.
  • Data Centers Hiperscala e de Nuvem: Ambientes virtualizados com SR-IOV, redes overlay e criptografia acelerada por hardware.
  • Plataformas de Trading Financeiro: Rede determinística de latência ultrabaixa para trading algorítmico.
Compatibilidade e Ecossistema

O ConnectX-6 MCX653105A-HDAT interopera perfeitamente com switches InfiniBand NVIDIA Quantum (HDR 200 Gb/s), switches 200 GbE padrão e uma ampla gama de plataformas de servidor. Ele suporta os principais sistemas operacionais e pilhas de virtualização, garantindo integração flexível na infraestrutura existente.

Especificações Técnicas
Parâmetro Especificação
Modelo do Produto 1x QSFP56
Taxa de Dados 200 Gb/s, 100 Gb/s, 50 Gb/s, 40 Gb/s, 25 Gb/s, 10 Gb/s, 1 Gb/s (InfiniBand e Ethernet)
Portas e Conector 1x QSFP56 (suporta cabos de cobre passivos, ópticos ativos e AOC)
Principais Recursos PCIe Gen 4.0 x16 (também compatível com Gen 3.0, 2.0; suporta configurações x8, x4, x2, x1)
Latência Sub-microssegundo (típico <0.7µs)Taxa de Mensagens
Até 215 milhões de mensagens por segundo Criptografia
Descarregamento de hardware XTS-AES de 256/512 bits, pronto para FIPS 140-2 Fator de Forma
PCIe de baixo perfil em pé (suporte alto pré-instalado, acessório de suporte curto incluído) Dimensões (sem suporte)
167,65 mm x 68,90 mm Consumo de Energia
Típico 22W – 24W (depende da utilização do link) Virtualização
SR-IOV (até 1K Funções Virtuais), VMware NetQueue, NPAR, descarregamento de fluxo ASAP2 Gerenciamento e Monitoramento
NC-SI, MCTP sobre PCIe/SMBus, PLDM (DSP0248, DSP0267), I2C, flash SPI Inicialização Remota
InfiniBand, iSCSI, PXE, UEFI Sistemas Operacionais
RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OpenFabrics Enterprise Distribution (OFED), WinOF-2 Guia de Seleção – Variantes de Adaptador ConnectX-6
Número da Peça de Pedido (OPN)
Portas Velocidade Máxima Interface do Host Principais Recursos MCX653105A-HDAT
1x QSFP56 100 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 fator de forma pequeno, 200 Gb/s de porta dupla MCX653106A-HDAT
2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 fator de forma pequeno, 200 Gb/s de porta dupla MCX653105A-ECAT
1x QSFP56 100 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 fator de forma pequeno, 200 Gb/s de porta dupla MCX653106A-ECAT
2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 fator de forma pequeno, 200 Gb/s de porta dupla MCX653436A-HDAT (OCP 3.0)
2x QSFP56 200 Gb/s PCIe 3.0/4.0 x16 OCP 3.0 fator de forma pequeno, 200 Gb/s de porta dupla Nota: O MCX653105A-HDAT inclui motor de criptografia de hardware completo (XTS-AES) e suporta protocolos InfiniBand e Ethernet em até 200 Gb/s. Para configurações de porta dupla, considere as variantes -HDAT com duas gaiolas QSFP56.
Por que Escolher o MCX653105A-HDAT para Sua Infraestrutura
Largura de Banda Completa de 200 Gb/s:
  • O design de porta única oferece taxa de transferência máxima para nós de computação onde a alta densidade por porta é priorizada.Segurança de Hardware Integrada:
  • Criptografia de bloco XTS-AES sem sobrecarga da CPU, atendendo à conformidade FIPS para indústrias regulamentadas.Armazenamento e IA Acelerados:
  • Descarregamentos NVMe-oF e GPUDirect RDMA aumentam significativamente o desempenho para treinamento de IA e armazenamento definido por software.PCIe 4.0 Preparado para o Futuro:
  • Dobra a largura de banda da interconexão para o host, eliminando gargalos para redes de 200 Gb/s.Gerenciamento Simplificado:
  • Pilha de drivers unificada (OFED, WinOF-2) e ampla compatibilidade com SO reduzem a complexidade de implantação.Serviço e Suporte
A Hong Kong Starsurge Group fornece suporte técnico especializado, cobertura de garantia e serviços globais de RMA para todos os adaptadores NVIDIA ConnectX. Nossos especialistas em rede auxiliam na instalação de drivers, ajuste de desempenho e integração de rede. Oferecemos preços flexíveis, cotações em massa para projetos de data center e envio rápido para todo o mundo. Para soluções personalizadas, entre em contato com nossa equipe de vendas para discutir prazos de entrega e descontos por volume.

Perguntas Frequentes

P: Qual é a velocidade máxima suportada pelo MCX653105A-HDAT?
R: Ele suporta até 200 Gb/s (HDR) no lado InfiniBand e 200 GbE no lado Ethernet, com compatibilidade retroativa total para velocidades mais baixas (100/50/40/25/10/1 Gb/s).
P: Este adaptador inclui criptografia de hardware?
R: Sim. O MCX653105A-HDAT possui descarregamento de criptografia em nível de bloco XTS-AES de 256/512 bits integrado, reduzindo a carga da CPU e garantindo a segurança dos dados.
P: Posso usar esta placa em um slot PCIe 3.0?
R: Com certeza. O adaptador é retrocompatível com PCIe 3.0 e 2.0. No entanto, a taxa de transferência máxima pode ser limitada pela geração do slot.
P: O GPUDirect RDMA é suportado?
R: Sim, a série ConnectX-6 suporta totalmente o NVIDIA GPUDirect RDMA, permitindo o acesso direto à memória da GPU pela rede para cargas de trabalho de IA e HPC.
P: Quais tipos de cabos são compatíveis com a porta QSFP56?
R: Ele suporta DACs de cobre passivos (até 5m), cabos ópticos ativos (AOC) e transceptores ópticos QSFP56 para distâncias maiores.
Precauções Importantes
• Garanta fluxo de ar adequado no chassi para o adaptador de 200 Gb/s; use o resfriamento recomendado de acordo com as diretrizes do fornecedor do servidor.
• Verifique se o slot PCIe fornece energia suficiente (75W do slot; o adaptador consome ~22-24W típico).
• Para plataformas com resfriamento líquido, esta placa com resfriamento a ar padrão não é compatível com variantes de placa fria; entre em contato com a Starsurge para necessidades de SKU com resfriamento líquido.
• Sempre use cabos ou módulos classificados para QSFP56 para atingir o desempenho de 200 Gb/s.
• Confirme a compatibilidade da versão do driver com seu SO e kernel antes da implantação.
Sobre a Hong Kong Starsurge Group
Desde 2008, a Hong Kong Starsurge Group Co., Limited tem sido uma provedora confiável de hardware de rede empresarial, integração de sistemas e serviços de TI. Como parceira autorizada para soluções de rede NVIDIA, a Starsurge fornece adaptadores, switches e cabos ConnectX genuínos para clientes governamentais, financeiros, de saúde, educacionais e de hiperescala em todo o mundo. Nossas equipes experientes de vendas e técnicas garantem uma implantação perfeita, desde a arquitetura de pré-vendas até o suporte pós-vendas, com um compromisso com qualidade confiável e serviço responsivo.

Entrega global · Suporte multilíngue · Serviços personalizados de OEM e integração

Principais Fatos em Resumo

Porta única de 200 Gb/s
215M Msgs/seg
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VFs)
NVMe-oF e GPUDirect
Matriz de Compatibilidade
Componente / Ecossistema
Status de Suporte Observações Switches InfiniBand NVIDIA Quantum HDR
Adaptador de Porta Dupla ConnectX-6 200 Gb/s (MCX653106A-HDAT) Rede de 200 Gb/s, roteamento adaptativo Switches 200 GbE (IEEE 802.3)
✓ Compatível Requer modos FEC por especificação do switch GPU Direct RDMA
✓ Sim Série NVIDIA GPU (Volta, Ampere, Hopper, etc.) VMware vSphere 7.0/8.0
✓ Certificado Drivers nativos, suporte SR-IOV Linux (RHEL, Ubuntu, SLES)
✓ Suporte completo MLNX_OFED, drivers inbox disponíveis Windows Server 2019/2022
✓ Suportado Pacote de driver WinOF-2 Lista de Verificação do Comprador – Antes de Pedir o MCX653105A-HDAT
[ ] Confirme a velocidade de link necessária: porta única de 200 Gb/s corresponde aos requisitos de largura de banda do seu nó.
  • [ ] Verifique o slot PCIe do servidor: slot físico x16, Gen 4 recomendado para desempenho total de 200 Gb/s.
  • [ ] Selecione cabos ou transceptores QSFP56 apropriados (cobre passivo até 5m, AOC ou ópticos).
  • [ ] Verifique o suporte do driver do SO (versão OFED ou inbox).
  • [ ] Garanta que os requisitos de conformidade de criptografia sejam atendidos (XTS-AES, FIPS).
  • [ ] Avalie o resfriamento ambiental: adaptadores de alta velocidade podem exigir fluxo de ar direcionado.
  • Produtos Relacionados
Switches InfiniBand NVIDIA Quantum HDR

Deseja saber mais detalhes sobre este produto
Estou interessado em Adaptador Inteligente InfiniBand NVIDIA ConnectX-6 MCX653105A-HDAT de Porta Única de 200Gb/s com Criptografia de Hardware e PCIe 4.0 você poderia me enviar mais detalhes como tipo, tamanho, quantidade, material, etc.
Obrigado!
Esperando sua resposta.