logo
Inicio Casos

WEKA integra NeuralMesh con NVIDIA STX para abordar los cuellos de botella de memoria en la inferencia de IA

Certificación
China Beijing Qianxing Jietong Technology Co., Ltd. certificaciones
China Beijing Qianxing Jietong Technology Co., Ltd. certificaciones
Comentarios de cliente
El personal de ventas de la tecnología Co., Ltd de Pekín Qianxing Jietong es muy profesional y paciente. Pueden proporcionar citas rápidamente. La calidad y el empaquetado de los productos son también muy buenos. Nuestra cooperación es muy lisa.

—— LLC del》 de Festfing DV del 《

Cuando buscaba la CPU de Intel y el SSD de Toshiba urgente, Sandy de la tecnología Co., Ltd de Pekín Qianxing Jietong me dio mucha ayuda y me consiguió los productos que necesité rápidamente. La aprecio realmente.

—— Kitty Yen

Sandy de la tecnología Co., Ltd de Pekín Qianxing Jietong es un vendedor muy cuidadoso, que puede recordarme errores de la configuración a tiempo cuando compro un servidor. Los ingenieros son también muy profesionales y pueden terminar rápidamente el proceso de prueba.

—— Strelkin Mikhail Vladimirovich

Estamos muy contentos con nuestra experiencia trabajando con Beijing Qianxing Jietong. La calidad del producto es excelente y la entrega siempre es puntual. Su equipo de ventas es profesional, paciente y muy útil con todas nuestras preguntas. Realmente apreciamos su apoyo y esperamos una asociación a largo plazo. ¡Muy recomendado!

—— Ahmad Navid

Calidad: “Gran experiencia con mi proveedor. El MikroTik RB3011 ya estaba usado, pero estaba en muy buen estado y todo funcionaba perfectamente.y todas mis preocupaciones fueron abordadas rápidamenteUn proveedor muy confiable, muy recomendable.

—— Geran Colesio

Estoy en línea para chatear ahora

WEKA integra NeuralMesh con NVIDIA STX para abordar los cuellos de botella de memoria en la inferencia de IA

April 10, 2026
WEKA ha anunciado la integración de su plataforma NeuralMesh con la arquitectura de referencia NVIDIA STX,por la que se establece su red de memoria aumentada como un elemento clave de la infraestructura de IA de próxima generaciónLa solución combinada aborda uno de los cuellos de botella más importantes en entornos de inferencia a gran escala: limitaciones de memoria que afectan directamente al rendimiento, el coste total de propiedad, la capacidad de almacenamiento y la capacidad de almacenamiento.y crecimiento escalable.

Operando a través de NeuralMesh, WEKA's Augmented Memory Grid amplía la memoria de la GPU al externalizar y persistir caches de valor clave.Esta arquitectura ofrece almacenamiento de memoria de contexto de alto rendimiento para cargas de trabajo de IA agenteSegún la compañía, las configuraciones que combinan los sistemas NVL72 de NVIDIA Vera Rubin, las DPU BlueField-4,y el Ethernet Spectrum-X puede aumentar el rendimiento del token de memoria contextual de 4x a 10xTambién se proyecta que la plataforma ofrezca al menos 320 GB/s de lectura y 150 GB/s de escritura, más del doble del rendimiento de las arquitecturas tradicionales de almacenamiento de IA.

último caso de la compañía sobre WEKA integra NeuralMesh con NVIDIA STX para abordar los cuellos de botella de memoria en la inferencia de IA  0

La infraestructura de memoria se convierte en el cuello de botella de la inferencia


WEKA centra esta integración en el creciente desafío de la pared de memoria en las implementaciones modernas de IA.que conduce a un recomputo repetido y a una disminución de la eficiencia operativaA medida que aumenta la concurrencia del sistema, estas ineficiencias se multiplican, aumentando los gastos de infraestructura y reduciendo la previsibilidad del rendimiento.

La compañía promueve la infraestructura de caché KV compartida como la solución.El almacenamiento en caché compartido elimina el procesamiento redundante y estabiliza el rendimiento del token. NVIDIA STX proporciona la arquitectura de referencia validada para este modelo, mientras que WEKA ofrece la capa de extensión de almacenamiento y memoria.

NeuralMesh y la arquitectura de cuadrícula de memoria aumentada


NeuralMesh actúa como la plataforma de almacenamiento distribuido de WEKA, construida para integrarse a la perfección en toda la pila NVIDIA STX.mientras que la Rejilla de Memoria Aumentada sirve como una capa de expansión de memoria dedicada que consolida el caché KV fuera de la memoria GPU.

Este diseño permite a los entornos de inferencia sostener sesiones de contexto largo sin sobrecargar los recursos de la GPU.La plataforma mantiene una alta utilización y un rendimiento constante a medida que las implementaciones aumentan.

WEKA señala que la Red de Memoria Aumentada, presentada por primera vez en GTC 2025 y ahora generalmente disponible, ha sido validada en plataformas de CPU NVIDIA Grace emparejadas con DPUs BlueField.La arquitectura ofrece ganancias mensurables en la eficiencia de la inferencia, incluido un tiempo de primer token drásticamente más rápido, un mayor rendimiento por token de GPU y un rendimiento estable bajo una mayor concurrencia.La descarga de la ruta de datos a BlueField-4 también reduce la sobrecarga de la CPU y alivia los cuellos de botella de I / O.

Aumentos en el rendimiento y la eficiencia


En entornos similares a la producción, la plataforma está diseñada para mejorar la capacidad de respuesta y la eficiencia de la infraestructura.WEKA afirma que la Rejilla de Memoria Aumentada puede reducir el tiempo hasta el primer token de 4x a 20xEstas mejoras provienen de tasas de éxito de caché KV más altas y menos ciclos de recomputo.permitir que los sistemas mantengan el rendimiento a medida que aumentan los tamaños de contexto y el número de usuarios.

Firmus, un proveedor de infraestructura de IA, se destaca como uno de los primeros en aprovechar NeuralMesh con infraestructura basada en NVIDIA.,con ganancias provenientes de un uso más eficiente de las GPU existentes en lugar de implementaciones de hardware adicionales.

Implicaciones para el diseño de infraestructuras de IA


Esta integración destaca un cambio en el diseño del sistema de IA, donde las estrategias de memoria y almacenamiento definen cada vez más el rendimiento general y la eficiencia de costos.A medida que las cargas de trabajo de IA agente se expanden y las ventanas de contexto se ensanchan, los enfoques basados únicamente en DRAM se vuelven insostenibles debido al aumento de los costos de recomputo y a las GPU infrautilizadas.

WEKA posiciona la caché KV compartida y persistente como una capacidad fundamental para las fábricas de IA.menor consumo de energía por tarea de inferenciaPor el contrario, los entornos que dependen exclusivamente de la memoria local de la GPU probablemente enfrentarán costos operativos crecientes y rendimientos decrecientes a medida que crecen las cargas de trabajo.

China, China, China, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón, Japón.
Sandy Yang, directora de estrategia global
WhatsApp / WeChat: +86 13426366826 El número de teléfono es:
Correo electrónico: yangyd@qianxingdata.com
El sitio web: www.qianxingdata.com/www.storagesserver.com
Enfoque en el negocio:
Distribución de productos TIC/Integración de sistemas y servicios/Soluciones de infraestructura
Con más de 20 años de experiencia en distribución de TI, nos asociamos con las principales marcas globales para ofrecer productos confiables y servicios profesionales.
“Usar la tecnología para construir un mundo inteligente”¡Su proveedor de servicios de productos TIC de confianza!
Contacto
Beijing Qianxing Jietong Technology Co., Ltd.

Persona de Contacto: Ms. Sandy Yang

Teléfono: 13426366826

Envíe su pregunta directamente a nosotros (0 / 3000)