Sony y AMD han demostrado que la potencia de cálculo es esencial para entrenar redes neuronales, pero la verdadera limitación reside en la cantidad de memoria disponible. Cuanta más RAM y VRAM tenga un sistema, más modelos complejos podremos cargar y procesar simultáneamente. En entornos de inferencia y entrenamiento de inteligencia artificial, disponer de decenas de terabytes de memoria ofrece una ventaja crítica que hasta ahora ha sido muy difícil de alcanzar.

El auge de la IA generativa ha disparado la necesidad de almacenar enormes parámetros y volúmenes de datos. A diferencia de los primeros desarrollos de machine learning, que se centraban en tareas muy acotadas, las soluciones actuales requieren un conocimiento transversal a partir de ingentes cantidades de contenido. Desde generadores de imágenes hasta procesadores de lenguaje natural, el hardware debe absorber y manipular conjuntos con cientos de millones de parámetros.

Aunque la industria lleva tiempo explorando módulos de memoria especializados, la falta de VRAM sigue siendo un cuello de botella. Próximamente, la tecnología HBM de SanDisk promete elevar la capacidad en tarjetas gráficas hasta los 4 TB, pero de momento sigue en fase de validación. Para cubrir el déficit de RAM, la startup Enfabrica, respaldada por NVIDIA, ha presentado Emfasys, un sistema que extiende la memoria DDR5 hasta 18 TB mediante un pool compartido sobre Ethernet.

Emfasys se basa en la tarjeta ACF-S SuperNIC, capaz de alcanzar anchos de banda de 3,2 TB/s. Gracias a esta SuperNIC es posible gestionar un banco masivo de módulos DDR5 instalados en racks de servidor. El hardware se conecta a través de enlaces Ethernet de alta velocidad (100 GbE, 200 GbE, 400 GbE u 800 GbE) y emplea RDMA (Remote Direct Memory Access) para garantizar transferencias en microsegundos con mínima intervención de la CPU.

La memoria DDR5 compartida funciona como una extensión de la VRAM de las GPUs conectadas al mismo rack. Mediante CXL DRAM, los controladores de Emfasys habilitan el acceso directo a este pool desde sistemas configurados con cuatro u ocho tarjetas gráficas. El resultado es una ampliación drástica de la capacidad de procesamiento en tareas de IA, sin necesidad de incorporar costosas GPUs con memorias excesivas.

Más allá del hardware, Emfasys incluye un stack de software que orquesta la asignación de bloques de memoria y supervisa la calidad del servicio. Este software gestiona la latencia, prioriza peticiones críticas y asegura que el pool DDR5 actúe como si fuese RAM local de cada nodo de cómputo. De esta forma, los entrenamientos distribuidos y las fases de inferencia aprovechan al máximo el ancho de banda disponible.

Para las grandes compañías, contar con un sistema de memoria escalable significa reducir tiempos de entrenamiento y aumentar la complejidad de los modelos sin disparar los costes. Enfabrica ya ha comenzado a validar Emfasys en laboratorios de socios estratégicos, comprobando mejoras de rendimiento en cargas de trabajo que combinan lectura/​escritura intensivas y acceso aleatorio a grandes volúmenes de datos.

El enfoque de Enfabrica complementa otras iniciativas del mercado, como las futuras memorias HBM de SanDisk o los avances en interconexión de GPU de NVIDIA. Sin embargo, su propuesta única radica en aprovechar la infraestructura Ethernet existente y convertirla en una red de memoria compartida, lista para escalar hasta decenas de terabytes.

En un contexto donde la inteligencia artificial evoluciona a gran velocidad, disponer de un pool masivo de DDR5 conectado por RDMA abre nuevas posibilidades. Desde entrenar modelos multimodales gigantescos hasta ejecutar inferencias complejas en tiempo real, Emfasys se perfila como una solución innovadora para eliminar la barrera de la memoria en la próxima generación de centros de datos de IA.


SEO para WordPress

  • Slug: emfasys-enfabrica-ddr5-18tb-ethernet-ia
  • Meta descripción: Descubre Emfasys de Enfabrica, la solución que extiende la memoria DDR5 hasta 18 TB vía Ethernet con RDMA para potenciar GPUs en inteligencia artificial.
  • Palabras clave: Enfabrica, Emfasys, memoria DDR5, IA generativa, pool de memoria Ethernet, RDMA, SuperNIC, NVIDIA
  • Texto alternativo para imagen destacada: “Servidor con GPUs y pool de memoria DDR5 Emfasys conectado por Ethernet”
  • Categoría: Tecnología / Inteligencia Artificial / Hardware
  • Etiquetas: Emfasys, Enfabrica, memoria DDR5, RDMA, IA generativa, SuperNIC, NVIDIA, hardware IA## Titular SEO-Friendly
    Emfasys de Enfabrica: hasta 18 TB de memoria DDR5 vía Ethernet para potenciar GPUs en IA

Sony y AMD han demostrado que la potencia de cálculo es esencial para entrenar redes neuronales, pero la verdadera limitación reside en la cantidad de memoria disponible. Cuanta más RAM y VRAM tenga un sistema, más modelos complejos podremos cargar y procesar simultáneamente. En entornos de inferencia y entrenamiento de inteligencia artificial, disponer de decenas de terabytes de memoria ofrece una ventaja crítica que hasta ahora ha sido muy difícil de alcanzar.

El auge de la IA generativa ha disparado la necesidad de almacenar enormes parámetros y volúmenes de datos. A diferencia de los primeros desarrollos de machine learning, que se centraban en tareas muy acotadas, las soluciones actuales requieren un conocimiento transversal a partir de ingentes cantidades de contenido. Desde generadores de imágenes hasta procesadores de lenguaje natural, el hardware debe absorber y manipular conjuntos con cientos de millones de parámetros.

Aunque la industria lleva tiempo explorando módulos de memoria especializados, la falta de VRAM sigue siendo un cuello de botella. Próximamente, la tecnología HBM de SanDisk promete elevar la capacidad en tarjetas gráficas hasta los 4 TB, pero de momento sigue en fase de validación. Para cubrir el déficit de RAM, la startup Enfabrica, respaldada por NVIDIA, ha presentado Emfasys, un sistema que extiende la memoria DDR5 hasta 18 TB mediante un pool compartido sobre Ethernet.

Emfasys se basa en la tarjeta ACF-S SuperNIC, capaz de alcanzar anchos de banda de 3,2 TB/s. Gracias a esta SuperNIC es posible gestionar un banco masivo de módulos DDR5 instalados en racks de servidor. El hardware se conecta a través de enlaces Ethernet de alta velocidad (100 GbE, 200 GbE, 400 GbE u 800 GbE) y emplea RDMA (Remote Direct Memory Access) para garantizar transferencias en microsegundos con mínima intervención de la CPU.

La memoria DDR5 compartida funciona como una extensión de la VRAM de las GPUs conectadas al mismo rack. Mediante CXL DRAM, los controladores de Emfasys habilitan el acceso directo a este pool desde sistemas configurados con cuatro u ocho tarjetas gráficas. El resultado es una ampliación drástica de la capacidad de procesamiento en tareas de IA, sin necesidad de incorporar costosas GPUs con memorias excesivas.

Más allá del hardware, Emfasys incluye un stack de software que orquesta la asignación de bloques de memoria y supervisa la calidad del servicio. Este software gestiona la latencia, prioriza peticiones críticas y asegura que el pool DDR5 actúe como si fuese RAM local de cada nodo de cómputo. De esta forma, los entrenamientos distribuidos y las fases de inferencia aprovechan al máximo el ancho de banda disponible.

Para las grandes compañías, contar con un sistema de memoria escalable significa reducir tiempos de entrenamiento y aumentar la complejidad de los modelos sin disparar los costes. Enfabrica ya ha comenzado a validar Emfasys en laboratorios de socios estratégicos, comprobando mejoras de rendimiento en cargas de trabajo que combinan lectura/​escritura intensivas y acceso aleatorio a grandes volúmenes de datos.

El enfoque de Enfabrica complementa otras iniciativas del mercado, como las futuras memorias HBM de SanDisk o los avances en interconexión de GPU de NVIDIA. Sin embargo, su propuesta única radica en aprovechar la infraestructura Ethernet existente y convertirla en una red de memoria compartida, lista para escalar hasta decenas de terabytes.

En un contexto donde la inteligencia artificial evoluciona a gran velocidad, disponer de un pool masivo de DDR5 conectado por RDMA abre nuevas posibilidades. Desde entrenar modelos multimodales gigantescos hasta ejecutar inferencias complejas en tiempo real, Emfasys se perfila como una solución innovadora para eliminar la barrera de la memoria en la próxima generación de centros de datos de IA.