La reciente decisión de Nvidia de hacerse con SchedMD, la empresa responsable del desarrollo de Slurm, se ha convertido en uno de los movimientos más comentados en el sector de la computación de alto rendimiento y la inteligencia artificial. La operación, cuyos términos económicos no se han hecho públicos, llega en un contexto de fuerte competencia y dudas sobre una posible burbuja en torno a la IA, con un mercado muy pendiente de cada paso del gigante de los chips.
Este acuerdo no solo consolida la posición de Nvidia en el terreno del hardware, donde ya dominaba con sus GPU, sino que amplía su alcance hacia la capa de software que gestiona y orquesta las cargas de trabajo en superordenadores y grandes centros de datos. Slurm, pieza central de SchedMD, es hoy una herramienta crítica para universidades, laboratorios públicos y empresas tecnológicas de todo el mundo, incluida Europa.
Qué es SchedMD y por qué Slurm es tan importante
SchedMD, fundada en 2010 en Livermore (California) por los desarrolladores de Slurm Morris «Moe» Jette y Danny Auble, se ha especializado en un nicho muy concreto pero decisivo: la programación y gestión de trabajos masivos en clústeres de cálculo. Con una plantilla de unas 40 personas, la compañía ha construíd o su negocio en torno a Slurm, software de código abierto ampliamente adoptado en el ecosistema HPC.
Slurm funciona como un gestor de colas y asignador de recursos en infraestructuras donde conviven miles de CPUs y GPUs. Su papel es decidir qué trabajo se ejecuta, dónde y durante cuánto tiempo, maximizando el uso de la capacidad disponible. En la práctica, esto es clave para que los centros de datos no tengan máquinas paradas mientras se entrenan modelos de IA o se ejecutan complejas simulaciones científicas.
Según datos citados por Nvidia, más de la mitad de los 10 y de los 100 superordenadores más potentes del listado TOP500 utilizan Slurm como sistema de gestión de cargas. Este nivel de adopción sitúa al software de SchedMD como una especie de estándar de facto en supercomputación, también en infraestructuras europeas punteras.
La empresa ha monetizado este proyecto de código abierto mediante servicios de soporte, consultoría y mantenimiento, ofreciendo ayuda técnica a organizaciones que dependen de Slurm para planificar enormes volúmenes de trabajo de entrenamiento e inferencia de IA, así como simulaciones científicas de gran escala.

Impacto en España y Europa: el papel del Barcelona Supercomputing Center
La relevancia de esta operación también se deja notar en Europa. Entre los clientes destacados de SchedMD figura el Barcelona Supercomputing Center – Centro Nacional de Supercomputación (BSC), referencia en computación de alto rendimiento en España y uno de los nodos clave en la estrategia europea para la IA y la supercomputación.
El uso de Slurm en instalaciones como el BSC y otros centros europeos de HPC permite coordinar el acceso a grandes clústeres de GPU para proyectos científicos, industriales y de IA generativa. Desde simulaciones climáticas y modelización de materiales hasta el entrenamiento de modelos de lenguaje, estos entornos dependen de una planificación muy fina de los recursos para que los miles de trabajos en cola avancen sin bloquear el sistema.
Con SchedMD ahora bajo el paraguas de Nvidia, cobra especial interés cómo se mantendrá el carácter abierto, neutral y multi-hardware de Slurm en un ecosistema europeo donde conviven distintos fabricantes de chips y soluciones de nube. Nvidia ha insistido en que seguirá distribuyendo Slurm como herramienta de código abierto e independiente de proveedor, pero la industria estará atenta a la evolución real del proyecto.
Para la comunidad investigadora y el tejido tecnológico de la Unión Europea, que apuestan por infraestructuras compartidas y estándares abiertos, la continuidad de Slurm como pieza interoperable y no cerrada resulta especialmente relevante. El software está integrado en múltiples proyectos de supercomputación paneuropeos, por lo que cualquier cambio de rumbo tendría efectos amplios.
Estrategia de Nvidia: del chip al control de la infraestructura
La compra de SchedMD encaja en una dinámica más amplia en la que Nvidia refuerza todos los eslabones de la cadena de valor de la IA. Tradicionalmente, la compañía ha sido conocida por la potencia de sus GPU, pero en los últimos años ha ido ganando peso el componente software como elemento diferenciador frente a competidores como AMD o Intel.
En el centro de esta estrategia está CUDA (Compute Unified Device Architecture), la plataforma propietaria de computación paralela de Nvidia que se ha convertido en estándar de facto para muchos desarrolladores de IA. Al facilitar bibliotecas, herramientas y un ecosistema completo, CUDA ha creado un fuerte efecto de bloqueo: cuanto más se desarrolla sobre esta plataforma, más costoso resulta migrar a otra.
La integración de Slurm dentro del universo Nvidia amplía esa influencia hacia la capa de orquestación de cargas de trabajo. No se trata solo de vender tarjetas gráficas, sino de participar en la decisión de cómo se usan esos recursos a gran escala, algo que algunos analistas describen como convertirse en una suerte de “director de tráfico” de la potencia de cómputo global para IA.
Fuentes del sector interpretan este movimiento como una forma de reforzar el “foso competitivo” de la compañía: frente a la proliferación de modelos abiertos y alternativas de hardware, Nvidia intenta asegurar que, en la práctica, gran parte de la infraestructura crítica de IA siga pasando por su ecosistema de software y herramientas.
Slurm como pieza clave en la IA generativa y la supercomputación
En el anuncio de la operación, Nvidia subraya que las cargas de trabajo de HPC e IA requieren coordinar tareas altamente paralelas en grandes clústeres. A medida que estos sistemas crecen en tamaño y en complejidad, aprovechar al máximo cada GPU se vuelve esencial para contener costes y evitar cuellos de botella.
Slurm, optimizado ya para el hardware más reciente de Nvidia, se ha consolidado como parte central de la infraestructura necesaria para la IA generativa. Los desarrolladores de modelos fundacionales —grandes modelos de lenguaje, sistemas de visión o modelos multimodales— recurren a este software para gestionar tanto el entrenamiento inicial como las tareas de inferencia posteriores en producción.
La herramienta se encarga de funciones como la planificación de trabajos, la asignación de GPU, el manejo de colas y la aplicación de políticas sobre qué usuario o proyecto tiene prioridad. Este nivel de control resulta fundamental en contextos donde la demanda de recursos supera ampliamente la capacidad disponible en ciertos momentos.
En entornos académicos y en centros públicos de investigación europeos, el uso de Slurm se ha generalizado precisamente por esa combinación de flexibilidad, rendimiento y modelo abierto. La adquisición por parte de Nvidia no altera de inmediato estas características, pero sí sitúa la evolución futura del proyecto en manos de un actor con intereses claros en mantener su liderazgo en IA.
Compromiso con el código abierto y dudas sobre la neutralidad
Tanto en su blog corporativo como en los comunicados posteriores, Nvidia ha insistido en que planea seguir desarrollando y distribuyendo Slurm como software de código abierto y con independencia de proveedor. La compañía afirma que apoyará un ecosistema diverso de hardware y software, acelerando al mismo tiempo el acceso de SchedMD a nuevos sistemas.
Este mensaje busca tranquilizar a una base de usuarios muy sensible a cualquier intento de cerrar herramientas clave o vincularlas en exceso a un solo fabricante. Muchos superordenadores en Europa integran hardware variado y planifican sus adquisiciones con criterios de soberanía tecnológica, por lo que un giro hacia una solución demasiado vinculada a Nvidia podría generar resistencias.
Al mantener el modelo abierto, Nvidia puede beneficiarse de la amplia adopción de Slurm sin romper el equilibrio actual, a la vez que introduce optimizaciones específicas para sus GPU. Este enfoque le permite reforzar su posición en los entornos más avanzados de IA sin prohibir, al menos sobre el papel, el uso de otras arquitecturas bajo el mismo gestor de cargas.
Para la comunidad europea de HPC, acostumbrada a desarrollar y mantener proyectos de software científico abiertos, será clave observar cómo evoluciona la gobernanza de Slurm, el ritmo de desarrollo y la forma en que se gestionan las contribuciones externas tras la integración en Nvidia.
Contexto de mercado: volatilidad bursátil y ola de inversiones en IA
El anuncio de la compra de SchedMD llegó en un momento en el que las acciones de Nvidia registraban cierto rebote después de varios días de caídas ligadas al debate sobre una posible burbuja de IA en los mercados. Tras hacerse pública la operación y presentar nuevos modelos de IA de código abierto, el valor subió alrededor de un 1,3%-1,5% en la sesión, manteniendo a la compañía como la de mayor capitalización bursátil del mundo.
Esta transacción se suma a una intensa actividad inversora en el ámbito de la inteligencia artificial y los centros de datos. Nvidia ha participado en grandes operaciones de financiación de empresas de IA, ha entrado en el capital de compañías tecnológicas y se ha unido a consorcios para adquirir operadores de centros de datos a gran escala, consolidando su presencia en todo el ciclo de vida de la computación para IA.
Aunque la adquisición de SchedMD sea más modesta en tamaño que otras inversiones, su impacto estratégico es significativo: el control de una herramienta crítica para la planificación de recursos en supercomputación otorga a Nvidia mayor peso en las decisiones técnicas que toman proveedores de nube, instituciones académicas y grandes corporaciones tecnológicas.
En Europa, donde el despliegue de supercomputadores y plataformas de IA financiadas con fondos comunitarios busca reforzar la autonomía tecnológica, estos movimientos de concentración en torno a un único actor serán observados con detalle por reguladores, responsables de compras públicas y comunidades científicas.
La adquisición de SchedMD por Nvidia refuerza la tendencia de concentración de poder en torno a los grandes proveedores de IA: el fabricante de GPU da un paso más para controlar no solo el hardware, sino también el software que organiza el uso de la potencia de cálculo, en un escenario en el que centros como el Barcelona Supercomputing Center y otros nodos europeos seguirán dependiendo de herramientas como Slurm para sacar todo el partido a sus infraestructuras.
