Dram y NAND suben de precio por la IA y los centros de datos: claves, datos y lo que viene

Última actualización: 6 de octubre de 2025
Autor: Isaac
  • Samsung, Micron y SanDisk aplican subidas: DRAM hasta +30% y NAND entre +5% y +10%.
  • La IA y los centros de datos impulsan la demanda; HBM priorizada reduce DRAM convencional.
  • TrendForce detecta alzas semanales (DRAM +5,4%); TLC spot +5,44%; plazos hasta 10 semanas.
  • Se prevén tensiones hasta 2026 y más allá; planificar compras y alternativas es clave.

Memoria DRAM y NAND en centros de datos

El boom de la inteligencia artificial ha dado la vuelta al tablero del hardware: la memoria DRAM y la NAND han iniciado una escalada de precios que ya se nota desde el canal mayorista hasta el consumo. No hablamos de una subida tímida de final de ciclo, sino de un giro de mercado con fabricantes ajustando oferta, priorizando líneas más rentables y clientes adelantando compras para asegurar suministro.

Las señales llegan desde todos los frentes: Samsung ha aplicado incrementos notables, Micron ha avisado a sus clientes de nuevas alzas y SanDisk ya ha movido ficha en NAND. Se suma a ello el empuje de los centros de datos, la priorización de memorias HBM para aceleradores de IA y una cadena de suministro exigida al máximo. El resultado es un contexto de tensión entre oferta y demanda que adelanta más encarecimientos en los próximos meses.

Qué está pasando con los precios de DRAM y NAND

El movimiento más visible lo ha protagonizado Samsung, que ha elevado de forma significativa el precio de su memoria. En DRAM móvil, los productos LPDDR4X, LPDDR5 y LPDDR5X se han encarecido hasta un 30%, mientras que en la parte de NAND Flash para eMMC y UFS se manejan incrementos de entre el 5% y el 10%. Esta decisión llega en un contexto en el que la compañía mantiene una posición de liderazgo con cerca de un tercio de cuota en DRAM (32,7%) y NAND (32,9%), y acelera el desarrollo de la próxima generación, LPDDR6, con vistas a tener diseños listos pronto.

Samsung no está sola. Micron ha comunicado a su base de clientes subidas que oscilan entre el 20% y el 30% y, de hecho, ha dejado de aceptar nuevos pedidos en determinados tramos como medida para gestionar la disponibilidad. En paralelo, SanDisk ha aplicado un 10% de incremento en sus memorias NAND. Estas decisiones, que podrían extenderse a otros actores como SK hynix, dibujan un patrón claro: toda la cadena se está ajustando al alza impulsada por la IA, por centros de datos y por una oferta que no crece al mismo ritmo.

La situación no solo afecta a la DRAM móvil o a la NAND para dispositivos. Incluso la DDR4 ha sufrido repuntes de hasta el 50% en algunos tramos, lo que deja a DDR5 en una posición más atractiva si se mira coste/rendimiento para PC de sobremesa. El motivo de fondo no tiene misterio: los fabricantes están priorizando la producción de memorias de alto ancho de banda (HBM) por su mejor rentabilidad y su fuerte demanda para aceleradores de IA de NVIDIA y AMD, lo que deja menos capacidad para DRAM “convencional”.

En NAND, el impacto es también palpable. Los chips para almacenamiento en SSD y móviles acusan la presión de inventarios vigilados, contratos que se renegocian al alza y una demanda creciente en centros de datos que presiona el lado de la oferta. El cuadro general es el de un mercado que sube peldaños y se prepara para una fase prolongada de precios firmes.

Señales del mercado: datos recientes y comportamiento por tecnología

Los datos de consultoras especializadas refuerzan este relato. TrendForce ha señalado que el precio promedio de los módulos DRAM más populares subió un 5,4% en la última semana analizada, situándose en torno a los 6.359 dólares. Aunque pueda parecer una cifra llamativa, el mensaje de fondo es inequívoco: la escalada está en marcha y no es un episodio aislado.

Por tecnologías, DDR4 es la que está tensándose con más rapidez, con saltos semanales superiores al 11% en determinados casos. Incluso DDR3, pese a su veteranía, ha mostrado avances cercanos al 10%. DDR5 mantiene un crecimiento más contenido, pero con una dinámica igualmente positiva para los proveedores. Esta divergencia cuadra con la idea de que los fabricantes recortan la producción de generaciones antiguas para reorientar recursos hacia líneas de mayor margen o demanda.

  Diferencias entre la memoria DDR4, GDDR5, GDDR6, GDDR6X y HBM

En el terreno de la memoria flash NAND, el panorama es desigual. MLC y SLC apenas se han movido en el mercado spot, mientras que TLC repuntó un 5,44% en ese mismo mercado. Las expectativas de precios contractuales más altos en el corto plazo explican el comportamiento más cauteloso de los vendedores, que prefieren no liquidar stock a precios que consideran bajos cuando se esperan ajustes al alza.

Junto a los números, emerge otro indicador clave: los plazos de entrega se están alargando. Hay informes de que el lead time se extiende hasta 10 semanas para ciertos productos, lo que añade más tensión a integradores, centros de datos y distribuidores. En un entorno de demanda firme y oferta intervenida, anticiparse es casi obligado para evitar quedarse fuera del mercado.

Chips de memoria en placa base

IA y centros de datos: el gran motor de la subida

La inteligencia artificial no solo acapara foco mediático; también reconfigura la demanda de memoria. Durante la fase más intensa de entrenamiento de grandes modelos, la prioridad estuvo en GPU y HBM. Ahora, con el foco desplazándose progresivamente hacia la inferencia a escala, el volumen de datos crece y, con ello, lo hace la necesidad de almacenamiento masivo y rápido en la nube. Este giro amplifica la presión sobre DRAM y NAND de propósito general.

En la práctica, los centros de datos están extendiendo sus arquitecturas de almacenamiento con capas como el nearline, que vive a medio camino entre el acceso caliente y el archivo frío. Se usa para versiones de modelos menos recientes, consultas y datasets no tan frecuentes, y encaja perfecto cuando el objetivo es contener costes sin perder disponibilidad. Con planes de expansión en marcha, esta capa gana peso, y con ella, la demanda de NAND empresarial.

A esta presión se suma que los fabricantes están priorizando HBM por su rentabilidad y por el tirón de aceleradores de IA, lo que deja menos wafers para DRAM estándar y añade cuellos de botella. La priorización tiene lógica financiera, pero encarece el resto de memorias y reordena las hojas de ruta de producto en toda la industria.

El efecto arrastra a otros actores del almacenamiento. Western Digital ya ha confirmado subidas en HDD, con una aplicación gradual y sin cifra cerrada, mientras que en SSD se barajan alzas de entre el 10% y el 30%, dependiendo del fabricante. La proyección más conservadora habla de que podríamos tocar un pico de precio en 2026 si se mantiene la tendencia actual y se confirma una escasez de suministro a principios de ese año.

Y hay avisos más contundentes desde el lado de los proveedores de controladoras: Pua Khein-Seng (Phison) sostiene que la industria de NAND Flash podría enfrentarse a una escasez prolongada durante la próxima década por el llamado “superciclo” de memoria. Tras años de precios deprimidos y menos inversión, y con más capital desviado a HBM por su atractivo de margen, la capacidad de NAND ha quedado corta justo cuando la demanda vuelve a dispararse.

DDR4, DDR5, LPDDR y HBM: quién gana y quién pierde

Si miramos por segmentos, el reparto de ganadores y perdedores es claro. DDR4 sufre mayores tensiones por ser la generación con producción recortada y demanda aún viva en muchos parques instalados. Esto empuja su precio y le resta atractivo frente a DDR5, que, aunque también sube, lo hace con una trayectoria más suave y ofrece mejor relación rendimiento/coste en nuevas plataformas.

En movilidad, la foto es similar: LPDDR4X, LPDDR5 y LPDDR5X acumulan crecientes listas de pedidos y, con la subida de hasta el 30% aplicada por Samsung, dispositivos como smartphones, tablets, consolas portátiles y portátiles con RAM soldada podrían encarecerse. Al estar soldada, la memoria limita cualquier ajuste en la configuración final, lo que presiona a los fabricantes de equipos a replantear BOM y márgenes.

  Memoria RAM de grafeno PoX: qué es, cómo funciona y por qué puede cambiarlo todo

En el mundo de los aceleradores de IA y servidores de alto rendimiento, la HBM se lleva el protagonismo gracias a su ancho de banda masivo, pero su auge implica menos capacidad disponible para DRAM convencional. Esta reasignación está detrás de plazos de entrega más largos y de revisiones de precio que afectan a RDIMM, LRDIMM y módulos específicos de servidor.

Para el almacenamiento, la NAND TLC marca la pauta del mercado de consumo y buena parte del empresarial, de ahí que sus repuntes en el mercado spot (+5,44%) se sigan con lupa. MLC y SLC muestran menos volatilidad, pero el mercado contractual ya anticipa precios al alza a corto plazo, lo que frena las ventas oportunistas y favorece la contención de inventarios.

Emergen, además, tecnologías no volátiles como MRAM o ReRAM para escenarios de estado persistente e inicialización rápida en el edge. No van a sustituir a la NAND a corto plazo, pero amplían el abanico y plantean nuevas combinaciones en sistemas donde cada vatios y cada milisegundo cuentan.

Hoja de ruta, concentración geográfica y riesgos de cadena de suministro

La hoja de ruta tecnológica se está reescribiendo con foco en eficiencia y ancho de banda. Samsung acelera LPDDR6 para responder a la demanda futura, mientras Micron y SK hynix ajustan capacidad y precios. Aunque estas novedades prometen mejoras de rendimiento y coste por bit, no resuelven de inmediato el cuello de botella de hoy.

La concentración geográfica juega un papel enorme. Corea del Sur domina DRAM, Taiwán lidera el packaging avanzado y Japón aporta materiales y memorias especializadas. Este mapa implica riesgos: tensiones geopolíticas, controles de exportación, cuellos de botella en equipos críticos como la litografía EUV y posibles escaseces de materiales (gases, fotorresistencias), todo lo cual puede ralentizar entregas y elevar costes.

Por si fuera poco, la memoria ha sido históricamente un mercado de altísima ciclicidad; la diferencia ahora es que la IA se ha convertido en demanda estructural. Esa mezcla hace plausibles escenarios en los que la oferta no consigue ponerse al día en el corto plazo, especialmente si la inversión nueva se concentra en nodos y productos de mayor margen (HBM) en detrimento de generaciones previas.

Todo ello cuadra con el diagnóstico del “superciclo” de memoria: años de inversión contenida, cambios de mix productivo y un tirón sostenido de la IA que empuja hacia arriba precios y plazos. El resultado es previsible: más prudencia a la hora de comprometer capacidad, contratos más duros y menos hueco para ofertas agresivas en el canal.

Impacto en fabricantes de equipos, integradores y consumidores

Para los OEM e integradores, el coste de la memoria pasa a ser variable clave de P&L. En PC y estaciones de trabajo, el consejo práctico es claro: priorizar plataformas DDR5 cuando sea viable y revisar la configuración de capacidad/canales para exprimir el rendimiento sin disparar la factura. En dispositivos móviles y ultraligeros con RAM soldada, la gestión del BOM y los lanzamientos por lotes pueden marcar la diferencia.

En servidores, el salto a modelos de IA con más parámetros e inferencia 24/7 invita a reforzar la planificación de DRAM (RDIMM/LRDIMM) y a asegurar contratos de SSD empresariales con margen temporal. El nearline está ganando terreno como buffer de costes, y el mix entre NVMe de alto rendimiento y capas de almacenamiento de menor coste será palanca clave de eficiencia.

Para el usuario final, el mensaje es menos técnico, pero igual de claro: si necesitas ampliar RAM o comprar un SSD, adelantar la compra puede evitar sustos. El ciclo estacional que solía abaratar memoria hacia final de año está patas arriba; de hecho, hay voces que prevén subidas en vez de bajadas en ese periodo por la demanda de IA y los ajustes de oferta.

En el ecosistema de distribuidores, los plazos de entrega extendidos obligan a afinar previsiones y a trabajar con cuotas de compra escalonadas. Quien no planifique con antelación podría quedarse sin stock justo en el pico de demanda, o verse forzado a comprar más caro para no fallar a sus clientes.

  Discos duros híbridos (SSHD): ¿Merecen la pena?

Diseño de producto: la memoria primero, la CPU/GPU después

Una consecuencia directa de esta tormenta perfecta es que el diseño de hardware ahora se define por la memoria. En los flujos clásicos, elegías CPU o GPU y, a continuación, cuadrabas la memoria. Hoy, con cargas de IA dominando el roadmap, esa secuencia se invierte: eliges memoria, ancho de banda y topología y eso condiciona el resto del sistema.

Si optas por GDDR6/GDDR7 para inferencia acelerada, tendrás que contemplar rielado de potencia dedicado, trazados complejos y consideraciones térmicas y EMI más exigentes. Si eliges LPDDR5/LPDDR5X en el edge, ganarás en eficiencia, pero limitas el ancho de banda y el tamaño de modelo que puedes mover. La HBM rinde como un tiro, pero exige empaquetado avanzado y, a menudo, soluciones de refrigeración de cámara de vapor o incluso líquida, elevando el coste total del sistema.

Además, la compatibilidad no es solo una cuestión eléctrica. Tiene que cuadrar ancho de banda, latencia y paralelismo con el perfil de carga real. Una elección de memoria desalineada puede infrautilizar aceleradores caros, inflar el consumo o encorsetar futuras actualizaciones. Por eso, cada vez más equipos están definiendo huellas e interfaces de memoria antes de que firmware y modelos de software estén cerrados, y acompañan con simulación temprana de acceso y rendimiento.

La colaboración entre hardware, software y supply chain ya no es un “nice to have”. Es lo que permite identificar alternativas de componente, mitigar obsolescencias y pilotar el producto en medio de un mercado volátil. Herramientas que favorecen la inteligencia de componentes y el trabajo en tiempo real acortan ciclos y reducen re-trabajos cuando cambian las hojas de ruta de memoria.

Precios hacia 2026 y más allá: qué esperar

Las señales coinciden: subidas graduales y sostenidas en DRAM y NAND a lo largo del próximo tramo de ciclo. Hay lecturas que sitúan los picos alrededor de 2026, con tensiones puntuales de suministro al comienzo del año si no se acelera la capacidad. En el caso de SSD, se habla de incrementos del 10% al 30% según fabricante y gama, y de un encarecimiento progresivo en HDD que podría empujar al sector a una adopción mayor de SSD en centro de datos.

En paralelo, hay previsiones de que el coste de SSD de servidor converja con HDD en un horizonte de cinco a ocho años, acelerando el declive del disco mecánico en entornos empresariales. Si esa transición se confirma, la demanda de NAND mantendría un crecimiento sostenido hasta bien entrada la próxima década, reforzando el escenario de precios firmes.

En el corto plazo, fabricantes como Micron han indicado que irán trasladando subidas a lo largo del año conforme repunta la demanda en SSD y módulos de RAM para centros de datos. En productos finales, eso podría cristalizar en alzas cercanas al 10% de aquí al cierre del ejercicio, con variaciones por segmento y región. No parece un salto abrupto, pero sí una normalización al alza frente a precios que habían caído mucho en ciclos anteriores.

Mientras tanto, Samsung mantiene la presión desde su liderazgo, impulsa su hoja de ruta de LPDDR6 y reajusta el mix productivo hacia líneas que sostienen el margen. En ese equilibrio delicado entre oferta, demanda y prioridades de inversión se jugará buena parte del recorrido de precios de memoria en los próximos trimestres.

Para quien compra, integra o diseña con memoria, la mejor estrategia ahora es poner la tirita antes de la herida: revisar inventarios críticos, adelantar adquisiciones clave, validar segundas fuentes y planificar con realismo los plazos. No pinta a aflojar en el corto plazo, y quienes se adelanten tendrán ventaja competitiva cuando la marea suba otro punto.

Kioxia 245.76 tb ssd
Artículo relacionado:
SSD KIOXIA LC9 de 245,76 TB: revolución en almacenamiento empresarial