- La explosión de la IA ha provocado una crisis de hardware sin precedentes, encareciendo GPU, RAM y almacenamiento y desviando producción del mercado de consumo.
- Los mercados financieros viven una nueva burbuja tecnológica ligada a la IA, con paralelismos a las puntocom y fuerte presión sobre el software tradicional.
- Riesgos sistémicos como el efecto 2038 y los apagones por fallos de proveedores muestran la fragilidad de una infraestructura muy concentrada.
- Los departamentos de IT afrontan simultáneamente ciberamenazas crecientes, costes en la nube, sistemas heredados y una grave escasez de talento especializado.

Las crisis informáticas y tecnológicas ya no son hechos aislados que aparecen de vez en cuando: forman una especie de hilo conductor que atraviesa la historia reciente de la economía digital. Desde el bug del Efecto 2000 hasta el apagón global provocado por un simple parche de seguridad, pasando por burbujas financieras ligadas a Internet, a las criptomonedas y ahora a la Inteligencia Artificial, cada sacudida deja en evidencia lo dependientes que somos de unos pocos proveedores y de una infraestructura cada día más compleja.
En los últimos años, el mundo ha encadenado pandemia, disrupciones de hardware, auge de la nube e IA, nuevas normas de ciberseguridad y amenazas masivas. Esto ha desembocado en un escenario donde confluyen tres planos: la economía (burbuja de la IA y tensiones en bolsa), la tecnología de base (chips, memoria, centros de datos, sistemas heredados) y la gestión del riesgo (ciberataques, caídas globales, efecto 2038). Entender cómo se cruzan estos frentes es clave para anticipar qué puede fallar a continuación y, sobre todo, cómo prepararse.
Crisis de hardware impulsada por la Inteligencia Artificial
La actual ola de Inteligencia Artificial generativa ha destapado un problema estructural: para entrenar y ejecutar modelos gigantes hacen falta centros de datos descomunales, equipados con hardware muy específico y caro, y eso está tensionando toda la cadena de suministro tecnológica. Lo que empezó como un rally bursátil de fabricantes como NVIDIA, AMD o los proveedores de memoria, ha terminado en una tormenta perfecta de escasez, precios disparados y desvío de recursos desde el mercado de consumo hacia el entorno corporativo y de IA.
En este contexto, los data centers dedicados a IA necesitan potencia de cálculo masiva, cantidades brutales de memoria y almacenamiento, y redes ultra rápidas. GPUs como las NVIDIA H100/Blackwell, aceleradores AMD Instinct o TPUs de Google trabajan con precisiones reducidas pero con volúmenes colosales de operaciones, muy por encima de lo que una CPU puede gestionar de forma eficiente. A eso se suma una demanda incesante de memoria DRAM y HBM para alimentar esas GPU, así como infraestructuras de almacenamiento SSD y HDD de gran capacidad, conectadas mediante redes de 400 Gbps o superiores con Ethernet avanzado o InfiniBand.
Todo ello ha provocado que gran parte del stock de chips y componentes se dirija a la IA, relegando a un segundo plano al PC doméstico, al gaming y a otros dispositivos de consumo. No es que falten materias primas, el cuello de botella está en las fábricas: levantar una nueva planta de semiconductores cuesta miles de millones y lleva entre 3 y 5 años, así que la oferta no se adapta al ritmo al que crece la demanda de IA.
La consecuencia inmediata es un fuerte aumento del consumo eléctrico y preocupaciones ambientales. Los centros de datos de nueva generación exigen potencias gigantescas, lo que reaviva el debate sobre la sostenibilidad del modelo actual de IA a gran escala y el impacto sobre las redes de energía nacionales.
Mercado de GPU: del paraíso de ingresos a la escasez crónica
El sector de las tarjetas gráficas ha sido el epicentro visible de esta crisis. La historia se ha repetido con matices: primero fueron los mineros de criptomonedas, ahora son los proyectos de IA quienes absorben la producción de GPU de gama alta. Los fabricantes han descubierto que es mucho más rentable vender grandes lotes de aceleradores a centros de datos que dedicar capacidad a modelos gaming de consumo, y ese cambio de prioridades ha dejado a los usuarios domésticos en la cola.
El problema no es solo que se fabriquen muchas GPU para IA, sino que las propias líneas de producción se han rediseñado para maximizar ese segmento. A medida que las empresas priorizan la gama profesional y de centro de datos, se reduce la disponibilidad de modelos para PC, y las pocas unidades que llegan a las tiendas lo hacen con precios inflados. El mercado de gaming, que fue uno de los motores de la industria gráfica, se encuentra ahora a la sombra de la IA.
Este desvío de recursos tiene un efecto colateral: se alarga el ciclo de renovación de equipos. Muchos usuarios optan por aguantar con su GPU actual o recurren al mercado de segunda mano, alimentando una economía paralela donde abundan tarjetas exmineras o excentro de datos con un historial de uso intensivo. La experiencia de compra se degrada y la percepción de que “actualizar el PC se ha vuelto un lujo” se extiende.
Escalada de precios y reorientación en el mercado de la RAM
Si las GPU encabezan los titulares, la verdadera hemorragia se está produciendo en la memoria DRAM. Desde finales de 2025, los grandes fabricantes —Samsung Electronics, SK hynix, Micron Technology— han ido trasladando cada vez más capacidad productiva hacia DRAM para servidores, memoria HBM y soluciones de alto rendimiento enfocadas a IA. El resultado: menos chips disponibles para PC, móviles, televisores inteligentes, routers y prácticamente cualquier dispositivo que dependa de RAM convencional.
Este giro se ha amplificado por la naturaleza cíclica del mercado DRAM. Tras varios años de sobreproducción y caída de precios, muchos fabricantes recortaron líneas y frenaron inversiones. Justo entonces estalló el boom de la IA, pillando al sector con menos músculo del necesario. El ajuste fue brusco: la oferta tardó en reaccionar mientras la demanda explotaba, lo que generó subidas de precio históricas y falta de stock en módulos de memoria para consumo.
La situación ha sido tan intensa que algunas marcas emblemáticas del mercado doméstico han quedado por el camino. El caso de Crucial, la marca de Micron para el usuario final, es paradigmático: la compañía decidió dejar de producir RAM y SSD bajo ese sello desde 2026 para concentrar esfuerzos en segmentos más rentables. Para el comprador corriente, eso se traduce en menos opciones fiables y un mercado dominado por productos caros o por alternativas de nicho.
En paralelo, la irrupción de fabricantes chinos de memoria como CXMT o YMTC comienza a ganar relevancia. CXMT está desarrollando módulos DDR5 muy rápidos —en torno a DDR5‑8000—, mientras que YMTC apuesta por NAND Flash de alta densidad con tecnologías como Xtacking 4.0, capaces de apilar muchas capas y alcanzar capacidades de 8 TB en SSD. Marcas como Netac, Asgard, KingBank o Gloway ya integran estos chips, aunque gigantes como Kingston o Corsair todavía observan el movimiento con cautela.
Crisis en SSD y HDD: el almacenamiento tampoco se salva
La explosión de la IA y de los servicios en la nube no solo devora GPU y DRAM; también ha encendido todas las alarmas en el mercado de SSD y discos duros. Los modelos de IA necesitan entrenarse con cantidades ingentes de datos y requieren entornos de almacenamiento mixtos: SSD NVMe ultrarrápidos para el procesamiento en caliente y HDD nearline de gran capacidad para datasets históricos o información a la que se accede con menos frecuencia.
Tras un periodo de sobreoferta de memoria NAND, los fabricantes —de nuevo Samsung, SK hynix, Micron y otros actores— recortaron producción para estabilizar precios. Cuando la IA empezó a disparar la demanda de SSD empresariales de alta densidad, las plantas no estaban listas para responder con rapidez. El resultado: tensiones de stock, en especial en unidades de gama alta compartidas entre servidores y consumo avanzado, y nuevas subidas de precios.
En el ámbito de los HDD, compañías como Western Digital o Seagate se han visto en una situación similar. Los grandes contratos con proveedores de nube e IA han absorbido buena parte de la capacidad, hasta el punto de que algunos modelos tienen el stock ya comprometido meses antes de salir de fábrica. Aunque muchos usuarios piensen que todo el empuje va hacia el SSD, el disco duro sigue siendo insustituible en coste por terabyte para almacenamiento masivo en frío.
Para el usuario final, esto se traduce en una experiencia conocida: menos variedad real en tienda y sensación de que todo es más caro. Un SSD de 1 o 2 TB que hace pocos años era asequible ahora vuelve a situarse en rangos prohibitivos según la gama, y los HDD de gran capacidad para copias de seguridad ya no son el “chollo” que eran.
Impacto para el consumidor: hardware prohibitivo y fuga al mercado de segunda mano
Todos estos movimientos en GPU, RAM y almacenamiento confluyen en el mismo punto: el bolsillo del usuario doméstico y de la pequeña empresa. Montar o renovar un PC en 2026 se ha convertido en un ejercicio de paciencia y contención: precios desorbitados, falta de stock en componentes clave y sensación de que el mercado de consumo ha quedado relegado frente a la IA y los grandes centros de datos.
La presión no afecta solo a los ordenadores. La subida de coste de DRAM y NAND impacta también en smartphones, routers, televisores, consolas y cualquier dispositivo que requiera memoria o almacenamiento. Muchos fabricantes de electrónica de consumo han tenido que ajustar catálogos, encarecer modelos o recortar especificaciones para no disparar aún más los PVP, lo que al final significa menos prestaciones por más dinero.
Ante este panorama, cada vez más usuarios miran hacia el mercado de segunda mano, reacondicionados o incluso el “hazlo tú mismo”. Se han visto iniciativas tan extremas como proyectos en Rusia para fabricar módulos de RAM artesanales debido a la escasez y al coste. Al mismo tiempo, gana terreno la apuesta por proveedores alternativos, especialmente chinos, que prometen chips orientados al sector de consumo desatendido por los grandes fabricantes tradicionales.
Este giro hacia alternativas menos consolidadas conlleva sus propios riesgos: incertidumbre sobre la calidad, garantía limitada y compatibilidades dudosas. Pero cuando el mercado oficial se vuelve inaccesible, muchos usuarios están dispuestos a asumir cierta exposición si eso les permite mantener sus equipos funcionando o ampliar capacidad sin arruinarse.
Burbuja de la IA y tensiones en los mercados financieros
Mientras el hardware vive su propia tormenta, el lado financiero del ecosistema tecnológico tampoco está quieto. El entusiasmo por la IA ha llevado a los índices bursátiles a máximos históricos, pero bajo la superficie se está produciendo una especie de reordenación brutal: el software tradicional y parte de las tecnológicas “de siempre” están sufriendo una desconfianza creciente por parte de los inversores.
El detonante ha sido la percepción de que muchas tareas realizadas por software clásico pueden ser sustituidas por servicios de IA más baratos y automatizados. Herramientas legales basadas en modelos como Claude de Anthropic, asistentes de productividad, automatización de procesos o plataformas de análisis de datos inteligentes están empujando a los mercados a preguntarse si las empresas de software tradicional podrán seguir monetizando igual sus productos.
En los últimos meses se ha abierto una brecha histórica entre el sector software y el S&P 500, con una diferencia de más de 20 puntos porcentuales, una desviación comparable solo a lo que se vivió con el pinchazo de la burbuja puntocom en los años 2000‑2001. Compañías como Oracle, ServiceNow o AppLovin han visto caer su valor en bolsa decenas de puntos, mientras que otras como Palantir, Intuit o Workday también han sufrido fuertes retrocesos.
Paralelamente, se está produciendo una rotación de capital hacia sectores más “tangibles” como energía, industria pesada o materiales básicos, que han registrado ganancias apreciables en el mismo periodo. Muchos inversores prefieren refugiarse en negocios ligados al ciclo económico tradicional mientras esperan a que el polvo de la IA se asiente y se vea quién realmente genera valor sostenible.
Paralelismos con la burbuja puntocom y el auge actual de la IA
La situación recuerda de manera notable a la burbuja de las puntocom de finales de los 90 y principios de los 2000. Entonces, Internet era la tecnología llamada a cambiarlo todo; hoy el papel protagonista lo ocupa la IA. En ambos casos se ha producido un cóctel de expectativas desmedidas, proyectos inflados sin un modelo de negocio sólido y una avalancha de dinero de fondos de inversión que no quieren quedarse fuera de la “siguiente gran cosa”.
Al igual que entonces surgieron empresas como Lycos, Terra o Boo.com que desaparecieron con la misma rapidez con la que fueron infladas, ahora vemos proliferar startups de IA que prometen soluciones revolucionarias sin demostrar una vía clara a la rentabilidad. El motor del crecimiento bursátil de grandes economías se concentra de nuevo en un único sector, y buena parte del capital se mueve más por miedo a perderse la ola que por análisis fundamental.
Sin embargo, hay diferencias importantes. La IA actual tiene aplicaciones reales y rentables ya en marcha: servicios en la nube, automatización de procesos, semiconductores especializados, software integrado con IA en suites empresariales, etc. Además, el ecosistema tecnológico y financiero es más maduro, con herramientas de análisis de riesgo más sofisticadas y una infraestructura digital mucho más avanzada que en el año 2000.
También es significativo el peso de grandes figuras como Elon Musk, Mark Zuckerberg o Jeff Bezos, que no solo lideran proyectos clave de IA, sino que están estrechamente ligados al poder económico y político. Para muchos analistas, su capacidad de influencia hace menos probable un colapso total como el de las puntocom, aunque no evita que se produzca una “limpieza” de empresas poco sólidas, algo que, por otra parte, se considera necesario para sanear el mercado.
El efecto 2000 y el próximo gran riesgo: el efecto 2038
Las crisis ligadas al tiempo en informática no son solo una anécdota histórica. El famoso Efecto 2000 (Y2K) se convirtió en símbolo de la primera gran alarma tecnológica global: se temía que al llegar al 1 de enero de 2000 los sistemas que almacenaban el año con dos dígitos interpretaran “00” como 1900, provocando fallos en bancos, aerolíneas, sistemas eléctricos y todo tipo de infraestructuras críticas.
En la práctica, el impacto fue muy pequeño gracias a las enormes inversiones en prevención, estimadas en más de 200.000 millones de euros a nivel mundial. Gobiernos y empresas revisaron, parchearon y actualizaron millones de líneas de código y sistemas, lo que evitó el caos anunciado. A posteriori, muchos se preguntaron si la amenaza había sido exagerada, pero los expertos coinciden en que el riesgo era real y que el trabajo preventivo fue lo que mantuvo el mundo en pie la noche de Año Nuevo.
Como reacción, en algunos casos se recurrió a “parches” temporales, como cambiar el año de referencia a 2020 en ciertos sistemas para ganar tiempo, asumiendo que para entonces se habría migrado a soluciones modernas. Ese apaño ha pasado factura: el 1 de enero de 2020, parquímetros en Nueva York dejaron de aceptar pagos y algunos videojuegos, como WWE 2K20, empezaron a fallar si no se cambiaba la fecha de la consola a 2019.
En el horizonte ya asoma un nuevo desafío: el efecto 2038. Afecta a sistemas que utilizan contadores de tiempo de 32 bits —muy comunes en tecnologías basadas en Unix y en multitud de dispositivos integrados—, que cuentan los segundos desde el 1 de enero de 1970. Cuando ese contador alcance su valor máximo, el 19 de enero de 2038, el tiempo “dará la vuelta” y muchas máquinas interpretarán la fecha como diciembre de 1901, lo que puede desencadenar fallos en cascada.
Los sectores más sensibles son aquellos que dependen de infraestructuras críticas: banca y pagos, telecomunicaciones, transporte aéreo, energía y redes industriales. Solucionarlo implica mucho más que actualizar hardware: hay que revisar algoritmos, sistemas operativos, firmware y aplicaciones que trabajan con tiempos y fechas, apoyándose en conceptos matemáticos como la aritmética modular y la representación numérica.
Apagones globales y el riesgo de depender de un único proveedor
Más allá de los bugs de fecha, uno de los episodios recientes más ilustrativos del riesgo sistémico ha sido el gran apagón informático provocado por una actualización defectuosa de seguridad. Un simple parche de un proveedor de ciberseguridad externo bastó para dejar fuera de juego a millones de equipos con Windows y paralizar, durante horas, una parte sustancial de la economía digital mundial.
Aunque el incidente afectó “solo” a un pequeño porcentaje del parque total de dispositivos, su impacto fue monumental porque Microsoft y sus plataformas están en el centro de buena parte de la infraestructura global. Aeropuertos saturados, servicios financieros interrumpidos, empresas sin poder acceder a sus sistemas… El episodio dejó claro que la solidez técnica y la inversión en seguridad no bastan cuando todo el mundo depende del mismo eslabón de la cadena.
Especialistas en seguridad y académicos han señalado que este tipo de acontecimientos evidencian el enorme riesgo de poner todos los huevos en la misma cesta. Basar operaciones críticas en un único proveedor o en un solo ecosistema hace que, cuando se produce un fallo, el efecto dominó sea casi inevitable. Para muchas pequeñas empresas, diversificar es complicado por costes y complejidad, pero la concentración actual roza niveles preocupantes.
Algunas voces abogan por fomentar un ecosistema con más proveedores medianos y pequeños, de modo que el fallo de uno no arrastre medio planeta. Sin embargo, esta diversificación también abre nuevas superficies de ataque y múltiples posibles vulnerabilidades, complicando la defensa. Encontrar el equilibrio entre resiliencia y complejidad se convierte en uno de los grandes retos estratégicos de la próxima década.
Los grandes desafíos de IT para las empresas en el corto plazo
Todo este contexto de crisis, burbujas y dependencias se traslada directamente a los equipos de IT de las organizaciones, que viven en una especie de estado de emergencia permanente. Al margen de los problemas puramente técnicos, deben gestionar una lista creciente de desafíos que afectan al negocio en su conjunto.
En primer lugar, la ciberseguridad es cada vez más compleja: phishing potenciado por IA, deepfakes, ataque a endpoints, ransomware sofisticado… La superficie de ataque se expande con cada nuevo servicio, dispositivo IoT o integración en la nube. La seguridad ya no puede verse como una configuración estática, sino como una práctica continua que exige segmentar redes, probar sistemas, formar al personal y reaccionar con la misma velocidad que los atacantes.
A ello se suma la complejidad del cumplimiento normativo. Marcos como el RGPD, HIPAA, el marco de ciberseguridad del NIST o las nuevas normativas sobre IA imponen requisitos que van mucho más allá del simple papel: hacen falta estructuras de gobernanza, monitorización constante y colaboración entre IT, legal, compliance y negocio para no quedarse atrás ni incurrir en sanciones.
Otro frente delicado es el de los costes en la nube. La adopción de servicios cloud es ya casi total, pero controlar lo que se gasta se ha convertido en un dolor de cabeza. Las cargas de trabajo de IA, los contenedores, las arquitecturas multinube y las pruebas de concepto sin supervisión pueden disparar las facturas de forma impredecible. Sin una buena gobernanza, la nube se convierte en deuda técnica, gasto inútil y recortes traumáticos.
Además, las empresas viven en una transformación digital constante. Ya no existe un proyecto puntual de modernización, sino una sucesión infinita de migraciones, integraciones y cambios de plataforma. El riesgo es acabar con un ecosistema lleno de herramientas aisladas, deuda técnica y procesos que no aportan valor real. Los responsables de IT deben marcar una hoja de ruta clara, alineada con los objetivos del negocio y capaz de escalar.
Datos, sistemas heredados y talento: el cuello de botella humano
La gestión de los datos corporativos se ha convertido en otro gran quebradero de cabeza. El volumen de información que generan las organizaciones —logs de sistemas, actividad de usuarios, datos de clientes, sensores IoT— crece sin parar. No se trata solo de almacenarlos, sino de clasificarlos, protegerlos, cumplir la normativa y extraer valor de ellos. Cuando se hace mal, aparecen problemas de cumplimiento, ineficiencias y decisiones basadas en información errónea.
Todo esto se complica cuando hay que convivir con sistemas heredados críticos: aplicaciones antiguas, hardware obsoleto, plataformas muy personalizadas que no pueden apagarse de la noche a la mañana porque soportan procesos esenciales. Modernizarlas sin romper nada exige una planificación cuidadosa, migraciones progresivas y, muchas veces, inversiones que chocan con presupuestos ya saturados.
En paralelo, se agranda la brecha de habilidades. La tecnología avanza a más velocidad que la capacidad de los equipos para formarse, y el mercado laboral no da abasto con perfiles de arquitectura cloud, ciberseguridad avanzada o IA aplicada. Incluso cuando se contrata buen talento, retenerlo es difícil en un entorno donde las ofertas con mejores salarios, teletrabajo y posibilidades de crecimiento aparecen constantemente.
La consecuencia es que muchos departamentos de IT se ven obligados a hacer más con menos, y muchas veces con conocimientos desactualizados. Para salir de ese círculo vicioso hay que combinar estrategias de contratación externa, programas sólidos de upskilling interno y apoyo decidido de la dirección para reservar tiempo y recursos al desarrollo profesional continuo.
Como telón de fondo, la comunicación interna sigue siendo un talón de Aquiles. Sin coordinación entre IT y el resto de áreas, sin documentación clara y sin intercambio de conocimiento, los proyectos acaban retrasándose, los requisitos se malinterpretan y la frustración se dispara. En equipos distribuidos o híbridos, este riesgo se multiplica.
Riesgo de proveedores, trabajo remoto y preparación para un futuro incierto
Otro aspecto que ha cobrado protagonismo es el riesgo asociado a los proveedores externos. Casi todas las empresas dependen ya de terceros para software, servicios en la nube, soporte o externalización de procesos. Cada uno de esos socios introduce potenciales vulnerabilidades: prácticas de seguridad flojas, interrupciones de servicio, dependencia contractual excesiva o incumplimientos normativos que salpican al cliente.
Gestionar este riesgo va mucho más allá de firmar contratos: exige evaluaciones continuas, acuerdos claros sobre seguridad y cumplimiento, y una cooperación estrecha entre IT, Compras, Jurídico y Seguridad. El apagón ligado a un parche defectuoso ha sido una llamada de atención contundente sobre lo que ocurre cuando uno de esos eslabones falla.
El auge del trabajo remoto e híbrido añade otra capa de complejidad. Asegurar el acceso a sistemas corporativos desde redes domésticas, gestionar endpoints dispersos por medio mundo y mantener la colaboración fluida entre zonas horarias requiere políticas bien pensadas, herramientas adecuadas y una vigilancia constante sobre posibles brechas de seguridad.
Finalmente, los líderes de tecnología se enfrentan a la paradoja de planificar a largo plazo en un entorno que cambia cada pocos meses. La IA acelera, la computación cuántica asoma en el horizonte, las normativas evolucionan, las crisis de suministro aparecen y desaparecen. Más que acertar con la apuesta perfecta, el objetivo es diseñar arquitecturas flexibles, cultivar equipos multidisciplinares y revisar la estrategia con frecuencia para adaptarse a lo que venga.
Lo que muestran todas estas crisis —desde el Efecto 2000 hasta la burbuja de la IA, pasando por el efecto 2038, las caídas globales de proveedores y las tensiones en GPU, RAM y almacenamiento— es que la fragilidad y la interdependencia son ya rasgos estructurales de nuestro mundo digital. Las organizaciones que mejor paradas saldrán no serán necesariamente las que tengan la tecnología más puntera, sino las que combinen diversificación de riesgos, cultura de prevención, inversión en personas y la capacidad de reaccionar con rapidez cuando, inevitablemente, algo vuelva a fallar.