- Nvidia prepara Feynman en TSMC A16 con GAA y alimentación trasera para maximizar eficiencia y rendimiento.
- TSMC A16 promete +8–10% de velocidad o −15–20% de consumo frente a N2 y mayor densidad.
- Costes por oblea >30.000$ y riesgos de rendimientos iniciales, pero con márgenes de IA que lo hacen viable.
- Calendario: producción en 2H 2026 y ventana de productos entre 2027 y 2028, con presión de AMD e Intel.
El ecosistema del silicio se prepara para un cambio de ciclo con el posible salto de Nvidia a TSMC A16 para su arquitectura Feynman. La combinación de gate-all-around (GAA) y alimentación por la cara trasera situaría a estas GPU en la vanguardia, una evolución que no solo apunta a más rendimiento, sino a resolver cuellos de botella de potencia y enrutado que ya pesan en los chips de IA más grandes.
Aunque varias fuentes coinciden en que TSMC A16 alcanzará producción en masa en la segunda mitad de 2026, no hay unanimidad sobre las fechas de producto: algunos reportes hablan de Feynman en 2026, otros empujan su llegada real al mercado hacia 2027 o incluso 2028. Esa horquilla temporal, unida a la duda de si se quedará en centros de datos o también pisará el consumo, marca la narrativa de una apuesta ambiciosa y con riesgos bien calculados.
TSMC A16: qué es y qué aporta frente a N2
TSMC A16 es un nodo de clase 1,6 nm que no se limita a “encoger” el proceso: introduce transistores de tipo nanosheet (GAA) y, por primera vez en la fundición taiwanesa, una red de alimentación por la cara trasera del wafer. Esta red, conocida internamente como Super Power Rail o BSDPN (Backside Delivery Power Network), traslada las líneas de potencia a la parte posterior, liberando metal frontal para señales y reduciendo las pérdidas por resistencia.
En cifras, TSMC habla de un 8–10% de mejora de velocidad a igual potencia o, alternativamente, de un 15–20% menos de consumo a la misma frecuencia, con un incremento de densidad que se mueve en torno al 7–10% (≈1,10x). Algunas filtraciones amplían la idea apuntando a innovaciones como NanoFlex/nanosheet y optimizaciones de enrutado que harían más fácil escalar los SoC y, especialmente, las GPU con muchos motores de IA y grandes bloques de caché.
El beneficio decisivo no está solo en los porcentajes, sino en el tipo de diseño que habilitan: al separar potencia y señales, el frontal del chip respira mucho mejor, lo que reduce la congestión de interconexión y el “IR drop” del suministro. Esto abre la puerta a anchos de datos más agresivos, caches más voluminosas y más lógica dedicada a IA sin pagar un peaje prohibitivo en complejidad de enrutado.
Además, al despejar metal superior para señales, se simplifica el uso de híbrido bonding fino en la cara frontal, algo clave si se persigue apilar SRAM o cache 3D, y si se quiere aliviar el “atasco” alrededor de los PHY de HBM en paquetes con altísima densidad. Eso sí, todo esto exige un refinamiento paralelo en térmicas y metodología de diseño para explotar el potencial sin sobrecalentar ni penalizar el rendimiento sostenido.
Para el usuario final, la traducción es bastante directa: GPUs más potentes y eficientes que pueden rendir más en juegos y creación de contenido, y sobre todo, que escalan mejor en cargas de IA y HPC sin disparar el consumo. Esa ganancia de eficiencia es especialmente relevante cuando hablamos de aceleradores con TDP de varios cientos de vatios donde cada punto porcentual cuenta.
De Blackwell y Rubin a Feynman: el giro de Nvidia
Durante años, Nvidia evitó la litografía más puntera en su estreno para centrarse en arquitecturas maduras, costes contenidos y rendimiento por vatio. Hopper se fabricó en 4N, Blackwell para centros de datos se apoya en 4NP, y la serie GeForce RTX 50 también optó por 4NP en vez de los primeros N3. Con Rubin, el salto previsto es a la familia N3 (3N/3NP), y las RTX 60 apuntan en esa dirección.
El gran cambio llega con Feynman: distintas fuentes señalan que Nvidia pretende saltarse N2/N2P para aterrizar directamente en A16. Si se confirma, sería la primera vez en mucho tiempo que la compañía lidera un nodo “bleeding edge” en lugar de esperar a que madure. Esa decisión no es capricho, responde a una necesidad: las GPU de IA gigantescas han topado con límites de entrega de potencia frontal y enrutado, y la alimentación trasera empieza a ser una exigencia arquitectónica.
Otra derivada clave es el papel de Apple. Tradicionalmente, Apple inauguraba los nodos de TSMC con sus SoC de iPhone, un “ancla” de volumen que garantizaba prioridad de suministro. En esta ocasión, medios taiwaneses como Commercial Times sitúan a Nvidia como primer cliente de A16, un cambio simbólico que refuerza cómo el crecimiento de TSMC proviene cada vez más de HPC e IA y no tanto del móvil.
Si Feynman llega primero en A16, estaríamos ante el primer chip comercial en combinar, a gran escala, GAA nanosheet con backside power en TSMC. Eso no solo es un hito de proceso: forzaría a competidores y a todo el ecosistema a acelerar herramientas, flujos y modelos de potencia adaptados a esta topología de alimentación.
Sobre fechas, aquí entra el ruido: algunos hablan de GPUs Feynman en 2026 coincidiendo con el “ramp” de A16, otros, apoyándose en hojas de ruta previas, sitúan Feynman en 2028 y acotan 2026/2027 como ventana de industrialización del nodo. Es razonable pensar que, aun iniciando producción en masa en 2H 2026, los productos finales podrían verse a mediados o finales de 2027 y que el despliegue completo se deslice hacia 2028 según la complejidad del packaging y el mix de SKU.
Costes, riesgos y el tablero competitivo: Apple, AMD e Intel
Estrenar un nodo tiene precio. Las obleas en 2 nm para Apple se mueven, según estimaciones, en 27.000–28.000 dólares, mientras que A16 con su red de potencia trasera superaría los 30.000 dólares por oblea. N2P, que también incorpora BSDPN, se aproximaría a esa cifra por su mayor complejidad. A esto hay que sumar rendimientos iniciales más bajos, lo que encarece cada chip válido en las primeras tandas.
Para Nvidia, sin embargo, el precio puede cuadrar: un acelerador de IA se vende por decenas de miles de dólares, y la mejora en densidad y eficiencia puede amortizar el sobrecoste si asegura una ventaja de rendimiento sostenida. Además, ser “cliente bandera” le garantiza acceso prioritario y estrecha aún más su alianza con TSMC en un momento en el que la demanda de IA marca la pauta del sector.
La competencia no está quieta: AMD ha anunciado el hito de silicio en N2 para su CPU EPYC Venice y hay rumores de Zen 6 con variantes N2X, mientras que su hoja de ruta de Medusa (Zen 6) contempla N2 y N2P con refresh. En paralelo, Intel empuja 18A con su propia alimentación trasera (PowerVia) y prepara su despliegue, con menciones a Panther Lake y 18A-P. El que Nvidia brinque directamente a A16 le daría, si todo sale bien, un “span” de nodo frente a rivales en 2 nm durante buena parte de la segunda mitad de la década, y ensambladores como ASUS llevan GPUs avanzadas a equipos profesionales.
El riesgo existe: A16 implica nuevas térmicas, empaquetados complejos con HBM de última generación y una metodología EDA que todavía está encajando la alimentación trasera. Al principio los rendimientos pueden exigir una segmentación de SKU conservadora y los costes podrían reflejarse en el precio final. Nvidia, no obstante, parece dispuesta a asumir ese peaje para consolidar su papel como referencia de IA.
Para el consumidor, el impacto podría ser indirecto. Si Feynman se centra primero en centros de datos, el mercado GeForce vería antes a Rubin en N3 y probablemente un ciclo de maduración antes de que la alimentación trasera y los GAA aterrizen en gaming. Aun así, muchas de las optimizaciones de arquitectura y software (p. ej., mejoras tipo DLSS y bloques de IA) siguen filtrándose a consumo con cierta rapidez.
Implicaciones técnicas: de la potencia trasera al 3D y la HBM
La alimentación por la cara trasera acorta el camino de la potencia hasta los transistores y reduce el “IR drop” que limita frecuencia y estabilidad, especialmente en chips muy grandes. Al liberar metal frontal, el enrutado de señales sufre menos congestión y se facilita la integración de interconexiones anchas y bloques funcionales más ambiciosos sin penalizar tanto la latencia.
En GPUs, esto se traduce en la posibilidad de aumentar el ancho de los SM/cores, mejorar la jerarquía de cachés y añadir más aceleradores de IA sin una explosión de capas metálicas dedicadas a potencia. También mejora el margen para integrar PHY de HBM con menos estrangulamientos en la zona de I/O, algo crítico cuando hablamos de HBM3E y próximas generaciones con ancho de banda masivo.
Otro efecto colateral de despejar la cara frontal es que el hybrid bonding fino se vuelve más práctico para cache o SRAM apilada, permitiendo jerarquías de memoria más cercanas a los cores y ahorrando energía en accesos. Eso sí, el precio es una mayor complejidad térmica: más bloques apilados y más densidad exigen modelos de calor y disipación avanzados para evitar “hot spots”.
Quienes diseñan estos chips tendrán que actualizar flujos de librerías, reglas de diseño y estrategias de dominios de potencia pensados para la topología trasera. Las herramientas EDA ya caminan en esa dirección, pero el primero en producir a volumen se lleva ventaja en metodologías y “know-how” que son difíciles de copiar deprisa.
Para los centros de datos, los beneficios son claros: más rendimiento sostenido a igual o menor consumo y mejores cimientos para arquitecturas multi-die con chiplets lógicos y de memoria. Con A16, TSMC quiere demostrar que la alimentación trasera no es solo viable, sino necesaria para escalar la computación de propósito intensivo en la segunda mitad de la década.
¿Solo centros de datos o también gaming?
Una gran incógnita es si Feynman se quedará como arquitectura enfocada a IA y HPC o si tendrá derivadas GeForce en consumo. Hay fuentes que sugieren un foco inicial en centros de datos y una transición posterior al mercado doméstico cuando el nodo esté más asentado, algo coherente con la estrategia histórica de Nvidia de escalar tecnologías desde el “datacenter-first”.
Mientras tanto, todo apunta a que las RTX 60 seguirán apoyándose en 3N/3NP, con mejoras incrementales en eficiencia, frecuencias y capacidad de IA. Tiene sentido: llevar GAA + alimentación trasera al gaming exige una cadena de suministro lista y unos costes que encajen en el ASP de tarjetas de consumo. Si el salto se produce, podría llegar un poco más tarde que en los aceleradores profesionales.
Para quienes buscan comprar hoy, lo razonable es seguir la evolución de Rubin y comparar el rendimiento/consumo de la nueva hornada de GeForce, apoyándose en guías de compra y pruebas independientes. El impacto de A16 en el mercado doméstico se notará, pero probablemente a través de un ciclo de adopción escalonado y con una fuerte base en IA.
Calendario y señales a vigilar
Las piezas del calendario encajan así: TSMC prevé iniciar la producción en masa de A16 en 2H 2026, de modo que los primeros productos comerciales difícilmente aparecerán antes de mediados o finales de 2027. Algunas hojas de ruta y reportes sitúan la familia Feynman mostrando músculo en 2028, mientras que otras filtraciones son más optimistas con fechas de 2026. La realidad podría ser híbrida: “silicon early” en 2026/27 y despliegue amplio en 2028.
En paralelo, seguiremos viendo a AMD avanzar en N2/N2P con Venice y Zen 6, e Intel empujar 18A con PowerVia y sus primeros productos. La clave estará en quién logra mejor rendimiento sostenido por vatio en cargas de IA reales, cómo madura el packaging con HBM y qué rendimientos por oblea consigue cada nodo en escala.
Si Nvidia estrena A16 con Feynman, romperá una tradición de más de una década donde Apple inauguraba cada proceso y situará a la IA como escaparate de la tecnología de vanguardia. No es un simple cambio de turno: es el síntoma de que el motor de crecimiento del silicio ya no está en el smartphone, sino en la computación acelerada.
Más allá de la guerra de cifras, el punto de inflexión está en la arquitectura: backside power alivia los límites que frenaban a las GPU más grandes, y GAA sienta la base para la siguiente etapa de escalado. Si TSMC y Nvidia ejecutan bien, el listón para AMD, Intel y el resto subirá, empujando a toda la industria a moverse más deprisa.
Queda, por tanto, un escenario muy competitivo: costes elevados al principio, beneficios claros para cargas de IA y margen para que cada compañía juegue sus cartas en nodo, empaquetado y software optimizado. Quien mejor alinee esas tres piezas se llevará el gato al agua en los próximos ciclos de producto.
Con todo lo anterior sobre la mesa, la fotografía es contundente: Feynman sobre A16 no es solo una promesa de más FPS o más TFLOPS, sino un replanteamiento de cómo alimentar y escalar chips extremos; las fechas bailan entre 2026 y 2028 según el hito que miremos, los costes son altos pero asumibles en IA, y la competencia aprieta por ambos flancos con N2/N2P y 18A; si Nvidia y TSMC encajan bien proceso, empaquetado y demanda, tendremos el punto de referencia que marcará el ritmo del resto.