← Volver a La Inteligencia
Aplicaciones Publicado el 27 de agosto de 2025

NVIDIA integrará interconexiones fotónicas en sus GPU para IA en 2026: un salto que reducirá el consumo un 70% y eliminará cuellos de botella

NVIDIA integrará interconexiones fotónicas en sus GPU para IA en 2026: un salto que reducirá el consumo un 70% y eliminará cuellos de botella

Fotónica del silicio: por qué NVIDIA apuesta por la luz (y no por el cobre) para conectar sus GPU

La fotónica del silicio —tecnología que convierte señales eléctricas en pulsos de luz— lleva años en desarrollo, pero hasta ahora su adopción en centros de datos había sido limitada. El problema que resuelve es crítico para la IA: en clústeres con miles de GPU, las conexiones tradicionales (cables de cobre o módulos ópticos externos) introducen pérdidas de energía de hasta 30 vatios por puerto, generan calor excesivo y crean cuellos de botella que frenan la escalabilidad. Según datos de NVIDIA, estos factores incrementan el riesgo de fallos y limitan el rendimiento en sistemas de alto rendimiento.

La solución de la compañía, presentada en la conferencia [Hot Chips en Palo Alto](https://www.zdnet.com/article/openai-intel-and-qualcomm-talk-ai-compute-at-legendary-hot-chips-conference/), es integrar los componentes ópticos directamente en el encapsulado del chip de conmutación (tecnología CPO). Esto elimina la necesidad de conversores externos y reduce el consumo a 9 vatios por puerto —una caída del 70%— mientras mejora la integridad de la señal. Douglas Yu, ejecutivo de TSMC, ya advirtió en 2023 que esta innovación podría "desencadenar un nuevo paradigma" en la computación, y NVIDIA es la primera en llevarla a la IA a gran escala.

2026: el año en que los centros de datos para IA dependerán de la luz

NVIDIA ha confirmado que las plataformas Quantum-X InfiniBand y Spectrum-X Ethernet —usadas en supercomputadoras y clústeres de IA como los de Microsoft, Meta o Google— incorporarán CPO en 2026. La clave no es solo el ahorro energético, sino la eliminación de latencias que hoy frenan la comunicación entre GPU. En sistemas con decenas de miles de aceleradores (como los que entrenan modelos como Llama 3 o Grok), cada milisegundo de retraso afecta la eficiencia. La fotónica del silicio permite escalar estos clústeres sin los límites físicos del cobre.

[EMBED:image:https://www.nvidia.com/content/dam/backup-assets/en-zz/Solutions/networking/qunatam-x800/spectrum-x-og.jpg] Quantum-X InfiniBand - NVIDIA

El anuncio refuerza la estrategia de NVIDIA para mantener su hegemonía en hardware para IA. Mientras competidores como Intel o AMD exploran alternativas (Intel ya probó chips fotónicos en 2023), la compañía de Jensen Huang convierte CPO en un requisito estructural para la próxima generación de centros de datos. Esto implica que, a partir de 2026, quienes quieran desplegar infraestructuras de IA de vanguardia deberán adoptar sus soluciones —o desarrollar alternativas propias—, lo que podría redefinir el mercado de semiconductores para computación de alto rendimiento.

El movimiento también tiene implicaciones geopolíticas: TSMC (aliado de NVIDIA) y China compiten por liderar la producción de chips fotónicos, una tecnología que la UE y EE.UU. ya consideran estratégica. La apuesta de NVIDIA acelera la carrera, pero también dependerá de que fabricantes como TSMC logren producir estos componentes a escala comercial.