Foxconn Technology Group está construyendo la planta de fabricación más grande del mundo para agrupar los superchips GB200 de Nvidia en un país de América Latina.
Este es un componente clave de la plataforma Blackwell de próxima generación de la firma estadounidense.
Foxconn, el mayor fabricante de productos electrónicos por contrato del mundo y el mayor ensamblador de iPhone de Apple, se ha beneficiado del auge de la inteligencia artificial (IA), ya que ensambla servidores utilizados para procesar sistemas de IA.
«Estamos construyendo la instalación de producción GB200 más grande del planeta», afirmó Benjamin Ting, vicepresidente senior del grupo de negocios de soluciones empresariales de Foxconn.
La unión tecnológica
Nvidia dijo en agosto pasado que había comenzado a enviar muestras de Blackwell a sus socios y clientes después de ajustar su diseño, y esperaba varios miles de millones de dólares en ingresos por estos chips en el cuarto trimestre.
Ting dijo que la asociación entre Foxconn y Nvidia era muy importante y que todos estaban pidiendo la plataforma Blackwell de Nvidia.
El presidente de Foxconn, Liu Young-way, dijo que la capacidad de la nueva planta que se construirá en México sería «muy, muy enorme«.
Foxconn ya tiene una gran presencia manufacturera en el país latinoamericano y ha invertido hasta la fecha más de US$500 millones en el estado de Chihuahua.
Aumento de ingresos por la IA
Liu dijo que la cadena de suministro de Foxconn estaba lista para la revolución de la IA.
Al tiempo que agregó que sus capacidades de fabricación incluyen «tecnologías avanzadas de refrigeración líquida y disipación de calor necesarias para complementar la infraestructura del servidor GB200».
Foxconn registró sus mayores ingresos en el tercer trimestre debido a la fuerte demanda de servidores de inteligencia artificial.
El otro enfoque de Foxconn son los ambiciosos planes para diversificarse más allá de su papel de construir productos electrónicos de consumo para Apple.
Esto con la esperanza de utilizar su conocimiento tecnológico para ofrecer fabricación por contrato de vehículos eléctricos (VE) y también producir vehículos utilizando modelos fabricados por la marca Foxtron.
“Es la dirección correcta y seguiremos trabajando duro para lograrlo”, dijo Liu, añadiendo que con los vehículos eléctricos, la “barrera del motor” ya no existe en la fabricación de automóviles.
Los fabricantes de automóviles “ya no necesitan fabricar ellos mismos todo el coche”.
La importancia de los chips en la IA
Los complejos algoritmos de la IA requieren cálculos masivamente paralelos y operaciones especializadas, lo que ejerce cada vez más presión sobre los procesadores tradicionales, como las CPU y las GPU.
Aunque son versátiles, las CPU de uso general no están diseñadas para las necesidades de computación de la inteligencia artificial. La naturaleza de procesamiento secuencial de estos chips (donde ejecutan una tarea a la vez) no se adapta a la naturaleza paralela de los cálculos de IA.
Ni siquiera las GPU, que originalmente fueron diseñadas para la representación de gráficos, pueden satisfacer adecuadamente las demandas de las operaciones matemáticas específicas y los patrones de acceso a la memoria que son comunes en las cargas de trabajo relacionadas con la inteligencia artificial.
Aquí es donde entran en juego los chips que se usan para la inteligencia artificial.
Diseñados específicamente para acelerar las tareas de inteligencia artificial, estos procesadores especializados ofrecen mejoras significativas en rendimiento, eficiencia y rentabilidad en comparación con las CPU y GPU de uso general.
Las NPU permiten que las aplicaciones de IA alcancen nuevos niveles de rendimiento y aprovechen al máximo sus capacidades a través de unidades de hardware especializadas y computación paralela.
Lo que debemos saber
Los chips para la IA: el corazón de la revolución de la IA. En pocas palabras, son procesadores especialmente diseñados que han sido optimizados para acelerar todas las operaciones relacionadas con la inteligencia artificial, con especial atención al aprendizaje profundo y al aprendizaje automático.
Los cálculos matemáticos complejos y los cálculos masivamente paralelos involucrados en el funcionamiento de los algoritmos de IA encuentran una solución fácil en estos dispositivos.
Los chips de IA procesan grandes cantidades de datos a la vez, a diferencia de las CPU normales, que funcionan bien en un rango limitado de tareas y tienen dificultades para satisfacer las demandas específicas que necesita la IA.
Esta capacidad de procesamiento en paralelo para componentes de hardware especializados acelera enormemente el entrenamiento y la inferencia de modelos de IA, lo que a su vez permite respuestas instantáneas y también abre oportunidades para nuevas aplicaciones.