La alianza permitirá a la creadora de ChatGPT reducir su dependencia de Nvidia y explorar nuevas opciones para diversificar su cadena de suministro, uno de sus principales retos dada la creciente demanda de chips impulsada por el auge de la inteligencia artificial.
OpenAI, el creador de ChatGPT, está dando un paso estratégico hacia el diseño de su primer chip personalizado, en colaboración con Broadcom y TSMC, para optimizar el rendimiento de sus sistemas de inteligencia artificial, según reveló Reuters.
La compañía evaluó la posibilidad de construir fábricas de chips propias, pero decidió aplazar esta idea debido a los elevados costos y el tiempo que implicaría. En su lugar, ha optado por centrar sus esfuerzos en el diseño interno de chips, empleando una combinación de recursos internos y alianzas estratégicas para reducir la dependencia de un solo proveedor y mantener el ritmo de la competencia con gigantes como Amazon, Meta, Google y Microsoft.
La demanda de chips de alta capacidad es crucial para OpenAI, especialmente en el contexto de sus servicios de IA generativa. Estos requieren enormes cantidades de potencia computacional tanto para entrenar modelos como para la inferencia —la fase en que la IA realiza predicciones o toma decisiones en tiempo real. Actualmente, Nvidia domina más del 80% del mercado de chips de IA, pero los altos costos y la escasez de sus GPU han impulsado a OpenAI y otras grandes compañías a buscar alternativas, incluyendo los nuevos chips MI300X de AMD, que OpenAI usará a través de la infraestructura en la nube de Microsoft Azure.
A través de su colaboración con Broadcom, OpenAI ha asegurado capacidad de producción con TSMC para fabricar su primer chip en 2026. Esta medida se suma a su equipo de desarrollo, que incluye ingenieros de alto nivel con experiencia en el diseño de Unidades de Procesamiento Tensorial (TPUs) en Google, quienes ahora están enfocados en el diseño de un chip de inferencia adaptado a los requerimientos específicos de OpenAI, según informó Reuters.
La estrategia de OpenAI no solo busca reducir la carga de costos, que en 2024 se proyecta en alrededor de US$5.000 millones, sino también optimizar el uso de recursos como electricidad, hardware y servicios en la nube. Además, OpenAI ha sido cauteloso en cuanto a la contratación de talento de Nvidia para mantener buenas relaciones, ya que aún planea seguir utilizando los chips avanzados Blackwell de Nvidia para algunos de sus desarrollos futuros.
Con esta combinación de alianzas estratégicas, diversificación de proveedores y desarrollo de tecnologías propias, OpenAI se posiciona para fortalecer su infraestructura y enfrentar la demanda de IA en un mercado altamente competitivo, avanzando hacia una mayor independencia y optimización de costos.
Comments