¿Alguna vez te has preguntado dónde se procesan todas las preguntas que le haces a ChatGPT? Si no estás demasiado inmerso en el mundillo de la inteligencia artificial, la respuesta podría sorprenderte: todo ocurre en servidores que son propiedad de Microsoft. Esta infraestructura, a su vez, está impulsada principalmente por el hardware más moderno de NVIDIA, pero tenemos razones para creer que las cosas cambiarán en el futuro.

Las dependencias excesivas no son recomendables. En el sector empresarial, predisponen escenarios de vulnerabilidad, innovación limitada y pérdida de control. Uno de los ejemplos más claros que podemos encontrar de esto en la industria tecnológica es la pasada dependencia de Apple a los procesadores Intel, algo que los de Cupertino abordan desde el chip M1 en adelante.

Microsoft quiere reducir su dependencia de NVIDIA

Salvando las diferencias, parte del presente (y del futuro) de Microsoft está atado a los productos de NVIDIA. Y, no nos engañemos, esto le ha traído muchos beneficios. La compañía dirigida por Nadella Satya comenzó a construir su relación con OpenAI en un lejano 2016 ofreciendo uno de sus tesoros más preciados, que no era otra cosa que su servicio de computación Microsoft Azure.

En aquel entonces, el servicio se sostenía principalmente por una enorme cantidad de GPU NVIDIA Tesla K80 con arquitectura Kepler, aunque ya se hablaba de hacer una gran actualización hacia las próximas GPU del fabricante basada en su nueva arquitectura pascal. OpenAI necesitaba supercomputadores rápidos para entrenar sus modelos más avanzados, y Microsoft los tenía, gracias al hardware de NVIDIA, claro.

Los centros de datos de Azure alcanzaron otro nivel cuando en 2019 Microsoft hizo su primera inversión en OpenAI. Puso sobre la mesa 1.000 millones de dólares en la compañía le prometió construir un supercomputador con una potencia descomunal. La firma dirigida por Sam Altman Necesitaba entrenar modelos cada vez más grandes y, una vez más, Microsoft ofrecía su solución.

microsoft 2
microsoft 2

Esta vez, adquirí GPU Nvidia A100 para hacer más robusta y potente su infraestructura en la nube. Se trataba de uno de los cambios más importantes que Azure había sufrido en los últimos años. De hecho, los ingenieros de Microsoft debieron innovar en métodos para hacer que tantas GPU funcionen juntas. Pero la industria de la IA se mueve rápido, muy rápido.

Aquella estupenda ―y multimillonaria― inversión del gigante de Redmond pronto comenzó a ser insuficiente. La carrera por liderar el desarrollo de la IA requería de más cambios. Así que Microsoft sacó la cartera dos veces más, en 2021 y en 2023, para financiar OpenAIy volvió a comprar el hardware más moderno de NVIDIA, las Nvidia H100y después encargó las nuevas Nvidia H200.

Como podemos ver, el vínculo entre OpenAI y Microsoft se ha sostenido en base a las potentes inversiones de esta última en combinación con su estupenda infraestructura de cómputo con espíritu NVIDIA. Ambas compañías, sin embargo, ya están trabajando para reducir su dependencia de la firma dirigida por Jensen Huang, aunque sus esfuerzos tardarán en dar los primeros frutos.

Según Windows Central, el plan de Satya Nadella y Sam Altman es tremendamente ambicioso. En concreto, contempla una inversión alrededor de 100.000 millones de dólares en infraestructura de cómputo para aplicaciones de IA. Estamos hablando de una inversión superior a, por ejemplo, lo que Microsoft pagó a Activision Blizzard. Recordemos que la operación se cerró en 69.000 millones de dólares.

El plan, de acuerdo a los rumores, tiene varios aristas. Por un lado, se construirá un supercomputador de IA para Azure conocido bajo el nombre código “Stargate” que no contaría con hardware de NVIDIA. Por otro lado, se prepararía otro supercomputador algo más pequeño para uso exclusivo de OpenAI. El primero estaría listo en 2028 mientras que el segundo arrancaría en 2026.

Puede que te preguntes qué alternativas a NVIDIA tiene Microsoft en la actualidad. La respuesta que el gigante de Redmond también es una compañía de hardware, y desde hace tiempo lleva dedicando presupuesto para desarrollar sus propios chips de IA. En el evento Microsoft Ignite del año pasado nos enteramos de la existencia de dos de sus nuevos productos.

Azure Maia AI es un chip para centro de datos optimizado para la IA generativa e IA general. Azure Cobalt, basado en ARM, ha sido diseñado para impulsar la computación de propósito general. “Estamos reimaginando cada aspecto de nuestros centros de datos para satisfacer las necesidades de nuestros clientes”, dijo Scott Guthrie, responsable de IA y servicios en la nube, durante el evento.

Imágenes | microsoft

En Xataka | NVIDIA vende más chips para inteligencia artificial que nadie, aunque es otra empresa la que domina este mercado

En Xataka | Empresas de EEUU y China se dan la mano por un buen motivo: crear el primer estándar global de IA generativa



Source link

Comparte NdS

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *