Cómo Nvidia creó el chip que impulsó el auge de la IA generativa Financial Times
Algunos fragmentos del artículo de FT aquí sobre la estructura de costos del enfoque de software y la base de usuarios.
Nvidia se centró originalmente en software para el desarrollo de chips compatibles con GPU para juegos. Este fue un cambio profético.
Nvidia ahora tiene más ingenieros de software que de hardware para permitirle soportar los diferentes tipos de marcos de IA que han surgido en los años siguientes y hacer que sus chips sean más eficientes en el cálculo estadístico necesario para entrenar modelos de IA.
Hopper fue la primera arquitectura optimizada para “transformadores”, el enfoque de IA que sustenta el chatbot de “transformador generativo preentrenado” de OpenAI. El estrecho trabajo de Nvidia con los investigadores de IA le permitió detectar la aparición del transformador en 2017 y comenzar a ajustar su software en consecuencia.
“Podría decirse que Nvidia vio el futuro antes que los demás con su giro para hacer que las GPU fueran programables”, dijo Nathan Benaich, socio general de Air Street Capital, un inversor en nuevas empresas de inteligencia artificial. “Vio una oportunidad y apostó en grande y superó consistentemente a sus competidores”.
Los costos son altos y mientras persista la ventaja competitiva, esto significa fuertes ingresos para Nvidia.
La confianza de Huang en las ganancias continuas se debe en parte a su capacidad de trabajar con el fabricante de chips TSMC para aumentar la producción del H100 y satisfacer la creciente demanda de proveedores de nube como Microsoft, Amazon y Google, grupos de Internet como Meta y clientes corporativos.
“Este es uno de los recursos de ingeniería más escasos del planeta”, dijo Brannin McBee, director de estrategia y fundador de CoreWeave, una nueva empresa de infraestructura en la nube centrada en la inteligencia artificial que fue una de las primeras en recibir envíos de H100 a principios de este año.
Algunos clientes han esperado hasta seis meses para hacerse con los miles de chips H100 que quieren para entrenar sus vastos modelos de datos. Las nuevas empresas de IA habían expresado su preocupación de que los H100 escasearan justo en el momento en que la demanda estaba despegando.
Elon Musk, que ha comprado miles de chips Nvidia para su nueva empresa de inteligencia artificial X.ai, dijo en un evento del Wall Street Journal esta semana que en la actualidad las GPU (unidades de procesamiento de gráficos) “son considerablemente más difíciles de conseguir que las drogas”. bromeando que “no era realmente un listón muy alto en San Francisco”.
“El coste de la informática se ha vuelto astronómico”, añadió Musk. “La apuesta mínima tiene que ser de 250 millones de dólares en hardware de servidor para construir sistemas de IA generativos”.
Grandes empresas tecnológicas de IA y nuevas empresas que utilizan el chip Nvidia H100
El H100 está demostrando ser particularmente popular entre las grandes empresas tecnológicas como Microsoft y Amazon, que están construyendo centros de datos completos centrados en cargas de trabajo de IA, y entre las empresas emergentes de IA generativa como OpenAI, Anthropic, Stability AI e Inflection AI porque promete un mayor rendimiento. que pueden acelerar el lanzamiento de productos o reducir los costos de capacitación con el tiempo.
Competencia
- NVIDIA
- TMSC
- ASML
- más avanzado
- Electrón de Tokio
Tags #AI #nvidia #modelo-de-fabricación-de-chip #chip-H100 #diferenciador-competitivo