El CEO de Nvidia dice que sus chips de IA están mejorando más rápido que la Ley de Moore

El CEO de Nvidia dice que sus chips de IA están mejorando más rápido que la Ley de Moore

El director ejecutivo de Nvidia, Jensen Huang, dice que el rendimiento de los chips de inteligencia artificial de su empresa está avanzando más rápido que las tasas históricas establecidas por la Ley de Moore, la rúbrica que impulsó el progreso informático durante décadas.

“Nuestros sistemas están progresando mucho más rápido que la Ley de Moore”, dijo Huang en una entrevista con TechCrunch el martes, la mañana después de pronunció un discurso de apertura ante una multitud de 10.000 personas en CES en Las Vegas.

Acuñada por el cofundador de Intel, Gordon Moore, en 1965, la Ley de Moore predijo que la cantidad de transistores en los chips de computadora se duplicaría aproximadamente cada año, esencialmente duplicando el rendimiento de esos chips. Esta predicción en su mayor parte se cumplió y generó rápidos avances en la capacidad y una caída de los costos durante décadas.

En los últimos años, la Ley de Moore se ha ralentizado. Sin embargo, Huang afirma que los chips de IA de Nvidia se están moviendo a un ritmo propio acelerado; La compañía dice que su último superchip para centro de datos es más de 30 veces más rápido para ejecutar cargas de trabajo de inferencia de IA que su generación anterior.

“Podemos construir la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos, todo al mismo tiempo”, afirmó Huang. “Si haces eso, entonces podrás avanzar más rápido que la Ley de Moore, porque puedes innovar en todo el conjunto”.

La audaz afirmación del director ejecutivo de Nvidia llega en un momento en el que Muchos se preguntan si el progreso de la IA se ha estancado.. Los principales laboratorios de IA, como Google, OpenAI y Anthropic, utilizan los chips de IA de Nvidia para entrenar y ejecutar sus modelos de IA, y los avances en estos chips probablemente se traducirían en mayores avances en las capacidades de los modelos de IA.

Esta no es la primera vez que Huang sugiere que Nvidia está superando la ley de Moore. En un podcast en noviembreHuang sugirió que el mundo de la IA está en camino hacia la “hiperley de Moore”.

Huang rechaza la idea de que el progreso de la IA se esté desacelerando. En cambio, afirma que ahora hay tres leyes activas de escalamiento de la IA: preentrenamiento, la fase de entrenamiento inicial donde los modelos de IA aprenden patrones a partir de grandes cantidades de datos; post-entrenamiento, que afina las respuestas de un modelo de IA utilizando métodos como la retroalimentación humana; y cálculo en el momento de la prueba, que ocurre durante la fase de inferencia y le da al modelo de IA más tiempo para “pensar” después de cada pregunta.

“La Ley de Moore fue muy importante en la historia de la informática porque redujo los costos de la informática”, dijo Huang a TechCrunch. “Lo mismo sucederá con la inferencia, donde aumentamos el rendimiento y, como resultado, el costo de la inferencia será menor”.

(Por supuesto, Nvidia tiene crecido hasta convertirse en la empresa más valiosa del planeta aprovechando el auge de la IA, por lo que a Huang le beneficia decirlo).

El director ejecutivo de Nvidia, Jensen Huang, usa un gb200 nvl72 como escudo (créditos de la imagen: Nvidia)

Los H100 de Nvidia fueron el chip elegido por las empresas de tecnología que buscaban entrenar modelos de IA, pero ahora que las empresas de tecnología se están centrando más en la inferencia, algunos han cuestionado si los costosos chips de Nvidia seguirán estando en la cima.

Los modelos de IA que utilizan computación en tiempo de prueba son costosos de ejecutar hoy en día. Existe la preocupación de que el modelo o3 de OpenAI, que utiliza una versión ampliada de computación en tiempo de prueba, sea demasiado costoso para la mayoría de las personas. Por ejemplo, OpenAI gastó casi $20 por tarea usando o3 para lograr puntuaciones a nivel humano en una prueba de inteligencia general. Una suscripción a ChatGPT Plus cuesta $20 por un mes completo de uso.

Huang levantó el último superchip para centros de datos de Nvidia, el GB200 NVL72, en el escenario como un escudo durante la conferencia magistral del lunes. Este chip es entre 30 y 40 veces más rápido a la hora de ejecutar cargas de trabajo de inferencia de IA que los anteriores chips más vendidos de Nvidia, el H100. Huang dice que este salto en el rendimiento significa que los modelos de razonamiento de IA como el o3 de OpenAI, que utiliza una cantidad significativa de computación durante la fase de inferencia, se abaratarán con el tiempo.

Huang dice que, en general, está enfocado en crear chips de mayor rendimiento, y que los chips de mayor rendimiento generan precios más bajos a largo plazo.

“La solución directa e inmediata para la computación en tiempo de prueba, tanto en rendimiento como en costo, es aumentar nuestra capacidad informática”, dijo Huang a TechCrunch. Señaló que, a largo plazo, los modelos de razonamiento de IA podrían usarse para crear mejores datos para el entrenamiento previo y posterior de los modelos de IA.

Ciertamente hemos visto caer en picado el precio de los modelos de IA en el último año, en parte debido a los avances informáticos de empresas de hardware como Nvidia. Huang dice que es una tendencia que espera que continúe con los modelos de razonamiento de IA, aunque las primeras versiones que hemos visto de OpenAI han sido bastante caras.

En términos más generales, Huang afirmó que sus chips de IA actuales son 1.000 veces mejores que los de hace 10 años. Se trata de un ritmo mucho más rápido que el estándar establecido por la ley de Moore, y Huang dice que no ve señales de detenerse pronto.

fuente