“
Enero ha sido un mes extraordinario en cuanto al número de anuncios importantes en el campo de la IA. Dos de ellos destacan para mí: el respaldo del gobierno de los Estados Unidos al proyecto Stargate, un centro de datos de última generación que tiene un costo de $500 mil millones y cuenta con inversiones de Oracle, SoftBank y OpenAi; y el lanzamiento por parte de Deepseek de su Modelo de Razonamiento R1 entrenado, con un costo estimado de aproximadamente $5 millones, una cifra considerable pero una fracción de lo que cuesta a OpenAi entrenar sus modelos O1.
La sociedad estadounidense ha mantenido por mucho tiempo la creencia de que más grande es mejor y que más caro es mejor. Sin embargo, debemos plantearnos una pregunta diferente. Si Deepseek fue entrenado por una décima parte del costo de entrenar O1, y si la inferencia en Deepseek tiene un costo aproximadamente treinta veces menor que en O1 ($2.19 por millón de tokens de salida frente a $60 por millón de tokens producidos), ¿Está yendo en la dirección correcta el sector tecnológico estadounidense?
Claramente, no es así. Nuestra mentalidad de “más grande es mejor” nos está fallando. Durante mucho tiempo he sostenido que la clave del éxito en el campo de la IA radica en minimizar los costos de entrenamiento e inferencia. No creo que realmente exista una competencia entre las comunidades de IA de EE. UU. y China. Pero si aceptamos esa metáfora, Estados Unidos, y particularmente OpenAi, claramente se están quedando rezagados. Un centro de datos de medio trillón de dólares es parte del problema, no de la solución. La mejor ingeniería supera a la idea de simplemente “más grande”. Los tecnólogos en Estados Unidos necesitan asimilar este mensaje.
Aprende más rápido. Profundiza más. Visualiza más lejos.
Obtén las últimas tendencias de Radar O’Reilly en nuestro boletín.
Gracias por suscribirte.
El post El decano no apetencia – O’Reilly apareció primero en ButterWord.
“