Stargate creará puestos de trabajo. Pero no para los humanos.

El martes, pensaba que podría escribir una historia sobre las implicaciones de la derogación de la sucursal Trump de la orden ejecutiva de Biden en la IA. Pero luego dos historias de IA más grandes y más importantes cayeron: una técnica y una económica.

La historia económica es Stargate. En colaboración con compañías como Oracle y SoftBank, el cofundador de Operai, Sam Altman, anunció un increíble plan de inversión de $ 500 mil millones en “Nueva infraestructura de IA para OpenAI”, es decir, para los centros de datos y las centros de energía que se necesitarán para alimentarlas.

La masa inmediatamente tenía preguntas. Primero, estaba la revelación pública de Elon Musk de que “en verdad no tienen el dinero”, seguido por la respuesta de la CEO de Microsoft Satya Nadella: “Soy bueno por mis $ 80 mil millones.” Segundo, algunos cuestionaron la afirmación de Openai de que el software “creará cientos de miles de empleos estadounidenses”.

La otra gran historia de esta semana fue Deepseek R1, un nuevo avance desde la startup de IA china, Deepseek, que la compañía anuncia como rival del O1 de OpenAI. Lo que hace que R1 sea un gran problema es menos las implicaciones económicas y más las técnicas.

Para enseñar a los sistemas de IA a dar buenas respuestas, calificamos las respuestas que nos dan y las capacitamos basándonos en las que calificamos como excelentes. Este es el “entrenamiento de refuerzo de la retroalimentación humana” (RLHF), y ha sido el enfoque principal para capacitar a los modelos de IA modernos.

Pero RLHF no es como obtuvimos el software de juegos de IA sobrehumano Alphazero. Eso fue entrenado utilizando una organización diferente, basada en el autoaprendizaje: la IA pudo inventar nuevos rompecabezas para sí misma, resolverlos, aprender de la experiencia y mejorar desde allí.

LEAR  Rally de coches regresa este sábado « Euro Weekly News"

Entonces, por supuesto, los laboratorios han estado tratando de descubrir algo similar para modelos de idiomas grandes. La idea básica es simple: permitir que un modelo considere una pregunta durante mucho tiempo, potencialmente usando muchos cálculos costosos, y luego capacitarlo en la respuesta final encontrada.

Esto significaría que a los sistemas de IA se les puede enseñar a hacer rápidamente y económicamente cualquier cosa que sepan hacer de forma lenta y costosa, lo que podría llevar a mejoras rápidas e impactantes en las capacidades de la IA.

Has leído 1 artículo en el último mes

Aquí en Vox, estamos comprometidos en cubrir los problemas que más le importan: amenazas a la democracia, la inmigración, los derechos reproductivos, el medio ambiente y la creciente polarización en este país.

Nuestra misión es proporcionar un periodismo claro y accesible que le permita mantenerse informado y comprometido en la configuración de nuestro mundo. Al convertirse en Miembro de VOX, fortalece directamente nuestra capacidad para ofrecer informes independientes en profundidad que impulsan un cambio significativo.

Confiamos en lectores como usted, únase a nosotros.

Swati Sharma

Editora en jefe de VOX