El factor de miedo de OpenAI
El mundo tecnológico alzó las cejas colectivamente la semana pasada cuando Ilya Sutskever, el cofundador de OpenAI que lideró brevemente una rebelión contra Sam Altman, renunció como científico jefe. Algunos observadores minimizaron la salida, señalando que Sutskever no había estado en la oficina en meses y que parecía haberse ido en términos cordiales.
Pero comentarios controvertidos por otro ejecutivo saliente han planteado preguntas sobre si la compañía, uno de los principales desarrolladores de herramientas de inteligencia artificial, es demasiado laxa en cuanto a seguridad.
“La cultura y los procesos de seguridad han pasado a un segundo plano frente a productos llamativos,” Jan Leike, quien renunció a OpenAI la semana pasada, escribió en la red social X. Junto con Sutskever, Leike supervisaba el llamado equipo de superalineación de la compañía, encargado de asegurarse de que los productos no representaran una amenaza para la humanidad.
Sutskever dijo en su nota de despedida que estaba seguro de que OpenAI construiría una inteligencia artificial general — A.I. tan sofisticada como el cerebro humano — que fuera “segura y beneficiosa” para la humanidad. Pero Leike fue mucho más crítico:
Durante los últimos meses, mi equipo ha estado luchando contra viento y marea. A veces estábamos batallando por recursos informáticos y se estaba volviendo más difícil hacer esta investigación crucial.
Leike habló en nombre de muchos empleados de OpenAI que priorizaban la seguridad, según Vox. Un ex trabajador, Daniel Kokotajlo, dijo a la publicación en línea que “gradualmente perdí la confianza en el liderazgo de OpenAI y su capacidad de manejar de manera responsable la AGI, así que renuncié.” (Estas preocupaciones fueron la razón por la que Sutskever presionó a la junta directiva de OpenAI para despedir a Altman como CEO el año pasado, aunque Sutskever luego dijo que lamentaba ese movimiento.)