Empresas de inteligencia artificial acuerdan compromisos de seguridad voluntarios.

Empresas de inteligencia artificial acordaron el martes un conjunto de directrices de seguridad voluntarias y reafirmaron su compromiso de desarrollar su tecnología de IA de una manera que incentive la seguridad de sus plataformas y el público.

En la Cumbre de IA de Seúl – organizada por los gobiernos de Corea del Sur y el Reino Unido – 16 empresas líderes se sumaron a los Compromisos de Seguridad de IA de Frontera no vinculantes, que tienen como objetivo mitigar los riesgos de la IA al tiempo que aumentan la responsabilidad y la transparencia.

Entre las empresas que aceptaron los compromisos se encuentran OpenAI, Google, IBM, Amazon, Meta y xAI.

Las empresas acordaron evaluar los riesgos de la tecnología en cada paso del desarrollo de un nuevo sistema de IA, centrándose en reducir los riesgos asociados con posibles mal usos de la tecnología también. Acordaron considerar los resultados de evaluaciones internas y externas “según corresponda” para determinar la seguridad del sistema. Las evaluaciones externas podrían ser realizadas por terceros independientes, sus gobiernos de origen, o “otros organismos que sus gobiernos consideren apropiados”.

Las empresas también acordaron establecer un umbral predefinido para el nivel máximo de riesgo que un determinado sistema de IA podrían estar dispuestas a tolerar. Acordaron indicar claramente cómo garantizarían que mantendrían los riesgos por debajo de ese umbral y qué harían si su sistema de IA superara ese umbral, incluyendo “procesos para desarrollar y desplegar sus sistemas y modelos solo si evalúan que los riesgos residuales se mantendrían por debajo de los umbrales”.

“En el extremo, las organizaciones se comprometen a no desarrollar o desplegar un modelo o sistema en absoluto, si las mitigaciones no pueden aplicarse para mantener los riesgos por debajo de los umbrales”, decía parte del acuerdo no vinculante.

LEAR  Personas asesinadas y heridas en las celebraciones del festival de Solingen en Alemania.

La cumbre de dos días siguió a la primera reunión de este tipo en noviembre, y contó con varios líderes mundiales que también se comprometieron a construir barreras adecuadas para desarrollar la IA de manera segura y a compartir recursos para “forjar una comprensión común de la seguridad de la IA y alinear su trabajo en la investigación de la IA”.