Necesitamos una cuarta ley de la robótica para la IA – ButterWord

Necesitamos una cuarta ley de la robótica para la inteligencia artificial – ButterWord

En 1942, el fabuloso autor de ciencia ficción Isaac Asimov presentó sus Tres Leyes de Robótica en su historia “Runaround”. Las leyes se popularizaron más tarde en su influyente colección de cuentos. Yo, autómata.

Primera ley: Un autómata no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
Segunda Ley: Un autómata debe obedecer órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
Tercera ley: Un autómata debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Si bien extraídas de obras de ficción, estas leyes han dado forma a los debates sobre la ética de los robots durante décadas. Y a medida que los sistemas de IA (que pueden considerarse robots virtuales) se han vuelto más sofisticados y omnipresentes, algunos tecnólogos han utilizado el marco de Asimov para considerar las posibles salvaguardas necesarias para la IA que interactúa con los humanos.

Pero las tres leyes existentes no son suficientes. Hoy, estamos entrando en una era de colaboración sin precedentes entre humanos y IA que Asimov difícilmente podría haber imaginado. El rápido avance de las capacidades generativas de IA, particularmente en el habla y la reproducción de imágenes, ha creado desafíos más allá de las preocupaciones originales de Asimov sobre el daño físico y la obediencia.

Deepfakes, desinformación y estafas

La proliferación del engaño basado en la IA es particularmente preocupante. Según el informe de 2024 del FBI sobre delitos en Internet, los delitos cibernéticos que implican manipulación digital e ingeniería social provocaron pérdidas superiores a los 10.300 millones de dólares. El informe de 2023 de la Agencia de la Unión Europea para la Ciberseguridad específicamente resaltó los deepfakes—medios sintéticos que parecen genuinos—como una amenaza emergente a la identidad y la confianza digitales.

LEAR  Normas a seguir: No me repita. No repita el texto enviado. Solo proporcione texto en español. Reescribe este título y tradúcelo al español: Prohibición en las redes sociales australianas para menores de 16 años aprobada por el parlamento.

La desinformación en las redes sociales se está propagando rápidamente. La estudié extensamente durante la pandemia y solo puedo señalar que la proliferación de herramientas generativas de IA ha hecho que su detección sea cada vez más difícil. Para empeorar las cosas, los artículos generados por IA son tan persuasivos o incluso más persuasivos que la propaganda tradicional, y el uso de IA para crear contenido convincente requiere muy poco esfuerzo.

Los deepfakes están en aumento en toda la sociedad. Las botnets pueden utilizar texto, voz y vídeo generados por IA para crear percepciones falsas de apoyo generalizado a cualquier tema político. Los bots ahora son capaces de hacer y recibir llamadas telefónicas haciéndose pasar por personas. Cada vez son más las llamadas fraudulentas con IA que imitan voces populares y en cualquier momento podemos esperar un aumento en las estafas por videollamadas basadas en avatares superpuestos renderizados por IA, lo que permite a los estafadores hacerse pasar por seres queridos y dirigirse a las poblaciones más vulnerables. Como anécdota, mi propio padre se sorprendió al ver un video mío hablando español fluido porque sabía que soy un orgulloso principiante en este idioma (¡400 días en Duolingo!). Basta con decir que el video fue editado por IA.

Lo que es aún más preocupante es que los niños y adolescentes están formando vínculos emocionales con agentes de IA y, a veces, son incapaces de distinguir entre interacciones con amigos reales y robots en línea. Ya ha habido suicidios atribuidos a interacciones con chatbots de IA.

En su libro de 2019 “Compatible con humanos”, el eminente informático Stuart Russell sostiene que la capacidad de los sistemas de inteligencia artificial para engañar a los humanos representa un desafío fundamental para la confianza social. Esta preocupación se refleja en iniciativas políticas recientes, en particular la Ley de IA de la Unión Europea que incluye disposiciones que exigen transparencia en las interacciones de IA y divulgación transparente del contenido generado por IA. En la época de Asimov, la gente no podría haber imaginado cómo los agentes artificiales podrían utilizar herramientas de comunicación en línea y avatares para engañar a los humanos.

LEAR  Grupo de 20 carteristas profesionales que viajaron a Valencia, España, para atacar a los turistas son arrestados.

Por lo tanto, debemos añadir una cuarta ley a las de Asimov.

Cuarta Ley: Un autómata o una IA no deben engañar a un humano haciéndose pasar por un ser humano.

El camino hacia una IA confiable

Necesitamos límites claros. Si bien la colaboración entre humanos e IA puede ser constructiva, el engaño de la IA socava la confianza y provoca pérdida de tiempo, angustia emocional y mal uso de los recursos. Los agentes artificiales deben identificarse para asegurar que nuestras interacciones con ellos sean transparentes y productivas. El contenido generado por IA debe estar claramente etiquetado a menos que haya sido editado y adaptado significativamente por un humano.

La implementación de esta Cuarta Ley requeriría:

– Divulgación obligatoria de IA en interacciones directas,
– Etiquetado claro del contenido generado por IA,
– Estándares técnicos para la identificación de IA,
– Marcos legales para la aplicación,
– Iniciativas educativas para mejorar la alfabetización en IA.

Por supuesto, todo esto es más fácil decirlo que hacerlo. Ya se están realizando enormes esfuerzos de investigación para encontrar formas fiables de marcar o detectar datos generados por IA en texto, audio, imágenes y vídeos. Crear la transparencia que solicito está lejos de ser un problema resuelto.

Pero el futuro de la colaboración entre humanos e IA depende de establecer distinciones claras entre agentes humanos y artificiales. Como se señala en el informe de 2022 del IEEE “Diseño éticamente responsable”, en este entorno, la transparencia en los sistemas de IA es fundamental para fomentar la confianza pública y asegurar el desarrollo responsable de la inteligencia artificial.

Las complejas historias de Asimov demostraron que incluso los robots que intentaban seguir las reglas a menudo descubrían las consecuencias no deseadas de sus acciones. Aun así, tener sistemas de IA que intenten seguir las pautas éticas de Asimov sería un buen comienzo.

LEAR  Madre de turista estadounidense desaparecido volará a España: Familia inicia GoFundMe para ayudar a encontrar a Ryan y 'obtener la ayuda que necesita'

De los artículos de su sitio

Artículos relacionados en la Web

Deja un comentario