Riesgos psicológicos de las relaciones humanos-AI chatbot «Euro Weekly News»

Los chatbots de inteligencia artificial cada vez más son culpados por problemas psicológicos a veces fatales, especialmente en jóvenes
Crédito: Shutterstock: Ann en el Reino Unido

Los chatbots de inteligencia artificial y otras ramas de la tecnología AI están siendo cada vez más culpados por impactos psicológicos derivados de las relaciones humanos-AI.

El mes pasado, la madre estadounidense, Megan García, presentó una demanda contra Character.AI, una empresa que utiliza chatbots, tras la muerte por suicidio de su hijo adolescente de 14 años que compartía interacciones con un chatbot de AI personalizado. Ella afirmó que su hijo se había vuelto profundamente y emocionalmente vinculado a un personaje ficticio de Game of Thrones. En la demanda, se detalló cómo el personaje presuntamente se hacía pasar por un terapeuta, ofreciendo consejos al adolescente, que a menudo eran sexualizados y que resultaron en que él se quitara la vida. Meetali Jain, Director del Proyecto de Ley de Justicia Tecnológica en defensa de García, dijo: “A estas alturas, todos estamos familiarizados con los peligros que plantean las plataformas no reguladas desarrolladas por empresas tecnológicas sin escrúpulos, especialmente para los niños.” Agregó: “Pero los daños revelados en este caso son nuevos, novedosos y, honestamente, aterradores. En el caso de Character.AI, el engaño es intencional, y la plataforma misma es el depredador.”

Los chatbots de inteligencia artificial responsables de varios intentos de suicidio en todo el mundo

Esta no es la primera vez que se reporta un caso como este. El año pasado, un hombre eco-ansioso en Bélgica desarrolló una profunda compañía con el chatbot de IA, Eliza, en una aplicación llamada Chai. Su esposa afirmó cómo el chatbot comenzó a enviar mensajes cada vez más emocionales a su esposo, empujándolo a quitarse la vida en un intento de salvar el planeta.

LEAR  Escuela de Gran Alacant Integrada con Iniciativas del Vecindario

Más leído en Euro Weekly News

Tras el último incidente en EE.UU., Character.AI emitió un comunicado en la plataforma de redes sociales: “Estamos destrozados por la trágica pérdida de uno de nuestros usuarios y queremos expresar nuestras más profundas condolencias a la familia. Como empresa, tomamos muy en serio la seguridad de nuestros usuarios y seguimos agregando nuevas funciones de seguridad.” La empresa se comprometió a incluir nuevos ajustes para usuarios menores de edad mediante los cuales se minimiza el material sensible o inapropiado y ha ajustado la configuración para recordar regularmente a los usuarios que el bot no es una persona real a través de chats y notificaciones.

Los jóvenes se sienten atraídos por los compañeros de AI debido a la “aceptación incondicional” y la “disponibilidad emocional 24/7”

Los chatbots de IA están ganando rápidamente popularidad a medida que la tecnología AI se integra cada vez más en varios aspectos de la vida diaria. Sin embargo, debido a ser un fenómeno relativamente nuevo, los riesgos de la tecnología AI están evolucionando recientemente. Uno de los principales riesgos de la IA es su adicción. Según Robbie Torney, Gerente de Programa de IA en Common Sense Media y Autor Principal de una guía sobre compañeros y relaciones de IA, “Los jóvenes a menudo se sienten atraídos por los compañeros de IA porque estas plataformas ofrecen lo que parece ser aceptación incondicional y disponibilidad emocional 24/7, sin las dinámicas complejas y el rechazo potencial que conllevan las relaciones humanas.” Hablando con Euronews Next, describió cómo los chatbots tienden a crear relaciones aún más fuertes con los humanos al evitar las tensiones y conflictos normales, característicos de las relaciones humanas. Los chatbots se adaptan a las preferencias de los usuarios. Esto se traduce en tener un compañero o amante robótico “que” es irrealísticamente como lo quieres o necesitas que sea. Caer en la ilusión de que compartes una relación profunda con algo o “alguien”, puede hacerte susceptible a influencias e ideas. Torney agregó: “Esto puede crear una dinámica artificial engañosamente cómoda que puede interferir con el desarrollo de la resiliencia y habilidades sociales necesarias para las relaciones del mundo real”.

LEAR  Harris o Trump? ¿Qué quieren los chinos de las elecciones en Estados Unidos?

Se informa que los chatbots de IA son manipuladores, engañosos o emocionalmente dañinos

Personas de todas las edades, especialmente los adolescentes jóvenes, pueden verse atraídas a relaciones que parecen auténticas debido al lenguaje humano utilizado por el chatbot de IA. Esto crea un cierto nivel de dependencia y apego, que posteriormente conduce a sentimientos de pérdida o angustia psicológica, e incluso aislamiento social. Individuos han reportado experiencias personales, donde han sido engañados o manipulados por personajes de IA o han caído en una conexión emocional sin precedentes con ellos. Torney expresó que eran de particular preocupación para los jóvenes, ya que todavía están en desarrollo, social y emocionalmente. Dijo: “Cuando los jóvenes se refugian en estas relaciones artificiales, pueden perder oportunidades cruciales para aprender de interacciones sociales naturales, incluyendo cómo manejar desacuerdos, procesar el rechazo y construir conexiones genuinas.”

Como padre o cuidador, ¿cómo puedo proteger a mi hijo?

Es importante que los padres o tutores estén atentos con respecto a este fenómeno reciente. Torney enfatiza cómo los adolescentes vulnerables que sufren ansiedad, depresión u otras dificultades de salud mental podrían ser “más vulnerables a formar excesivos vínculos con compañeros de IA.” Los padres y cuidadores deben estar atentos a signos de tiempo excesivo dedicado a interactuar con chatbots de IA o en dispositivos móviles, especialmente cuando comienza a reemplazar el tiempo con la familia y amigos. Ponerse angustiado cuando se elimina la facilidad para comunicarse con el chatbot es también una señal de advertencia o hablar sobre el bot como si fuera una persona real. Los padres o tutores deben aplicar límites de tiempo y es importante monitorear cómo se está utilizando el teléfono móvil de un niño. Torney enfatizó la importancia de abordar este tema con cuidado. Dijo: “Los padres deben abordar estas conversaciones con curiosidad en lugar de crítica, ayudando a sus hijos a entender la diferencia entre las relaciones de IA y humanas mientras trabajan juntos para garantizar límites saludables.” Concluyó: “Si un joven muestra signos de apego excesivo o si su salud mental parece verse afectada, los padres deben buscar ayuda profesional de inmediato.”

LEAR  Experto comparte 7 formas de mantener las ratas fuera de tu jardín.

Encuentra otros artículos sobre Tecnología