Por qué la inteligencia artificial no reemplazará a los psicoterapeutas humanos.

El aumento de la IA cambia muchas esferas de la vida, con una tasa de crecimiento proyectada de casi el 37% para 2030, mientras que se espera que la atención médica sea la que más impacto vea del uso de la IA con una tasa de adopción a largo plazo del 40%.

En el ámbito de la salud mental, la inteligencia artificial tiene como objetivo abordar problemas fundamentales, como la escasez de profesionales y el alto costo de la terapia. Ya sea aliviando un sistema de salud mental sobrecargado, rompiendo barreras financieras o de ubicación, abordando la necesidad de primeros auxilios o superando estigmas, puede parecer que la IA tiene respuestas para democratizar la terapia para el público en general. Y se refleja en el aumento del volumen de búsquedas de ‘ai salud mental’ en Google en los últimos 2 años.

Los chatbots alimentados por IA, como Wysa, Woebot, Earkick, Youper, combinan algoritmos de aprendizaje automático y procesamiento de lenguaje natural con métodos psicológicos para ofrecer apoyo e intervenciones terapéuticas a aquellos que necesitan atención de salud mental. Cada vez más, los grandes empleadores en Estados Unidos ofrecen acceso a aplicaciones de IA para la salud mental como beneficios laborales.

Mientras que las herramientas alimentadas por IA toman medidas para democratizar el acceso a la terapia, su aumento ha generado tanto emoción como preocupación.

Limitaciones de la IA en psicoterapia

La comprensión de la IA de la experiencia humana está limitada por su incapacidad para comprender los contextos sociales y culturales. Al perder señales sociales cruciales, la experiencia de terapia de IA puede llevar a malentendidos, disminuyendo el progreso del paciente.

Escenario: un individuo chino-americano que lucha con sentimientos de aislamiento y conflicto de identidad cultural, intenta usar un chatbot de IA.

Paciente: “Me siento perdido entre dos mundos. No soy completamente aceptado en la cultura china o americana”.

LEAR  Japón afirma haber enviado aviones de combate tras la violación de su espacio aéreo por un avión espía chino.

Chatbot de IA: “Parece que estás experimentando mucho estrés. ¿Has intentado practicar la atención plena?”

El chatbot, aunque ofrece un mecanismo genérico de afrontamiento, no reconoce los matices culturales de la experiencia del paciente. La respuesta podría percibirse como insensible, exacerbando aún más los sentimientos de aislamiento del paciente.

Consideraciones éticas como preocupaciones sobre la privacidad de los datos y el potencial de sesgo de la IA también son primordiales y deben abordarse en el desarrollo de la IA en la salud mental. Los sesgos en los datos de entrenamiento pueden resultar en decisiones de tratamiento equivocadas.

Escenario: un chatbot de IA diseñado para ayudar con la ansiedad y la depresión ha sido entrenado en un conjunto de datos que incluye predominantemente experiencias de encuestados masculinos.

Paciente: “Soy una mujer que lucha con la ansiedad y la depresión. Siento que constantemente me están juzgando y estereotipando”.

Chatbot de IA: “Parece que te sientes abrumada. Quizás deberías intentar hacer ejercicios suaves para reducir el estrés”.

El chatbot no reconoce los factores estresantes únicos a los que se enfrentan las mujeres, como la presión social y la discriminación de género. Esto puede llevar a la minimización de experiencias y a la reafirmación de estereotipos dañinos.

Finalmente, la IA puede tener dificultades para manejar casos complejos que involucran condiciones graves de salud mental o trauma. Puede tener dificultades para demostrar la comprensión matizada y las intervenciones terapéuticas ofrecidas por terapeutas humanos.

Escenario: un paciente que ha experimentado un trauma infantil grave, lo que lleva a un trastorno de estrés postraumático complejo (TEPT-C), puede presentar flashbacks, pesadillas, hipervigilancia y dificultades para confiar en los demás.

Paciente: “Tengo pesadillas todas las noches. No puedo dormir. Siento que siempre estoy alerta, como si algo malo fuera a suceder”.

Chatbot de IA: “Parece que estás pasando por un momento difícil. ¿Has probado técnicas de relajación como la respiración profunda?”

LEAR  Por qué el senderismo es especialmente beneficioso para tu cuerpo y cerebro.

El chatbot simplifica en exceso la complejidad del trauma y el TEPT. Puede tener dificultades para comprender completamente el dolor emocional y puede recurrir a soluciones simples que desencadenen más emociones negativas.

En los tres casos, la falta de presencia empática, sensibilidad cultural y comprensión profunda hace que sea difícil para la IA construir el nivel de confianza esencial para un apoyo efectivo en salud mental. Eso nos lleva a discutir el papel de los terapeutas humanos en la era de la IA.

El elemento humano irremplazable

Aunque algunas de las preocupaciones se están — o potencialmente se pueden resolver — creemos que la IA nunca podrá demostrar empatía y construir confianza.

La empatía, la capacidad de entender y compartir los sentimientos de otra persona, es una piedra angular de la psicoterapia. La investigación muestra que el grado de empatía demostrado por el terapeuta y percibido por el paciente, en lugar de cualquier modalidad específica utilizada, tiene una correlación significativa con el éxito del tratamiento.

La IA, por definición, no participa en experiencias emocionales y no es capaz de escuchar empáticamente. Independientemente de lo elocuente y estadísticamente fundamentada que sea su respuesta a las necesidades del paciente, no comparte una experiencia y es incapaz de comprender cómo se siente una persona acerca de la respuesta.

Si la inteligencia artificial se entrena para ser empática — por ejemplo, a través de una interacción continua con el mismo paciente que expresa abiertamente los sentimientos — corre el riesgo de ser poco ética al socavar el significado y las expectativas de la empatía real.

La misma barrera de empatía se refleja en la forma en que los pacientes perciben las interacciones de la IA. Si bien los mensajes generados por IA pueden hacer que los destinatarios se sientan escuchados, esos mismos destinatarios se sienten menos escuchados y perciben los mensajes como menos auténticos y confiables cuando se dan cuenta de que provienen de la IA.

LEAR  Cómo elegir los mejores productos en el supermercado.

Construir una relación de confianza, conocida como la alianza terapéutica, también es vital para una terapia exitosa. A diferencia de la IA, los humanos sobresalen en el establecimiento de rapport y la creación de un espacio seguro para los clientes. A través de la escucha empática, los terapeutas a menudo pueden sentir cuándo un cliente se siente abrumado o cuándo se necesita un nuevo enfoque, y utilizar la intuición y el juicio para adaptarse a situaciones inesperadas.

IA como compañero

Si bien la IA no puede reemplazar completamente a los psicoterapeutas humanos, puede servir como una herramienta complementaria valiosa. Los profesionales de la salud mental pasan más del 20% de sus horas laborales en tareas administrativas, mientras que este tiempo valioso podría haberse utilizado para ayudar a los pacientes. Al automatizar tareas administrativas, la IA puede liberar tiempo a los terapeutas y prevenir el agotamiento.

La IA también puede recopilar y analizar datos de los pacientes para identificar patrones e informar decisiones de tratamiento con información basada en datos. Además, la IA se puede utilizar para hacer un seguimiento del progreso de los pacientes y desarrollar planes de tratamiento personalizados basados en necesidades individuales.

En resumen, si bien la IA ofrece avances en la atención de salud mental, no puede reemplazar completamente los elementos humanos de la psicoterapia. La empatía, la confianza, la intuición y el juicio son cualidades irremplazables que los profesionales de la salud mental aportan a la relación terapéutica. La IA puede servir como una herramienta de apoyo, pero debe usarse en conjunto con la experiencia humana para mejorar, en lugar de reemplazar, la relación terapeuta-paciente.