Grandes modelos de lenguaje (LLMs) pueden identificar y predecir crisis de salud mental con una precisión comparable a los médicos, pero en un tiempo significativamente más corto, muestra un nuevo estudio. Los hallazgos indican el potencial que tiene la inteligencia artificial en apoyar a los médicos en un momento en que hay una grave escasez de proveedores de salud mental.
El estudio revisado por pares fue realizado por Brightside Health y fue publicado en JMIR Mental Health. La compañía de salud mental con sede en San Francisco brinda atención virtual a pacientes con depresión clínica, ansiedad y otros trastornos del estado de ánimo. Su plataforma ofrece psiquiatría, terapia y un programa de atención de crisis para aquellos con un riesgo elevado de suicidio. La compañía utiliza AI de varias formas, incluida su herramienta PrecisionRx, que analiza los datos de los pacientes para adaptar el tratamiento a cada paciente.
El estudio utilizó datos desidentificados de pacientes de preguntas de admisión en la plataforma de Brightside para 140 pacientes que indicaron ideación suicida y 120 pacientes que luego indicaron durante el tratamiento que tenían ideación suicida con un plan para actuar. Los datos también se extrajeron de 200 pacientes que nunca indicaron ideación suicida. La ideación suicida es pensar, considerar o planificar el suicidio.
Luego, a seis clínicos de Brightside se les mostraron los datos de los pacientes, pero solo se les mostró información sobre sus intentos de suicidio anteriores y sus respuestas escritas a una pregunta sobre lo que estaban sintiendo o experimentando. Luego, se les preguntó a los clínicos “una simple pregunta de sí o no sobre su predicción de la [ideación suicida] con un plan, junto con su nivel de confianza sobre la predicción.” Luego, a OpenAI’s GPT-4 se le asignó la misma tarea.
Los investigadores encontraron que los clínicos pudieron predecir la ideación suicida con un plan con una precisión del 55,2% al 67%. GPT-4 pudo predecir con un 61,5% de precisión.
Además, GPT-4 pudo dar su evaluación para las 460 muestras en menos de 10 minutos, mientras que el clínico promedio tardó más de tres horas.
“Nuestra investigación respalda la idea de que la IA generativa tiene el potencial de identificar a los pacientes en riesgo de suicidio. … Con escasez de clínicos de salud mental y altas tasas de agotamiento, tener herramientas para ayudar a los clínicos a hacer triaje e identificar qué pacientes necesitan la atención más oportuna es extremadamente importante, especialmente para pacientes de mayor gravedad y agudeza”, dijo la Dra. Mimi Winsberg, cofundadora y directora médica de Brightside Health.
El suicidio es actualmente la segunda causa principal de muerte entre adultos de 18 a 45 años, y 12,3 millones de estadounidenses de 18 años o más informaron tener pensamientos de suicidio en 2021. Sin embargo, predecir el suicidio puede ser extremadamente difícil, según Winsberg. Además, 122 millones de estadounidenses viven en un área con escasez de profesionales de la salud mental, lo que dificulta recibir atención. Con la IA demostrando ser útil en otras áreas de la atención médica, Brightside decidió realizar el estudio para ver si podía tener un impacto similar en la salud mental, dijo Winsberg.
Si bien el estudio muestra el potencial de la IA para mover la aguja en estas estadísticas, Winsberg señaló que la tecnología está destinada a ser utilizada de manera controlada con supervisión humana.
“Esta investigación destaca el potencial de los LLM para un triaje eficiente y apoyo en la toma de decisiones clínicas en salud mental y cómo tecnologías como estas pueden ayudar a aliviar la escasez de tiempo de los clínicos y capacitarlos con herramientas de evaluación de riesgos, lo cual es especialmente crucial para pacientes en riesgo de suicidio. … Si bien la IA generativa tiene el potencial de mejorar la toma de decisiones clínicas y la atención al paciente en el sector de la salud mental, será importante utilizar la IA generativa para apoyar a los clínicos, no reemplazarlos, utilizando un enfoque colaborativo entre la IA y la experiencia humana”, dijo.