Los proveedores de salud deben comenzar a pensar en formas de construir la confianza del consumidor en la IA generativa para que la industria pueda aprovechar plenamente el potencial de la tecnología, sugiere un nuevo informe.
El informe, publicado el jueves por Deloitte, se basa en una encuesta de marzo a más de 2,000 adultos estadounidenses. Sus hallazgos muestran que el uso de la IA generativa por parte de los consumidores con fines de salud, para responder preguntas sobre síntomas, ayudarles a encontrar un proveedor en su red o brindar orientación sobre cómo cuidar a un ser querido, no ha aumentado de 2023 a 2024.
De hecho, el uso de la IA generativa por parte de los consumidores con fines de salud ha disminuido ligeramente. El informe mostró que el 37% de los consumidores están utilizando la IA generativa con fines de salud en 2024, en comparación con el 40% de los consumidores del año pasado. Una razón importante de esta adopción estancada es la creciente desconfianza de los consumidores en la información que proporciona la IA generativa, según el informe.
Los hospitales pueden construir una mayor confianza de los pacientes en los modelos de IA generativa, a través de métodos como mantener conversaciones transparentes, pedir el consentimiento de los pacientes para utilizar las herramientas y entrenar los modelos en datos internos, dijo un experto en IA de Deloitte y líderes clínicos de sistemas de salud.
¿Qué necesitan saber los hospitales sobre las actitudes de los consumidores hacia la IA generativa?
En comparación con la encuesta de Deloitte de 2023 sobre las actitudes de los consumidores hacia la IA generativa en el cuidado de la salud, la desconfianza en la tecnología ha aumentado para todos los grupos de edad, con los mayores aumentos ocurriendo entre los Millennials y los Baby Boomers. La desconfianza de los Millennials en la información proporcionada por la IA generativa aumentó del 21% al 30%, mientras que la desconfianza de los Baby Boomers aumentó del 24% al 32%.
Los consumidores tienen total libertad para experimentar con la IA generativa y usarla en su vida diaria, gracias a la disponibilidad de modelos públicos como ChatGPT de OpenAI o Gemini de Google, señaló Bill Fera, quien es un principal y jefe de IA en Deloitte. Muchos estadounidenses han terminado recibiendo información cuestionable o inexacta al usar estos modelos, y estas experiencias pueden estar haciendo que las personas vean la tecnología como inadecuada para su uso en entornos de atención médica, explicó en una entrevista.
“Creo que el mensaje principal para los hospitales es que si van a usar estos grandes modelos de lenguaje, lo que creemos que deberían y lo harán, necesitan entrenarlos en una base de datos médicos para crear mejores resultados”, comentó Fera.
Los modelos de lenguaje grandes gratuitos y públicamente disponibles no están entrenados en datos específicos de pacientes y, por lo tanto, no siempre son precisos al responder preguntas relacionadas con la salud. Un estudio reciente encontró que ChatGPT diagnosticó erróneamente 83 de 100 casos médicos pediátricos.
Idealmente, los hospitales deberían estar entrenando sus modelos de IA generativa con sus propios datos de pacientes, utilizando datos sintéticos o datos de proveedores de atención médica similares para llenar cualquier vacío, dijo Fera.
Además de esto, Fera recomendó que los hospitales eduquen a sus pacientes sobre cómo y por qué se está utilizando la IA generativa en su organización, así como prestar atención a los comentarios de los pacientes. Señaló que este tipo de transparencia debería ser “in negociable”.
Y sería un camino para construir confianza, dado que los pacientes también exigen esta transparencia. El informe de Deloitte mostró que el 80% de los consumidores quieren ser informados sobre cómo su proveedor de atención médica está utilizando la IA generativa para influir en las decisiones de atención e identificar opciones de tratamiento.
Si los hospitales se toman el tiempo para explicar a los pacientes los modelos de IA generativa que están aplicando a la atención de los pacientes y qué beneficios están diseñados para proporcionar, los pacientes pueden tener una comprensión real de que la IA no está ahí para reemplazar a su médico, sino para mejorar las habilidades del médico para proporcionar una atención de mejor calidad, dijo Fera.
Por ejemplo, una herramienta de documentación clínica no está diseñada para automatizar completamente la generación de notas clínicas. Más bien, está ahí para recopilar datos y crear un borrador de la nota para que el clínico lo edite y, en última instancia, lo apruebe. Esto no elimina la tarea de documentación de los clínicos, pero reduce en gran medida el tiempo que pasan en este proceso trivial, lo que les permite ejercer en la cima de su licencia.
En la opinión de Fera, ser claro sobre los beneficios que la IA generativa podría proporcionar será una forma clave para que los proveedores de atención médica fomenten la confianza de los pacientes en la tecnología en el futuro.
Explorando los beneficios
La comprensión de los estadounidenses sobre la tecnología difiere mucho de persona a persona, y grandes partes de la población pueden no saber exactamente a qué se refiere el término IA, señaló Deb Muro, directora de información de El Camino Health con sede en el Área de la Bahía. Debido a esto, algunos pacientes podrían sentirse asustados cuando escuchan inicialmente que se está utilizando una forma de inteligencia no humana en su atención, pero sus sentimientos probablemente cambiarán una vez que la tecnología les sea explicada detenidamente, señaló Muro.
“Cuando hablo con otros líderes en tecnología de la información, todos comentamos que hemos estado usando IA durante años. Es solo que la IA generativa ha agregado un sabor adicional. Eso es emocionante”, declaró.
En la opinión de Muro, la IA generativa puede ser considerada como un socio de investigación. La tecnología utiliza datos para producir contenido para los clínicos, como el borrador de una nota clínica, resumen de registros de pacientes o un resumen de investigación médica. Los clínicos siempre tienen la última palabra en las decisiones de atención, por lo que la IA generativa de ninguna manera está reemplazando su experiencia. En cambio, está reduciendo la cantidad de tareas mundanas y orientadas a los datos que los clínicos tienen que completar para que puedan pasar más tiempo con los pacientes.
Al tener conversaciones con los pacientes, los proveedores deben asegurarse de que entiendan esto, señaló Muro.
Los proveedores también deben ser claros sobre los casos de uso específicos a los que están aplicando la IA generativa, ya que explicar estos casos de uso dará a los pacientes una mejor idea de cómo la tecnología podría beneficiarlos, agregó.
Por ejemplo, un médico que trata a un paciente puede querer comprobar cómo se atendieron a pacientes con síntomas y perfiles similares en el pasado. En lugar de buscar en los registros y filtrarlos, los clínicos pueden hacer una pregunta simple a una herramienta de IA generativa y comenzar el proceso de elaborar un plan de atención para su paciente mucho antes, explicó Muro.
Las relaciones son el corazón de la confianza
Otro ejecutivo de un sistema de salud, Patrick Runnels, director médico en University Hospitals con sede en Cleveland, estuvo de acuerdo en que los proveedores deben tomarse el tiempo para explicar cómo se está utilizando la IA para mejorar la atención. Él cree que estas conversaciones son más significativas cuando ocurren directamente entre un paciente y su equipo de atención.
Las relaciones sólidas entre proveedores y pacientes son clave para construir confianza en el mundo de la atención médica, señaló Runnels. Los pacientes son más propensos a comprender y aceptar los beneficios de las herramientas de IA generativa cuando son explicados por un proveedor con quien se conocen y se sienten cómodos, explicó.
“La conexión entre paciente y proveedor debe permanecer en primer plano”, declaró Runnels. “Puedes decir, ‘Somos tu equipo de atención: la IA generativa nos está ayudando a ordenar tu atención en segundo plano, pero siempre tendrás una conexión con tu enfermera, trabajador social o médico’. Tienes que centralizar esa idea y demostrar que siempre es así. La IA no elimina las relaciones, que son fundamentales para la confianza. Y si no hay confianza, entonces la paranoia de todos va a aumentar”.
Ashis Barad, director digital y de información en Allegheny Health Network (AHN) con sede en Pittsburgh, también afirmó que debe ser responsabilidad del equipo de atención informar a los pacientes sobre los casos de uso de la IA generativa.
Por ejemplo, AHN se está preparando para lanzar un programa de enfermería virtual para pacientes hospitalizados que involucra IA generativa. Cuando se lance el programa, las enfermeras de AHN recibirán capacitación sobre cómo explicar cuidadosamente el nuevo modelo de atención habilitado por la tecnología a los pacientes.
La capacitación de las enfermeras las preparará para comunicar que siguen siendo miembros presentes y activos del equipo de atención del paciente, explicó Barad. Dijo que el mensaje central de estas conversaciones debería hacer que los pacientes sepan que las enfermeras no están siendo reemplazadas, sino que se les están dando herramientas para ayudarles a cuidar mejor a los pacientes.
Enfatizar las protecciones de datos y pedir consentimiento
Otra forma importante de construir la confianza de los consumidores en la IA generativa es ser transparente sobre los datos en los que se entrenan estos modelos, dijo Barad.
AHN lanzó recientemente una nueva herramienta de IA generativa llamada Sidekick, que Barad dijo que se puede considerar como la versión de AHN del ChatGPT. La herramienta está disponible para los 22,000 empleados de AHN, así como para los 44,000 empleados empleados por la empresa matriz Highmark Health. Fue entrenado únicamente en los propios datos de AHN y Highmark, señaló Barad.
El hecho de que AHN y Highmark desarrollaron conjuntamente su propia herramienta utilizando datos específicos de sus poblaciones de pacientes debería hacer que las personas se sientan mucho más cómodas que si AHN utilizara una herramienta de IA entrenada en datos generales, explicó.
“Está entrenado en nuestros propios datos, y es cerrado, por lo que no hay fugas en absoluto. Eso nos permite poner cualquier cosa que queramos en ella. Y tenemos firewalls entre Highmark y AHN, por lo que en lo que respecta a la protección de la información de salud personal, todo se ha resuelto”, dijo Barad.
También señaló que algunos casos de uso de la IA generativa pueden requerir el consentimiento expreso del paciente antes de su implementación. Las herramientas de escucha ambiental durante una visita médico-paciente son un ejemplo clave de esto.
Estas herramientas, fabricadas por empresas como Nuance, DeepScribe y Abridge, escuchan y graban las interacciones entre el paciente y el proveedor para que puedan generar automáticamente un borrador de una nota clínica. Al igual que muchos otros sistemas de salud en todo el país, AHN está utilizando tecnología de documentación ambiental y pidiendo el consentimiento de los pacientes antes de cada visita, dijo Barad.
Al hablar con los pacientes sobre estos modelos de IA, los clínicos explican que las herramientas están diseñadas para evitar que tengan que escribir durante toda la visita, lo que les da más tiempo para mantener el contacto visual con los pacientes y estar presentes.
Barad es un clínico él mismo, un gastroenterólogo pediátrico que aún practica. Dijo que debido a que explica claramente los beneficios de la tecnología de escucha ambiental a los pacientes, no ha tenido un paciente que retenga su consentimiento.
La industria puede necesitar colaborar para establecer estándares de educación de pacientes
El vecino de AHN, el sistema de salud UPMC, también está utilizando tecnología de documentación ambiental y requiere consentimiento verbal antes de que la herramienta se implemente durante una cita. Para Robert Bart, director médico de información de UPMC, este es un caso de uso que claramente requiere el consentimiento del paciente ya que están siendo grabados. Pero no hay un estándar de la industria, declaró.
“Está por verse qué tipos adicionales de consentimientos y/o documentación necesitan ocurrir en el futuro”, dijo Bart.
Por ejemplo, el informe de Deloitte sugirió que en los próximos años, los hospitales pueden comenzar a poner advertencias en las recomendaciones clínicas que fueron producidas con la asistencia de la IA generativa. No hay un estándar de la industria para informar a los hospitales cuándo es necesario y cuándo no, señaló Bart.
Pero la industria de la salud puede necesitar comenzar a establecer protocolos estandarizados para la educación de pacientes sobre el uso de la IA generativa más temprano que tarde, porque la utilización de esta tecnología solo va a crecer, dijo.
“Inherentemente creo que el médico habilitado por inteligencia artificial podrá tomar mejores decisiones para los pacientes que aquellos que desconocen la inteligencia artificial en el futuro”, afirmó.
Foto: steved_np3, Getty Images
“