Construyendo la confianza del consumidor en la innovación de IA: Consideraciones clave para líderes de salud.

Como consumidores, estamos propensos a regalar nuestra información de salud de forma gratuita en internet, como cuando preguntamos al Dr. Google “cómo tratar un dedo del pie roto”. Sin embargo, la idea de que nuestro médico utilice inteligencia artificial (IA) para el diagnóstico basado en un análisis de nuestros datos de salud nos hace sentir incómodos, según encontró una encuesta del Pew Research Center.

Entonces, ¿cuánto más preocupados podrían estar los consumidores si supieran que se están subiendo cantidades masivas de sus datos médicos a modelos impulsados por IA para su análisis en nombre de la innovación?

Es una pregunta que los líderes de la salud pueden desear hacerse, especialmente dada la complejidad, la intrincación y la responsabilidad asociada con la carga de datos de pacientes en estos modelos.

Lo que está en juego

Cuanto más común se vuelve el uso de IA en la salud y la investigación de la salud, más evolucionan los riesgos asociados con el análisis impulsado por IA, y mayor es el potencial de fallos en la confianza del consumidor.

Una encuesta reciente realizada por Fierce Health y Sermo, una red social de médicos, encontró que el 76% de los médicos encuestados utilizan modelos de lenguaje grande de propósito general (LLMs), como ChatGPT, para la toma de decisiones clínicas. Estas herramientas de acceso público ofrecen información como posibles efectos secundarios de medicamentos, apoyo al diagnóstico y recomendaciones para la planificación del tratamiento. También pueden ayudar a capturar las notas del médico de los encuentros con el paciente en tiempo real a través de la escucha ambiental, un enfoque cada vez más popular para aliviar la carga administrativa de los médicos para que puedan centrarse en la atención. En ambos casos, las prácticas maduras para incorporar tecnologías de IA son esenciales, como utilizar un LLM para verificar un hecho o un punto de exploración en lugar de depender de él para proporcionar una respuesta a preguntas complejas sobre la atención.

Pero hay señales de que los riesgos de aprovechar los LLM para la atención e investigación necesitan más atención.

Por ejemplo, existen preocupaciones significativas sobre la calidad y completitud de los datos de los pacientes que se alimentan en los modelos de IA para su análisis. La mayoría de los datos de salud son no estructurados, capturados en campos de notas abiertas en el registro de salud electrónico (EHR), mensajes de pacientes, imágenes e incluso texto escaneado y escrito a mano. De hecho, la mitad de las organizaciones de salud dicen que menos del 30% de los datos no estructurados están disponibles para su análisis. También hay inconsistencias en los tipos de datos que caen en la categoría de “datos no estructurados”. Estos factores limitan la visión general de la salud de los pacientes y la población. También aumentan las posibilidades de que los análisis de IA estén sesgados, reflejando datos que subrepresentan segmentos específicos de una población o que están incompletos.

LEAR  Otro acuerdo de terapia génica de Astellas, esta vez $50 millones por opción en el programa de demencia de AviadoBio.

Y si bien las regulaciones que rodean el uso de la información de salud protegida (PHI) han impedido que algunos investigadores y analistas utilicen todos los datos disponibles para ellos, el simple costo del almacenamiento de datos y el intercambio de información es una gran razón por la que la mayoría de los datos de salud no se aprovechan al máximo, especialmente en comparación con otras industrias. También lo es la complejidad asociada con la aplicación de análisis de datos avanzados a los datos de salud mientras se mantiene el cumplimiento de las regulaciones de salud, incluidas aquellas relacionadas con PHI.

Ahora, los líderes de la salud, los clínicos y los investigadores se encuentran en un punto de inflexión único. La IA tiene un tremendo potencial para impulsar la innovación mediante el aprovechamiento de datos clínicos para el análisis de maneras que la industria solo podía imaginar hace dos años. En un momento en que uno de cada seis adultos utiliza chatbots de IA al menos una vez al mes para obtener información y consejos de salud, demostrar el poder de la IA en la salud más allá de “Dr. Google” mientras se protege lo más importante para los pacientes, como la privacidad y la integridad de sus datos de salud, es vital para garantizar la confianza del consumidor en estos esfuerzos. El desafío es mantener el cumplimiento de las regulaciones que rodean los datos de salud mientras se es creativo con enfoques para el análisis y la utilización de datos impulsados por IA.

Tomar las decisiones correctas para el análisis de IA

A medida que aumenta el uso de la IA en la salud, una estrategia moderna de gestión de datos requiere un enfoque sofisticado para la protección de datos, uno que coloque al consumidor en el centro al tiempo que cumple con los principios básicos de cumplimiento de datos efectivo en un panorama regulatorio en evolución.

LEAR  GSK y Flagship Pioneering se comprometen a invertir $150 millones para comenzar un pacto de I+D para nuevos medicamentos y vacunas.

Aquí hay tres consideraciones principales para los líderes e investigadores en la protección de la privacidad de los pacientes, el cumplimiento y, en última instancia, la confianza del consumidor a medida que la innovación de la IA se acelera.

1. Comience con la confianza del consumidor en mente. En lugar de simplemente reaccionar a las regulaciones sobre privacidad y protección de datos, considere el impacto de sus esfuerzos en los pacientes a los que su organización sirve. Cuando los pacientes confían en su capacidad para utilizar los datos de forma segura y protegida para la innovación de la IA, esto no solo ayuda a establecer el nivel de confianza necesario para optimizar las soluciones de IA, sino que también los involucra en compartir sus propios datos para el análisis de IA, lo que es vital para construir un plan de atención personalizado. Hoy en día, el 45% de los ejecutivos de la industria de la salud encuestados por Deloitte están priorizando esfuerzos para construir la confianza del consumidor para que se sientan más cómodos compartiendo sus datos y poniendo sus datos a disposición para el análisis de IA.

Un paso importante a considerar en la protección de la confianza del consumidor: implementar controles sólidos sobre quién accede y utiliza los datos, y cómo lo hace. Este principio básico de protección de datos efectiva ayuda a garantizar el cumplimiento de todas las regulaciones aplicables. También fortalece la capacidad de la organización para generar la información necesaria para lograr mejores resultados de salud mientras asegura la aceptación del consumidor.

2. Establezca un comité de gobernanza de datos para la innovación de IA. El uso adecuado de la IA en un contexto empresarial depende de varios factores, desde una evaluación de los riesgos involucrados hasta la madurez de las prácticas de datos, las relaciones con los clientes, y más. Por eso, un comité de gobernanza de datos debe incluir expertos en TI de salud, así como clínicos y profesionales de disciplinas diversas, desde enfermeras hasta especialistas en salud poblacional y miembros del equipo de ciclo de ingresos. Esto asegura que los proyectos de innovación en datos correctos se emprendan en el momento adecuado y que los recursos de la organización brinden un apoyo óptimo. También involucra a todos los principales interesados en determinar los riesgos y recompensas de utilizar análisis impulsados por IA y cómo establecer las protecciones de datos adecuadas sin obstaculizar innecesariamente la innovación. En lugar de “calificar su propio trabajo”, considere si un experto externo podría aportar valor para determinar si las protecciones adecuadas están en su lugar.

LEAR  Clima en Mallorca para el domingo, 20 de octubre de 2024.

3. Mitigue los riesgos asociados con la reidentificación de información sensible de los pacientes. Es un mito pensar que las técnicas simples de anonimización, como eliminar nombres y direcciones, son suficientes para proteger la privacidad del paciente. La realidad es que las técnicas avanzadas de reidentificación implementadas por actores malintencionados a menudo pueden unir datos supuestamente anonimizados. Esto exige enfoques más sofisticados para proteger los datos del riesgo de reidentificación cuando los datos están en reposo. Es un área donde un enfoque generalizado de gobernanza de datos ya no es adecuado. Una pregunta estratégica clave para las organizaciones es: “¿Cómo abordará nuestra organización los riesgos de reidentificación y cómo podemos evaluar continuamente estos riesgos?”

Si bien las organizaciones de salud enfrentan algunos de los mayores obstáculos para implementar efectivamente la IA, también están en posición de introducir algunas de las aplicaciones más transformadoras de esta tecnología. Al abordar los riesgos asociados con el análisis de datos impulsado por IA, los clínicos e investigadores de la salud pueden aprovechar de manera más efectiva los datos disponibles para ellos y asegurar la confianza del consumidor.

Foto: steved_np3, Getty Images

Timothy Nobles es el director comercial de Integral. Antes de unirse a Integral, Nobles se desempeñó como director de producto en Trilliant Health y jefe de producto en Embold Health, donde desarrolló soluciones avanzadas de análisis para proveedores de atención médica y pagadores. Con más de 20 años de experiencia en datos y análisis, ha ocupado puestos de liderazgo en empresas innovadoras en múltiples industrias. Este post aparece a través del programa MedCity Influencers. Cualquiera puede publicar su perspectiva sobre negocios e innovación en salud en MedCity News a través de MedCity Influencers. Haga clic aquí para obtener más información.