Hasta hace poco en 2022, los modelos de lenguaje grandes (LLMs) eran virtualmente desconocidos para el público en general. Ahora, los consumidores y las industrias enteras de todo el mundo están experimentando y desplegando software basado en LLM en lo que ahora se denomina ampliamente ‘IA Generativa’ para responder preguntas, resolver problemas y crear oportunidades.
Pero cuando se trata de utilizar Gen AI en el cuidado de la salud, los médicos y los responsables políticos enfrentan el desafío adicional de asegurar que esta tecnología se implemente de manera segura para proteger a los pacientes y de manera segura para salvaguardar la información del paciente.
Los médicos comprendiblemente están preocupados por la calidad de la información que recibirían de las plataformas de Gen AI, porque estos programas tienden a inventar hechos o “alucinar” de maneras que son difíciles de prevenir y predecir. Los LLM se consideran en muchos aspectos “cajas negras”, lo que significa que cómo funcionan no es fácilmente comprensible, lo que lleva a una falta de responsabilidad y confianza. Por lo tanto, aunque la IA puede proporcionar recomendaciones clínicas, a menudo no puede incluir enlaces a fuentes de datos o el razonamiento detrás de esas recomendaciones. Esto dificulta que los médicos ejerzan su propia supervisión profesional sin tener que navegar a través de grandes cantidades de datos para “verificar” la IA.
La IA también puede ser susceptible a prejuicios intencionales y no intencionales basados en cómo se entrena o implementa. Además, actores malintencionados que entienden la naturaleza humana pueden intentar desviarse más allá de los límites de la ética para obtener ventajas técnicas o económicas a través de la IA. Por estas razones, algún tipo de supervisión gubernamental es un paso bienvenido. La Casa Blanca respondió a estas preocupaciones en octubre pasado emitiendo una orden ejecutiva que pide el despliegue seguro y ético de esta tecnología en evolución.
Los modelos fundacionales de Gen AI mainstream no son adecuados para muchas aplicaciones médicas. Pero a medida que Gen AI continúa madurando, habrá formas de emplear estas tecnologías de manera reflexiva y segura en el cuidado de la salud hoy. La clave es seguir abrazando nuevos avances, con fuertes protecciones para la seguridad, privacidad y transparencia.
Los avances en la IA de grado médico están avanzando en su uso seguro.
El software Gen AI realiza análisis o crea resultados a través de la capacidad de los LLM para comprender y generar lenguaje humano. Por lo tanto, la calidad de los resultados se ve afectada por la calidad del material fuente utilizado para construir los LLM. Muchos modelos de Gen AI se basan en información de dominio público, como páginas de Wikipedia o publicaciones en Reddit, que no siempre son precisas, por lo que no es sorprendente que puedan proporcionar resultados inexactos. Sin embargo, simplemente no es tolerable en un entorno clínico.
Afortunadamente, los avances en IA médica ahora hacen posible aprovechar modelos de aprendizaje profundo a escala para su uso en el cuidado de la salud. Construidos por expertos médicos que comprenden las relaciones clínicas, terminologías, acrónimos y abreviaturas que son indescifrables o inaccesibles para el software Gen AI y NLP tradicional, estos expertos están generando el desarrollo de IA de grado médico para aplicaciones de salud.
Los LLM de hoy se están capacitando en conjuntos masivos de datos médicos anotados para operar de manera precisa y segura dentro de la industria de la salud. Esencial para lograr este objetivo es la capacidad de LLM bien entrenados y de IA médica para acceder a notas clínicas y informes en formato libre y otro texto no estructurado, que comprende aproximadamente el 80% de todos los datos médicos, según estimaciones de la industria.
La IA de grado médico desarrollada en los últimos años puede extraer, normalizar y contextualizar texto médico no estructurado a escala. Los médicos necesitan sistemas de IA que puedan digerir y comprender la historia clínica completa de un paciente y los científicos de datos e investigadores necesitan sistemas que puedan hacer lo mismo para todo el sistema EHR de un sistema de salud. La IA de grado médico ha sido diseñada para que las empresas puedan procesar y comprender rápidamente millones de documentos en tiempo casi real, la mayoría de los cuales están en forma no estructurada. Esto no ha sido posible hasta ahora.
Reducir el agotamiento de los médicos.
Otro área de preocupación es que si se implementa de manera inapropiada, Gen AI tiene el potencial de abrumar a sus usuarios con una manguera de información inútil. Los LLM también pueden sufrir lo que se llama el problema de “perderse en el medio”, donde no utilizan la información de las porciones medias de documentos largos de manera efectiva. Para los médicos en el punto de atención, esto resulta en frustración y tiempo perdido buscando a través de producciones voluminosas en busca de datos relevantes del paciente. A medida que la cantidad de información médica disponible continúa creciendo, esto promete hacer que sea aún más difícil encontrar y procesar los datos que los médicos necesitan. En lugar de hacer que los trabajos de los trabajadores clínicos sean más manejables, Gen AI puede exacerbar el agotamiento de los médicos.
Por el contrario, la IA de grado médico equilibra el recuerdo y la precisión, brindando a los médicos la cantidad justa de datos precisos y relevantes para tomar decisiones sólidas basadas en evidencia en el punto de atención y vincular la información de nuevo a los datos originales en el expediente del paciente. Esto proporciona transparencia, lo que permite a los médicos verificar sus fuentes de información en términos de veracidad y precisión sin una búsqueda que consuma tiempo. Al permitir que los médicos desempeñen sus funciones de manera más efectiva y eficiente y pasen más tiempo enfocándose en los pacientes, la IA de grado médico puede aumentar la satisfacción laboral y el rendimiento al tiempo que reduce el tiempo dedicado después de horas poniéndose al día con el trabajo administrativo.
Más allá de la caja negra.
La opacidad actual de los algoritmos de Gen AI hace prematuro utilizarlos excepto de manera limitada en la atención médica y la investigación médica. Lo que los médicos quieren y necesitan es información en el punto de atención que sea precisa, concisa y verificable. La IA médica tiene la capacidad ahora de cumplir con estos requisitos mientras salvaguarda los datos de los pacientes, ayudando a mejorar los resultados y reducir el agotamiento de los médicos. A medida que todas las tecnologías de IA continúan evolucionando, la transparencia, no las cajas negras, es fundamental para emplear estas tecnologías de las formas más eficaces y éticas para avanzar en la atención médica de calidad.
Foto: ra2studio, Getty Images
El Dr. Tim O’Connell es el fundador y CEO de emtelligent, una solución tecnológica de NLP médico con sede en Vancouver. También es un radiólogo en ejercicio y el vicepresidente de informática clínica en la Universidad de Columbia Británica.
Esta publicación aparece a través del programa MedCity Influencers. Cualquiera puede publicar su perspectiva sobre negocios e innovación en el cuidado de la salud en MedCity News a través de MedCity Influencers. Haga clic aquí para averiguar cómo.