En el Episodio 3 de nuestro pódcast DECODE, la Dra. Virginia Haoyu Sun, de la Facultad de Medicina de Harvard, profundiza en una de las conversaciones más importantes de la atención oncológica moderna: cómo utilizar la inteligencia artificial de manera segura, responsable y ética.
La Dra. Sun explica cómo los sesgos pueden influir en los sistemas de IA, qué significa realmente confiar en las herramientas digitales de salud, y cómo los pacientes y sus personas de apoyo pueden interactuar con la IA de forma reflexiva, sin reemplazar el juicio humano.
Desde la protección de la privacidad hasta la comprensión de las limitaciones de los algoritmos, este episodio brinda a los pacientes orientación práctica para mantenerse informados, tomar decisiones con confianza y sentirse empoderados a medida que la inteligencia artificial se convierte en una parte cada vez más influyente de su recorrido de atención médica.
Transcript
Rachel Siddall:
Hola, soy Rachel Siddall, su presentadora para este programa DECODE de Patient Empowerment Network. A lo largo de esta serie, hemos hablado sobre qué es la inteligencia artificial y cómo ya se está utilizando en el cuidado del cáncer. En este episodio, nos dirigimos a una conversación igualmente importante: cómo usar la IA de manera segura, responsable y ética. Discutiremos el sesgo, la confianza, cómo los pacientes deben interactuar con las herramientas de IA, y cómo debería verse el futuro de la IA en el cuidado del cáncer. Acompañándome está la Dra. Virginia Sun del Hospital General de Massachusetts y la Escuela de Medicina de Harvard. Dra. Sun, es un placer conectarme con usted sobre este importante tema.
Dra. Virginia Haoyu Sun:
Es un placer, Rachel, y muchas gracias por recibirme.
Rachel Siddall:
Entonces, Dra. Sun, cuando hablamos de sesgo en la IA, ¿qué significa esto?
Dra. Virginia Haoyu Sun:
Cuando hablamos de sesgo en la IA, realmente significa el sesgo en los datos y sistemas que la entrenan. Los modelos de IA aprenden de datos históricos de atención médica y si esos datos reflejan brechas, inequidades o subrepresentación de ciertas poblaciones, la IA puede reproducir sin querer o incluso amplificar esos patrones en sus resultados.
Rachel Siddall:
Entonces, ¿cómo están trabajando los investigadores y clínicos para identificar y reducir el sesgo en las herramientas de IA?
Dra. Virginia Haoyu Sun:
Creo que lo primero es solo para todos los clínicos, quienes creo que ya en este punto todos entendemos que los datos de atención médica no son neutrales. Reflejan cómo se ha brindado históricamente el cuidado, y cuando la IA se entrena con esos datos, puede heredar sesgos vinculados al acceso a la atención, retrasos en el diagnóstico o disponibilidad de tratamiento. Y luego, en última instancia, cuando la IA se usa más y más para generar más piezas de datos, puede escalar ese sesgo no intencional más y más.
Y esas diferencias han llevado a la subrepresentación en muchos grupos, particularmente minorías raciales y étnicas, adultos mayores, personas con discapacidades y aquellos de entornos socioeconómicos más bajos.
La pandemia de COVID-19 realmente ha traído este problema a un foco agudo, donde vimos en tiempo real cómo ciertas comunidades, a pesar de tener exactamente la misma enfermedad, fueron afectadas desproporcionadamente, y no fue solo por la biología. Y nos dimos cuenta de que nuestros conjuntos de datos no capturaban adecuadamente esas poblaciones, lo que limitó nuestra capacidad de responder equitativamente.
Y creo que esa es una preocupación realmente grande hacia adelante, es que mientras esa epidemia ha llevado a estas importantes conversaciones sobre diversidad y equidad en los datos de atención médica, ha habido menos énfasis en estos días en tener investigación rigurosa enfocada en la representación.
Y me preocupa que ahora con el auge de la IA sucediendo, esa representación no se está entregando, y entonces, creo que abordar el sesgo en la IA no se trata solo de mejores algoritmos, se trata de ser intencionales en cómo recopilamos datos, validamos modelos en poblaciones diversas y nos responsabilizamos por resultados equitativos.
Rachel Siddall:
¿Cree que necesitamos volver atrás y reexaminar consistentemente algunas de las herramientas de IA para buscar sesgos que puedan estar ocurriendo?
Dra. Virginia Haoyu Sun:
Creo que sí. Creo que una cosa en particular, entonces la herramienta más accesible que tenemos, tanto para clínicos como para pacientes, es ChatGPT. Y ChatGPT, así como todos los otros modelos de lenguaje grandes, están básicamente entrenados con información de Internet, y sabemos con certeza que Internet contiene muchas cosas sesgadas, información sesgada.
Creo que reentrenar todo puede ser muy difícil, pero lo que sí sabemos es que ciertos sistemas como ChatGPT realmente están tratando de eliminar algunos de los sesgos, entonces las compañías como OpenAI, Microsoft, Google, están activamente tratando de eliminar muchos de los sesgos cuando están entrenando estos sistemas y creo que de manera similar, cuando usamos estos sistemas también, solo tenemos que tomar esa información que proporcionan con un poco de cautela.
Rachel Siddall:
¿Cómo deben los clínicos evaluar si una herramienta de IA es confiable?
Dra. Virginia Haoyu Sun:
Creo que hay esencialmente tres principios que usamos, no solo para la IA sino para cualquier dispositivo nuevo, cualquier medicamento nuevo que esté en el mercado en términos de qué tan bien funciona. Básicamente, los tres principios son exactitud, precisión y generalizabilidad. Entonces, obviamente queremos que nuestras herramientas de IA sean exactas y precisas, lo que significa que obtiene la respuesta correcta el 100 por ciento del tiempo o lo más cerca posible del 100 por ciento del tiempo, y no obtiene la respuesta incorrecta tanto como sea posible también.
Y ese es el estándar de oro. Creo que es algo que nos esforzamos por lograr, pero los humanos nunca serán perfectos y como resultado, los sistemas de IA que se entrenan con humanos tampoco serán perfectos. Sin embargo, creo que nos estamos acercando mucho, creo que la IA está siendo más exacta con cada nueva iteración y cada nuevo desarrollo, la IA simplemente se está volviendo más exacta con el tiempo.
Pero la cosa con la que todavía lucha mucho es su generalizabilidad y entonces creo que esto es un problema en toda la IA, donde hay una brecha entre el concepto y la producción real, pero creo que está especialmente amplificado dentro de la atención médica, y eso es porque hay millones de datos que simplemente no están siendo accedidos ahora mismo por los sistemas de entrenamiento de IA.
Y es parcialmente debido a la privacidad, pero también es porque cada sistema hospitalario está tan separado uno del otro que no podemos acceder a los millones de datos que se están generando a partir de datos de laboratorio, datos de patología, datos de imágenes. Y cuando entrenamos algoritmos de IA, es solo un porcentaje minúsculo de lo que realmente existe.
Entonces, realmente creo que lo más importante para evaluar si una herramienta de IA es confiable es la generalizabilidad y eso es mirar: ¿Con qué datos se entrenó? ¿En qué se probó? ¿Se entrenó y probó en diferentes centros hospitalarios? ¿Diferentes ubicaciones? ¿Diferentes poblaciones? Y creo que mientras más amplio sea el espectro en términos de qué información se alimentó al sistema de IA para crearlo, lo hace una herramienta más confiable.
Rachel Siddall:
Entonces sé que hay cierta vacilación al usar la IA, solo porque entender estas herramientas complejas es muy desafiante. Entonces, ¿puede hablar sobre la transparencia en las herramientas de IA al entender cómo la IA llega a sus recomendaciones, y cómo podemos conocer las limitaciones de estas herramientas?
Dra. Virginia Haoyu Sun:
Sí, creo que esto ha sido algo que ha estado afectando a la IA, especialmente en medicina, durante mucho tiempo, y básicamente, muchas personas dicen que la IA es solo una caja negra, y de ahí es de donde viene ese miedo e incertidumbre.
Básicamente alimentas a la IA con información, y luego de alguna manera genera un resultado, y realmente no sabes, como, el proceso de toma de decisiones que se puso detrás de ello. De la misma manera, como, un individuo podría ser capaz de hablarte a través de los pasos de, como, cómo llegaron a esta decisión. En última instancia, depende de qué tipo específico de IA se está utilizando.
Actualmente, la IA se está utilizando en muchas formas diferentes, y entonces, digamos para modelos de lenguaje grandes, que era algo en lo que estaba haciendo mi investigación, básicamente predice cuál es la palabra más probable después de producir un resultado. Entonces, ya sabes, haces una pregunta, y luego eso se convierte en una semilla para que el modelo de lenguaje grande la tome, y luego intente responder la pregunta, y luego la siguiente palabra que genera se basa en la probabilidad más probable de qué tendría sentido en ese contexto.
Y entonces, no necesariamente necesitas tener, como, un doctorado en ciencias de la computación para entender cómo funciona la IA, pero tal vez solo tener un pequeño entendimiento general de exactamente qué se está utilizando para entrenar la IA. Como qué datos se usaron para crear esta IA puede hacerte sentir un poco más seguro, o sentirte más cómodo usando IA, en tu propia práctica.
Rachel Siddall:
Entonces, Dra. Sun, ¿puede decirnos por qué la IA debería permanecer como apoyo a la decisión, no como toma de decisiones en el cuidado del cáncer?
Dra. Virginia Haoyu Sun:
Creo que la IA debería permanecer más como apoyo a la decisión, solo porque cada persona es tan única, y todos tienen sus propias prioridades, todos tienen su propia comprensión de sus factores de riesgo y cosas que quieren de su vida.
Y entonces, como, si tengo un paciente que viene conmigo y, ya sabes, tiene cáncer en etapa avanzada, está pensando, como, ya sabes, ¿debería hacer esta terapia agresiva que podría darme un año extra de mi vida, pero tendría que pasar tres cuartas partes de ella en el hospital, o sufriendo de algunos de los efectos secundarios del cáncer? ¿O debería hacer la transición a cuidados paliativos, donde puedo priorizar mi comodidad y pasar tiempo con las personas que amo?
Esa es una decisión tan personal, y no creo que la IA esté en esa etapa todavía, tal vez algún día lo esté, pero ni siquiera es algo que pueda tomar como decisión para mi paciente. Es en última instancia lo que mi paciente quiere y lo que más le importa.
Y tal vez en la IA él puede preguntar sobre qué efectos secundarios específicos podría encontrar para el régimen de quimioterapia específico, pero no va a poder tomar esa decisión por él. Así como yo no podré tomar esa decisión, pero puedo explorar lo que él más valora, y tal vez llegar a una recomendación que funcione para él.
Pero creo que el cuidado del cáncer es tan personal, y depende tanto de comprender los valores de una persona que creo que actualmente la IA simplemente no está en esa etapa para poder hacer eso. Puede interpretar una imagen, pero no necesariamente podrá decirte qué es lo que más importa en tu vida.
Rachel Siddall:
Creo que ese es un ejemplo realmente bueno de tomar en cuenta los valores y preferencias de una persona. Durante su cuidado, y mantener lo humano en la medicina también. Entonces hemos estado hablando sobre cómo los clínicos usan la IA, pero sabemos que muchos pacientes ya están usando herramientas de IA y chatbots para hacer cosas como interpretar sus resultados de laboratorio, entender los diagnósticos que se les han dado y prepararse para sus citas médicas. Entonces, ¿qué orientación daría a los pacientes que usan herramientas de IA?
Dra. Virginia Haoyu Sun:
Creo que animaría el uso de la IA, no necesariamente solo en la atención médica, sino también solo, ya sabes, familiarízate con ella. Realmente está comenzando a integrarse en cada aspecto de nuestras vidas en estos días, y entonces, ya sabes, si estás usando IA para navegarte desde el punto A al punto B con un buen sistema GPS, o usándola para rastrear tus datos de sueño, ¿por qué no usarla en tu conjunto de herramientas médicas también? Pero como mencioné antes, ya sabes, cualquier dato, especialmente cualquier dato médico, tómalo con cautela.
Hubo un estudio bien publicitado de los Annals of Internal Medicine, o supongo un estudio de caso de los Annals of Internal Medicine, donde un paciente que quería intentar eliminar el cloruro de su dieta buscó en ChatGPT y luego básicamente se le dijo, como, podrías reemplazar el cloruro de sodio con bromuro de sodio. Y luego comenzó a tomar suplementos de bromuro de sodio en su lugar.
Y eso llevó a toxicidad por bromuro, que es algo que es increíblemente raro, especialmente desde el siglo XXI simplemente no lo hemos visto realmente. Y resulta que, el sistema de IA realmente estaba recomendando bromuro de sodio en su lugar como un agente de limpieza, pero simplemente fue malinterpretado, y entonces espero que a medida que la IA se use más en el entorno médico, que, o, ya sabes, sea más accesible para los individuos, errores como este podrían suceder en cualquier momento.
Entonces, si vas a consultar a la IA, siéntete libre de hacerlo, pero si vas a hacer cualquier cambio con respecto a medicina o, ya sabes, estilo de vida, simplemente consulta con tu médico primero.
Rachel Siddall:
Estoy completamente de acuerdo. Esa es una historia muy aterradora. Entonces, ¿cómo pueden los pacientes hacer mejores preguntas a las herramientas de IA, evitar la desinformación de estas herramientas, y luego también llevar información generada por IA a conversaciones productivas con su equipo de atención?
Dra. Virginia Haoyu Sun:
Sí, entonces, hay un campo dentro de la IA, o específicamente dentro de modelos de lenguaje grandes llamado ingeniería de prompts, y entonces esto es básicamente cómo haces la pregunta correcta para tu modelo de lenguaje grande. Y entonces esto asume que estás usando modelos de lenguaje grandes como ChatGPT o Gemini de Google.
Y esencialmente, quieres instruir a tu modelo para que sea lo más claro, conciso, lo más exacto posible, y te dé la respuesta de la manera que querías, o para que sea lo más imparcial posible. Y entonces, esto podría ser, como, incluso instruyendo, como, digamos que vas a OpenAI, y luego instruyes a tu modelo primero diciendo, como, eres una herramienta de apoyo a la decisión médica.
Y tu trabajo es dar la información más exacta y actualizada de manera imparcial. Y las mismas palabras clave como esta te permitirán tener datos mucho más exactos que, por ejemplo, como un modelo de lenguaje grande estándar que simplemente tomará todo el contenido sin filtrar de Internet para generar tu respuesta.
Y entonces esa es como la parte de ingeniería de prompts. Y luego si, ya sabes, comienzas a tener, como, recomendaciones proporcionadas por tu modelo de lenguaje grande, entonces, ya sabes, imprímelo o envíalo a tu doc de atención o equipo de atención, y solo di, como, esto es algo que vi en línea. Y, ya sabes, esto es algo que veo todo el tiempo como médico, como, incluso antes del advenimiento de los modelos de lenguaje grandes, los pacientes traían datos que decían, o algo que leyeron en Internet todo el tiempo.
Y entonces, creo que doy la bienvenida a eso, y creo que cualquier buen proveedor debería dar la bienvenida a eso, porque quiero que mis pacientes estén tan educados como sea posible sobre su enfermedad, y que conozcan bien su enfermedad, y luego si hay alguna idea errónea o falta de comunicación para que podamos tener un diálogo abierto al respecto.
Rachel Siddall:
Creo que es interesante que menciones, como, asignar un rol a la IA cuando estás haciendo la pregunta. También he experimentado eso, donde si le digo a ChatGPT que eres un científico de laboratorio médico, y haciendo eso en lugar de solo hacer la pregunta, la información que obtengo es tan diferente. Entonces, como asignar ese rol en medicina cuando estás haciendo estas preguntas puede darte algunas respuestas muy diferentes.
Dra. Virginia Haoyu Sun:
Sí, y creo que eso es algo en lo que los modelos de lenguaje grandes en particular son realmente buenos es que pueden adaptarse y ser como generalizados a cualquier entorno. Entonces, tuve, como, un paciente que quería, ya sabes, como, escuchar poesía, así que le pedí, le pedí a ChatGPT que fuera, como, un literato prolífico y escribiera algunos, como, poemas originales para él. Y luego, pero luego por otro lado, como, yo… tal vez cuando lo uso para sintetizar algunos datos de pacientes, como, le pedí que fuera, como, un escritor médico, pero que, como escribiera algo que pueda ser fácilmente entendido por, como, alguien que tal vez no tenga, tal vez no tenga entrenamiento en medicina clínica.
Rachel Siddall:
Muy interesante. Entonces, Dra. Sun, ¿cómo se ve la integración responsable de la IA en los próximos 5 a 10 años, y cómo podemos asegurar que la IA mejore la equidad en lugar de ampliar las brechas, permanezca centrada en el paciente y apoye a los clínicos en lugar de abrumarlos?
Dra. Virginia Haoyu Sun:
Entonces, para la integración responsable de la IA, creo que será un proceso lento. Y una de las cosas más únicas sobre la atención médica es que el sistema de pago es tan diferente en comparación con cualquier otra industria, y como resultado el sistema para integrar cosas es mucho más lento.
Entonces, mientras que otros campos ya están usando la IA más y más, creo que la atención médica es un poco más lenta para adoptar cosas, porque no ha identificado quiénes son las partes interesadas clave y quiénes son los pagadores clave. Y entonces creo que, ya sabes, desde la perspectiva de las integraciones, pensando en cuál es una forma escalable de integrarlas. Especialmente porque los sistemas de IA se están volviendo más y más costosos. Usa muchos recursos, y entonces pensar en la relación costo-beneficio de ciertas herramientas de IA que usamos.
Y luego creo que la otra parte también es mirar qué tan generalizable es el sistema de IA y asegurarse de que cuando integramos algo sea algo que. pueda resistir la prueba del tiempo. Puede resistir la prueba de la demografía cambiante y eso será todavía algo con lo que lucharemos, pero esperamos mejorar en la próxima década más o menos.
Y entonces, con respecto a, ya sabes, asegurar que la IA permanezca centrada en el paciente, creo que esto es algo que la IA, realmente esperamos hacer, es básicamente, en lugar de, como, ya sabes, mirar tendencias amplias para poder mirar al individuo como, como, una persona tridimensional para tomar las características personales de ellos para ver su progresión a lo largo del tiempo y poder integrar todo eso junto.
Y creo que por último, desde una perspectiva de apoyo al clínico. Creo que realmente se trata de poder disminuir parte de la fatiga en la toma de decisiones que a veces los clínicos tienen que pasar, para disminuir parte de la carga de documentación. Creo que es una cosa grande que con suerte la integración de la IA será útil en el futuro cercano también.
Rachel Siddall:
Tengo algo de experiencia implementando IA para leer portaobjetos en el laboratorio clínico, y fue una herramienta de apoyo enorme. Redujo la cantidad de tiempo práctico que las personas pasaban teniendo que leer portaobjetos, en una industria en la que ya estamos luchando por encontrar personas para dotar de personal a los laboratorios.
Entonces, fue emocionante ver que realmente quitara una carga del flujo de trabajo del laboratorio clínico, y es emocionante que podamos esperar eso en otras áreas de la medicina también.
Dra. Virginia Haoyu Sun:
Sí, y creo que ya está comenzando, hasta cierto punto, entonces, personalmente, paso más de la mitad de mi tiempo escribiendo notas que realmente viendo pacientes, y entonces creo que lo más útil que he visto de la IA específicamente en medicina clínica es simplemente hacerse cargo de gran parte de esa escritura de notas y la documentación que tenemos que hacer, permitiéndome pasar más tiempo con mis pacientes.
Rachel Siddall:
Eso es fantástico. Entonces, antes de cerrar, Dra. Sun, ¿puede decirnos algunas cosas que le emocionan sobre el futuro de la IA en medicina?
Dra. Virginia Haoyu Sun:
Hay tantas cosas, y hay cosas a corto plazo que están sucediendo, y también, ya sabes, las metas y aspiraciones a largo plazo que tengo para la inteligencia artificial.
Creo que desde, como, la perspectiva a corto plazo ahora mismo, modelos de lenguaje grandes, modelos visuales grandes, estos modelos muy generalizables están comenzando a ser más fácilmente accesibles tanto para pacientes como para clínicos, y realmente ya ha comenzado a transformar cómo se está utilizando la IA.
Y creo que antes cuando había, ya sabes, mucho más de una brecha entre un concepto de IA y el lanzamiento y despliegue real de ella, ahora ese puente se está volviendo más pequeño, solo porque, cómo la IA se está volviendo más generalizable, y los datos que estamos usando para entrenar sistemas de IA consisten en conjuntos de datos más grandes y más diversos que nos permiten poder usar la IA en diferentes circunstancias.
Creo que desde la perspectiva a largo plazo, creo que realmente se trata de alejar la IA del problema discreto, o, como, las tareas discretas para las que se está utilizando la IA para resolver respuestas, o para resolver preguntas.
Y entonces, en lugar de solo poder decirme en un cierto punto en el tiempo, como, si esta radiografía de tórax tiene un porcentaje X de que contenga, como, una lesión precancerosa, poder mostrar la evolución de una persona a lo largo del tiempo para decirme que hay ciertos riesgos, para decirme, ya sabes, cuál es la mejor manera para el tratamiento, si debería simplemente, ya sabes, continuar esperando y monitoreando, o si debería tratar agresivamente a alguien. Creo que eso puede ser algo que podemos esperar de la IA en el futuro.
Rachel Siddall:
Bueno, genial, muchas gracias por compartir sus opiniones y perspectivas sobre eso. Y eso nos lleva al cierre de este podcast DECODE.
Dra. Sun, gracias por compartir su experiencia y ayudarnos a navegar tanto la promesa como la responsabilidad de la inteligencia artificial en el cuidado del cáncer.
A nuestros oyentes, gracias por unirse a este programa DECODE de Patient Empowerment Network. Nuestro objetivo es siempre ayudarle a usted y a su familia a sentirse informados, apoyados y empoderados mientras navegan su trayectoria con el cáncer. Soy su presentadora, Rachel Siddall. Hasta la próxima, cuídense y estén bien.