La inteligencia artificial (IA) está reinventando y revitalizando el sistema de salud moderno al encontrar nuevos vínculos entre los códigos genéticos o al manejar robots que asisten en cirugías.
El sector de la IA es una de las industrias de mayor crecimiento en el mundo. Se valoró en 600 millones de dólares en 2014 y se proyecta que alcanzará 150 mil millones de dólares para 2026.
¿Reemplazarán la IA y la robótica a los humanos en el cuidado de la salud?
En junio de 2021, completé un curso de Inteligencia Artificial en el Cuidado de la Salud con el MIT sobre cómo se está aplicando y se puede aplicar la IA en la industria del cuidado de la salud.
Hay un potencial infinito para los beneficios de la IA en este sector, desde la automatización de tareas administrativas hasta el diagnóstico y la predicción de enfermedades. Simplifica la vida de los pacientes, médicos y administradores de hospitales al realizar tareas que típicamente hacen los humanos, pero en menos tiempo, a una fracción del costo y, en algunos casos, con más precisión.
Aunque la IA puede hacer muchas cosas, puede hacer mucho más con la asistencia de los humanos. Así que no se preocupen, profesionales de la salud, los robots no vienen por sus trabajos, están aquí para ayudar.
Dicho esto, hay varios otros aspectos poco comprendidos de la IA en el cuidado de la salud, lo que puede y no puede hacer, de los que los consumidores o proveedores de salud deben estar al tanto.
Mitos y conceptos erróneos de la IA en el cuidado de la salud
Democratización
Concepto erróneo: puedes tomar un modelo computacional prefabricado y aplicarlo a cualquier proceso.
Esto es posible en casos simples, pero no siempre es posible tomar un algoritmo preconstruido, aplicarlo en una nueva situación y esperar un rendimiento perfecto. El rendimiento del modelo puede mejorarse drásticamente al agregar mejoras genéricas y personalizadas a un algoritmo prefabricado.
Sin embargo, la democratización de la IA en el cuidado de la salud está llevando a un mayor acceso y a un flujo de trabajo más predictivo en el cuidado del paciente y respuestas reactivas más inteligentes a los problemas de salud. A medida que la industria del cuidado de la salud se vuelve cada vez más abierta a las aplicaciones tecnológicas basadas en IA en numerosos puntos de atención, el mayor acceso a información inteligente ha ayudado a simplificar los procesos de monitoreo, diagnóstico y tratamiento de pacientes. El uso creciente de la tecnología de IA está creando ejemplos y aprendizajes útiles que a su vez conducen a una mayor adopción.
La IA introduce sesgos
Concepto erróneo: la IA introduce sesgos sobre una persona o grupo de personas basándose en su pertenencia percibida a un grupo. También podría haber sesgos debido a datos incompletos.
A pesar de cómo a veces se retrata la IA, el sesgo no es introducido por la IA en sí; los sesgos se aprenden de datos de salud sesgados y de humanos sesgados que escriben los algoritmos. Si se entrena adecuadamente, un modelo de aprendizaje automático puede realmente mitigar el sesgo y desempeñarse de una manera menos sesgada de lo que podría hacerlo un humano. Hay dos formas principales en que el sesgo aparece en los datos de entrenamiento: o los datos recopilados no son representativos de la realidad, o reflejan prejuicios existentes.
Por ejemplo, un nuevo artículo en el Journal of the American Medical Informatics Association argumenta que tales modelos sesgados pueden agravar el impacto desproporcionado que la pandemia de COVID-19 está teniendo en las personas de color.
La pandemia de COVID-19 ha tenido un impacto desproporcionadamente grande en las personas de color, agravado por las disparidades existentes en el cuidado de la salud y el racismo sistémico. Los investigadores señalaron el peligro de considerar la IA como intrínsecamente objetiva, particularmente al construir modelos para la asignación óptima de recursos, incluidos ventiladores y camas de unidades de cuidados intensivos.
Preocupaciones de caja negra
Concepto erróneo: la IA, en particular el aprendizaje profundo, opera en una caja negra.
Esto sería preocupante en casos donde la interpretabilidad es importante para el soporte de decisiones clínicas en el cuidado de la salud. Sin embargo, la interpretabilidad en el aprendizaje profundo está mejorando, lo que hace que las predicciones sean más explicables. Si los algoritmos operan en una caja negra, los profesionales médicos no pueden explicar cómo el software llega a sus decisiones, lo cual es un desafío para la toma de decisiones clínicas y la experiencia general del paciente.
Por ejemplo, la IA podría alertar a los despachadores de emergencia de que alguien tiene un paro cardíaco, pero los clínicos no pueden explicar completamente cómo la IA llegó a esta conclusión. Esta falta de conocimiento puede ser preocupante porque un clínico no puede explicar o interpretar completamente el diagnóstico o plan de tratamiento del sistema impulsado por IA. Y si los consumidores van a confiar su salud y seguridad al cuidado médico asistido por IA, entonces querrán entender cómo la IA llegó a estas decisiones.
Limitaciones de la IA en el cuidado de la salud
Además de los mitos y conceptos erróneos, también es importante ser consciente de las limitaciones de la IA.
Diferencias en las máquinas
Los algoritmos entrenados con datos de un tipo de máquina de imágenes pueden no funcionar de la misma manera al evaluar instancias de otros tipos. Las ligeras variaciones en las máquinas de imágenes o en el software de radiología pueden ser suficientes para afectar negativamente el rendimiento de un modelo.
Precisión en los informes
La naturaleza de la composición de los datos de entrenamiento significa que la precisión de tu modelo podría no ser tan precisa como se afirma. Los conjuntos de datos en estudios clínicos, por ejemplo, pueden centrarse en un grupo específico. Si un estudio sobre el cáncer de mama solo incluye ejemplos donde los tumores son homogéneos, la precisión en los informes puede no transferirse a otros casos.
Impulsados por cantidades crecientes de datos médicos, incluidos los proporcionados por registros de salud electrónicos (EHR) y dispositivos de fitness portátiles, y dispositivos médicos, como marcapasos, que están disponibles, los investigadores en el ámbito académico y la industria farmacéutica están recurriendo a aplicaciones de IA para mejorar los ensayos clínicos y la toma de decisiones clínicas, predecir o diagnosticar enfermedades con más precisión, acelerar los avances médicos y expandir el acceso a tratamientos experimentales.
| Relacionado: 10 Tendencias Tecnológicas en el Cuidado de la Salud para Mejorar tu Bienestar → |
Intervenciones adversariales
Los algoritmos de aprendizaje automático son vulnerables en el sentido de que pueden ser "engañados" con entradas especialmente diseñadas. Un equipo de la Escuela de Medicina de Harvard y el MIT demostró que es bastante fácil engañar a un sistema de IA que analiza imágenes médicas.
Se ha demostrado que los algoritmos son susceptibles al riesgo de ataques adversariales. Aunque algo teórico, un ataque adversarial describe un modelo que de otro modo sería efectivo pero que es susceptible a la manipulación por entradas diseñadas para engañarlo. Por ejemplo, en un estudio, las imágenes de lunares benignos fueron mal diagnosticadas como malignos al agregar ruido adversarial o incluso solo rotación. El ruido adversarial es una entrada que está diseñada para parecer "normal" a los humanos pero que causa una clasificación errónea en un modelo de aprendizaje automático.
Desplazamiento de distribución
Tu modelo de aprendizaje automático puede no ser capaz de aplicar con precisión lo que ha aprendido de los datos de entrenamiento a un nuevo conjunto de datos si hay una diferencia significativa (o un "desplazamiento") de uno a otro. Por ejemplo, si un modelo se entrena con datos de pacientes jóvenes en California, ¿funcionaría con pacientes mayores en Australia?
El desplazamiento de distribución es familiar para muchos clínicos, que tienen que operar fuera de una zona de confort cuando no pueden necesariamente aplicar la experiencia previa a nuevas situaciones. Los sistemas de máquinas pueden ser deficientes en reconocer un cambio relevante en el contexto o los datos, y esto resulta en que el sistema haga predicciones incorrectas basadas en entradas "fuera de muestra". Una discrepancia entre los datos de entrenamiento y los operativos puede ser introducida por deficiencias en los datos de entrenamiento, pero también por la aplicación inapropiada de un sistema de aprendizaje automático entrenado a un contexto de paciente no anticipado.
Datos sesgados
Si hay sesgos en los datos de entrenamiento, el modelo de aprendizaje automático aprenderá de ellos e incorporará esos sesgos.
La intención es usar la tecnología de IA en el cuidado de la salud para ayudar a los proveedores a tomar decisiones más objetivas en tiempo real y proporcionar un cuidado más eficiente. Las herramientas de IA dependen de los datos para entrenar algoritmos de máquinas para tomar decisiones. Si quieres enseñar a una máquina a estimar un factor como la propagación de un virus a través de varias demografías, le proporcionas muchos ejemplos para que la máquina pueda aprender a identificar estos patrones.
La máquina entonces es capaz de hacer distinciones relevantes. Si los datos son inherentemente sesgados o no contienen una representación diversa de los grupos objetivo, los algoritmos de IA no pueden producir resultados precisos.
Por ejemplo, si los datos utilizados para una tecnología de IA se recopilan solo de instalaciones de atención urgente, entonces el modelo de IA aprenderá menos sobre las poblaciones de pacientes que no suelen buscar atención en instalaciones de atención urgente. Lo mismo podría decirse de usar datos de análisis de imágenes de pacientes varones blancos e intentar aplicar el mismo modelo a pacientes varones negros o latinos.
Los datos sesgados pueden llevar a una entrega de cuidado del paciente retrasada o inapropiada que resulta en resultados perjudiciales para el paciente. Por lo tanto, es importante asegurar que los datos de salud utilizados para entrenar la IA sean representativos de grupos diversos para ayudar a mitigar el daño potencial al público, especialmente a las poblaciones históricamente marginadas.
| Relacionado: La Experiencia del Paciente Importa y la Pandemia la Ha Mejorado → |
¿Qué sigue?
Hay un gran potencial para el uso de la IA en los sistemas de salud, así como desafíos, mitos y limitaciones. A través de enfoques de aprendizaje automático, el acceso a datos estructurados de pacientes está creciendo rápidamente. Los conocimientos que puedes obtener de los datos de salud están expandiéndose, permitiendo mejores predicciones, diagnósticos y tratamientos. Este artículo es el primero de una serie sobre los beneficios y desafíos de la IA en el cuidado de la salud, y el cambio hacia la salud digital.
¿Quieres aprender más sobre Software de atención médica? Explora los productos de Cuidado de la salud.

Rachael Altman
Rachael is a research analyst at G2 with a focus on healthcare and education. Prior to joining G2, she has worked as an academic librarian and in research and business development at law firms, accounting firms, and nonprofit organizations. She has a BA and MA in English and Creative Writing and an MS in Library & Information Science. Outside of G2, Rachael is a career coach, yoga and meditation teacher, and jewelry maker.
