top of page

Inteligencia artificial en salud y valores humanos: la sinergia para la atención médica

Actualizado: 14 dic 2024

La incorporación de la inteligencia artificial (IA) generativa en la atención médica, particularmente con el uso de modelos de lenguaje de gran tamaño (Large Language Models - LLM), marca un hito en la forma en que se procesan y analizan los datos en el ámbito sanitario. Estas tecnologías han demostrado ser herramientas revolucionarias, capaces de transformar áreas como la redacción de informes clínicos, la personalización de tratamientos y la optimización de diagnósticos. Sin embargo, el uso de la IA en medicina también plantea preguntas críticas sobre cómo preservar los valores humanos en un campo donde la precisión, la empatía y la ética son esenciales. En este contexto, la bioética surge como un pilar fundamental para guiar el desarrollo y la aplicación de estas tecnologías, asegurando que su implementación respete los principios básicos de la dignidad humana y la justicia.


Los valores humanos como base de la IA en salud

El diseño y la implementación de los LLM en el ámbito médico deben fundamentarse en los valores humanos de manera profunda y consciente, ya que las decisiones médicas trascienden lo puramente técnico para situarse en el núcleo de lo humano. Estas decisiones no se limitan a resolver problemas físicos; involucran matices emocionales, contextos culturales, dinámicas familiares y repercusiones económicas para los sistemas de salud. Cada interacción en el proceso médico, desde un diagnóstico hasta la recomendación de un tratamiento, tiene un impacto multifacético en la vida del paciente. Por ello, la IA debe actuar como una extensión de las capacidades humanas, potenciando la precisión, la personalización y la equidad, pero sin reemplazar la empatía ni desdibujar la responsabilidad ética de los profesionales de la salud.


El papel de los datos en este contexto es crucial, ya que son la base sobre la cual se entrenan los modelos de IA. La diversidad en los datos no es un simple atributo deseable, sino una necesidad ética y práctica para garantizar que los resultados sean inclusivos y representen la riqueza de las experiencias humanas. Sin embargo, cuando los datos de entrenamiento carecen de diversidad, los sesgos inherentes pueden amplificarse y perpetuar desigualdades estructurales. Por ejemplo, si un modelo se entrena mayoritariamente con datos de pacientes de una región o grupo demográfico específico, sus predicciones pueden ser menos precisas, o incluso erróneas, para otros grupos. Este problema no solo afecta la calidad del cuidado médico, sino que también puede erosionar la confianza de los pacientes en las tecnologías que deberían servirles.


En medicina, el uso de herramientas probabilísticas no es una novedad. Un ejemplo brillante es la fórmula para estimar la Tasa de Filtración Glomerular.

Un caso emblemático que ilustra cómo los valores humanos influyen en la práctica médica es la fórmula para estimar la Tasa de Filtración Glomerular (TFG), una herramienta ampliamente utilizada para evaluar la función renal. Esta ecuación incorpora variables como la edad, el sexo y la etnia para ofrecer resultados más personalizados. No obstante, la inclusión de categorías étnicas ha generado un debate ético significativo. Si bien estas categorías buscaban inicialmente mejorar la precisión, también han sido criticadas por perpetuar estereotipos biológicos y reforzar nociones reductivas sobre la “raza” en biología, un concepto que carece de base científica sólida.


Este debate llevó a la actualización de las fórmulas para eliminar el componente étnico, destacando que incluso herramientas diseñadas para ser objetivas pueden incorporar valores humanos y decisiones que impactan profundamente a los pacientes. La lección que deja este caso es clara: las herramientas tecnológicas, por avanzadas que sean, no están libres de las influencias humanas que moldean su diseño y aplicación. En el contexto de los LLM, esto implica que los desarrolladores y los profesionales médicos deben abordar cada etapa del proceso de diseño con un enfoque crítico y ético. La evaluación de posibles sesgos, la transparencia en las decisiones algorítmicas y la colaboración interdisciplinaria son pasos esenciales para evitar que las tecnologías reproduzcan o exacerben desigualdades existentes. Además, este ejemplo subraya la importancia de considerar no solo los resultados clínicos, sino también las implicaciones sociales y culturales de las herramientas médicas, asegurando que los modelos de IA sean un reflejo genuino de los valores de inclusión, equidad y justicia que deberían guiar toda práctica médica.


La construcción de modelos de IA en medicina no puede ser un proceso aislado ni meramente técnico. Es una empresa profundamente humana que requiere un diálogo constante entre las capacidades tecnológicas y los principios éticos. Solo al integrar la diversidad y la complejidad de las experiencias humanas en el diseño de estos sistemas podremos garantizar que sirvan como herramientas que promuevan no solo la innovación, sino también la equidad y el respeto por la dignidad de todos los pacientes. La IA en salud debe ser una extensión de los valores humanos, no una amenaza para ellos.


El diseño y entrenamiento de los LLM en medicina

El proceso de entrenamiento de los LLM refleja tanto su potencial como sus limitaciones. Estos modelos se construyen en dos fases principales: un pre-entrenamiento inicial, basado en textos recopilados de internet, y un ajuste fino, que incluye retroalimentación humana para mejorar la calidad de las respuestas generadas. Durante el pre-entrenamiento, los modelos adquieren una vasta cantidad de información, pero también pueden absorber datos erróneos, inapropiados o sesgados, lo que podría comprometer su fiabilidad en contextos médicos. En la fase de ajuste fino, el aprendizaje reforzado con retroalimentación humana (RLHF - por sus siglas en inglés) permite refinar las respuestas, pero introduce una nueva capa de subjetividad, ya que depende de los valores y criterios de quienes supervisan este proceso.


Un recurso emergente para entender y gestionar el comportamiento de los LLM son las tarjetas de modelos (Model Cards) y las tarjetas de sistemas (System Cards). Estas herramientas proporcionan transparencia sobre cómo se entrenan y evalúan los modelos, ayudando a identificar posibles riesgos y limitaciones. A pesar de estos avances, aún queda por definir cómo deben integrarse los valores humanos en estos modelos, especialmente en el contexto clínico, donde los errores pueden tener consecuencias graves. La incorporación de principios éticos en el diseño de estos sistemas no es solo una cuestión técnica, sino también una responsabilidad social y profesional.


Bioética y regulación: un marco necesario

La bioética desempeña un papel crucial en la regulación de la IA en el ámbito de la salud, proporcionando un marco de principios que guían su desarrollo y aplicación. Estos principios fundamentales –beneficencia, no maleficencia, autonomía y justicia– actúan como brújula para asegurar que las tecnologías de IA no solo promuevan beneficios para los pacientes, sino que también minimicen cualquier riesgo potencial.


En este contexto, la beneficencia se centra en maximizar el impacto positivo de estas tecnologías, mientras que la no maleficencia subraya la importancia de evitar cualquier daño. Por su parte, la autonomía asegura que los pacientes mantengan el control sobre sus decisiones y datos, y la justicia exige una distribución equitativa de los beneficios tecnológicos, evitando que las desigualdades existentes se amplifiquen con la IA.


En paralelo, regulaciones internacionales como el Reglamento General de Protección de Datos (GDPR) en Europa y la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) en Estados Unidos establecen estándares esenciales para manejar de forma ética y segura los datos sensibles. Estas normativas son indispensables para proteger la privacidad y la seguridad de los pacientes, pero enfrentan un reto constante: mantenerse actualizadas frente a los avances vertiginosos de la IA generativa.


Las tecnologías como los LLM plantean desafíos únicos, incluida la opacidad de los algoritmos y la posibilidad de que las decisiones automáticas se tomen sin supervisión humana adecuada. Este último punto es particularmente crítico, ya que la falta de transparencia en cómo los algoritmos procesan la información puede socavar la confianza en las herramientas de IA, especialmente en aplicaciones médicas. Además de regular el uso ético de la IA, la bioética también debe abordar interrogantes más amplias sobre la "psicología" de estas tecnologías. Específicamente, es necesario comprender cómo su uso afecta las habilidades humanas en entornos clínicos. Por ejemplo, ¿Podría la dependencia de los modelos de IA erosionar la capacidad de los profesionales de la salud para tomar decisiones complejas de manera independiente? Asimismo, ¿Qué beneficios tangibles y qué riesgos implícitos ofrece su integración en áreas como los ensayos clínicos, la radiología y la patología? En estos campos, la capacidad de los LLM para influir en decisiones críticas subraya la necesidad de herramientas que sean auditables y explicables. La audibilidad no solo permite evaluar la validez de las recomendaciones generadas, sino que también facilita la identificación de errores y sesgos, creando un entorno más seguro para los pacientes.


La explicabilidad de las tecnologías de IA es esencial para empoderar a los profesionales de la salud. Cuando los médicos pueden comprender cómo se generan las recomendaciones, no solo pueden tomar decisiones más informadas, sino que también tienen la capacidad de comunicarlas de manera efectiva a sus pacientes. Esto es fundamental para preservar la confianza y la transparencia en la relación médico-paciente, especialmente en un contexto donde las decisiones clínicas pueden tener consecuencias de vida o muerte. Además, un enfoque bioético riguroso puede servir como guía para garantizar que estas tecnologías sean inclusivas y reflejen las necesidades de diversas poblaciones, evitando así que grupos marginados queden excluidos de los beneficios de la IA.


Es fundamental reflexionar sobre preguntas clave que nos permitan avanzar hacia una integración ética y responsable de la IA en la salud:


  • ¿Cómo pueden las normativas internacionales adaptarse para abordar de manera efectiva los riesgos asociados con la opacidad de los algoritmos y las decisiones automáticas no supervisadas?

  • ¿De qué manera pueden los profesionales de la salud equilibrar la dependencia de la IA con la necesidad de mantener y fortalecer sus propias habilidades clínicas?

  • ¿Qué estrategias pueden implementarse para garantizar que los beneficios de la IA se distribuyan equitativamente entre diferentes grupos sociales y demográficos, minimizando las desigualdades existentes?


Hacia una sinergia entre IA y valores humanos

La integración de la IA en la atención médica no debe verse como un proceso unilateral en el que la tecnología dicta las reglas, sino como una sinergia entre capacidades humanas y algoritmos avanzados. Esto requiere un enfoque colaborativo que involucre a desarrolladores, profesionales de la salud, bioeticistas y pacientes en el diseño y evaluación de estas herramientas. Un ejemplo de esta colaboración es el uso de retroalimentación humana en el entrenamiento de los LLM, que permite ajustar los modelos para reflejar mejor los valores y necesidades de los usuarios. Además, es crucial fomentar una cultura de responsabilidad y transparencia en el uso de la IA, asegurando que todos los actores comprendan tanto su potencial como sus limitaciones.


La educación también juega un papel clave en esta sinergia. Los profesionales de la salud deben recibir capacitación para comprender cómo funcionan los LLM y cómo interpretar sus resultados de manera crítica. Esto no solo mejorará la eficacia del uso de estas herramientas, sino que también ayudará a mantener la confianza de los pacientes en un sistema de atención médica cada vez más digitalizado.


La IA generativa, representada por los LLM, tiene el potencial de transformar profundamente la atención médica. Sin embargo, este potencial solo puede realizarse plenamente si su desarrollo y uso están guiados por principios éticos sólidos que prioricen los valores humanos. La bioética no es un obstáculo para la innovación, sino una brújula que asegura que las tecnologías emergentes beneficien a la sociedad sin comprometer los derechos y la dignidad de las personas. A medida que avanzamos hacia un futuro impulsado por la IA, es imperativo que médicos, desarrolladores y reguladores trabajen juntos para construir un sistema de atención médica que sea tan justo como innovador, tan humano como tecnológico.



Referencias

Yu KH, Healey E, Leong TY, Kohane IS, Manrai AK. Medical Artificial Intelligence and Human Values. N Engl J Med 2024;390: 1895-1904.


Green N. Procope C. Cheema A. Adediji A. System Cards, a new resource for understanding how AI systems work [Internet]. Meta; 2022. [actualizado 23 Feb 2022; citado 27 Jul 2024]. Disponible en: https://ai.meta.com/blog/system-cards-a-new-resource-for-understanding-how-ai-systems-work/



Descarga gratis este artículo aquí ↓



 
 
 

Comentarios


bottom of page