Inteligencia artificial y juicio clínico en conflicto: análisis bioético .
En la última década, la inteligencia artificial (IA) ha emergido como una herramienta disruptiva en el ámbito de la medicina, transformando procesos diagnósticos, pronósticos y terapéuticos en múltiples especialidades. En particular, la cardiología intervencionista ha sido uno de los campos más receptivos a estas tecnologías, dada su alta carga de decisiones críticas, el volumen de datos generados y la necesidad constante de precisión clínica (1).
Las aplicaciones de IA en cardiología han demostrado ventajas potenciales significativas: desde la interpretación automatizada de imágenes angiográficas, hasta la estratificación de riesgo en tiempo real, pasando por la optimización de estrategias de revascularización compleja mediante modelos predictivos (2). Estas capacidades abren la posibilidad de mejorar los desenlaces clínicos, reducir la variabilidad médica y ofrecer una medicina más personalizada y eficiente.
Sin embargo, este avance tecnológico también ha traído consigo un fenómeno preocupante: el uso de aplicaciones de IA por parte de pacientes y familiares, sin supervisión médica ni comprensión contextual de los resultados. La disponibilidad pública de estas herramientas, muchas veces sin validación clínica, ha generado una creciente dependencia de algoritmos que pueden inducir decisiones precipitadas, ansiedad severa e incluso eventos clínicos adversos cuando se interpretan de forma autónoma (3).
Este artículo presenta un caso clínico real con desenlace fatal tras la consulta no supervisada de una IA por parte de un paciente con cardiopatía isquémica avanzada. A partir del análisis del evento y sus implicaciones éticas, se plantea una reflexión sobre los límites del uso de IA en salud, la necesidad de una regulación bioética y la urgencia de preservar el juicio clínico humano en la era digital.
Presentación del caso clínico
Se trata de un paciente masculino de 66 años con antecedentes de enfermedad coronaria multivaso, hipertensión arterial y disfunción ventricular izquierda severa (fracción de eyección del ventrículo izquierdo [FEVI] del 25%). Había sido sometido cinco años antes a una cirugía de revascularización miocárdica en un centro cardiovascular de alta complejidad en la capital del país, donde se le colocaron un injerto de arteria mamaria izquierda (IMA) a la descendente anterior (DA), y dos injertos de vena safena dirigidos a la obtusa marginal (OM) y a la arteria coronaria derecha (ACD), respectivamente.
Tras regresar a su estado de residencia habitual, ingresó en un centro hospitalario local por disnea progresiva de esfuerzo (NYHA III–IV) y angina atípica. Se solicitó una angiografía coronaria diagnóstica ante la sospecha de progresión de enfermedad coronaria y deterioro funcional. Los hallazgos incluyeron:
- Oclusión total crónica de la DA nativa.
- Enfermedad difusa en la ACD, con estenosis crítica del 70% en su segmento medio.
- Permeabilidad del injerto de arteria mamaria a la DA con buen flujo distal.
- Oclusión completa de los injertos venosos a OM y ACD.
- Disfunción ventricular izquierda severa sin contractilidad apical, septal anterior y diafragmática.
Dado el carácter complejo del caso, se planteó su evaluación por un equipo interdisciplinario (Heart Team), conformado por el cardiólogo clínico local, el cardiólogo intervencionista del centro asistencial y los cirujanos cardiovasculares que lo habían intervenido en la capital, quienes participarían en la discusión a distancia. Esta coordinación buscaba definir la estrategia terapéutica más adecuada: nueva revascularización, terapia médica optimizada o eventual indicación de dispositivos.
Sin embargo, durante el intervalo entre la coronariografía y la reunión del Heart Team, el paciente y sus hijos decidieron introducir los hallazgos clínicos y las imágenes angiográficas en una aplicación de inteligencia artificial de libre acceso. Esta aplicación, sin validación clínica ni conocimiento del contexto médico, emitió una alerta categórica: “riesgo inminente de muerte súbita”.
La lectura de este mensaje provocó una crisis de ansiedad aguda, con síntomas neurovegetativos intensos, taquicardia, sensación de muerte inminente y descompensación emocional. Al día siguiente, el paciente fue evaluado en consulta ambulatoria por su cardiólogo local, quien documentó la presencia de una arritmia ventricular no sostenida, sin evidencia de colapso hemodinámico. Tras la estabilización clínica y el acompañamiento emocional, se retomó la evaluación integral con el equipo tratante.
Este episodio subraya los peligros potenciales del uso no supervisado de inteligencia artificial en escenarios clínicos complejos, y plantea una alerta bioética sobre la necesidad de acompañamiento profesional, protección emocional del paciente y regulación del uso de herramientas algorítmicas en la práctica médica.
Análisis del evento crítico: entre la predicción algorítmica y la iatrogenia digital
El desenlace de este caso, clínicamente atribuible a una arritmia ventricular no sostenida sobre una cardiopatía estructural severa, estuvo mediado por un detonante externo no convencional: la interacción autónoma del paciente y su familia con una aplicación de inteligencia artificial (IA), sin mediación médica ni validación ética.
La aplicación, diseñada para estimar riesgos cardiovasculares, analizó los datos angiográficos y clínicos del paciente e informó —fuera de todo contexto humano— una sentencia tajante: “riesgo inminente de muerte súbita”. Esta afirmación, basada probablemente en algoritmos entrenados con grandes bases de datos, carecía del análisis clínico integrador que solo el juicio médico deliberativo puede ofrecer: situación funcional, estabilidad hemodinámica, adherencia terapéutica, soporte familiar y opciones de tratamiento aún en evaluación.
El impacto emocional fue inmediato y profundo. El paciente experimentó una crisis de angustia aguda, con sintomatología neurovegetativa intensa, taquicardia, hiperventilación y percepción de muerte. En el contexto de una disfunción ventricular severa, esta descompensación emocional precipitó una arritmia ventricular no sostenida, identificada posteriormente durante la evaluación ambulatoria por su cardiólogo local, sin evidencia de colapso hemodinámico. Aunque el evento fue clínicamente contenido, representó una activación real de un circuito de riesgo que pudo haberse evitado con acompañamiento médico adecuado.
Desde el punto de vista bioético, este caso activa de manera simultánea los cuatro principios fundamentales de Beauchamp y Childress (1):
- Autonomía: el paciente ejerció una decisión informada desde su perspectiva, pero basada en una fuente sin marco clínico ni educativo.
- No maleficencia: la IA, aunque sin intención médica directa, provocó un efecto deletéreo físico y emocional al ofrecer una información descontextualizada.
- Beneficencia: el equipo médico, aún en deliberación, se encontraba construyendo un plan terapéutico ajustado a evidencia, proporcionalidad y valores del paciente.
- Justicia: la libre disponibilidad de IA sin control genera un acceso desigual al conocimiento médico, donde quien más necesita contención humana es el más expuesto al riesgo tecnológico.
Este episodio puede catalogarse como una forma emergente de evento adverso: la iatrogenia algorítmica por interpretación no clínica, en la que una tecnología diseñada para informar se transforma en agente de alteración clínica, al no considerar la fragilidad emocional, el contexto integral y la mediación del juicio médico.
Como han advertido autores recientes, la IA en medicina no puede reemplazar la experiencia, la compasión ni la deliberación ética de los profesionales clínicos (2,3). En el ámbito de la cardiología intervencionista, donde cada decisión puede tener consecuencias vitales, la confianza ciega en aplicaciones digitales no validadas representa un riesgo creciente, especialmente en pacientes vulnerables, ansiosos o en espera de decisiones compartidas (4).
Dilemas bioéticos identificados
El caso expuesto representa una situación límite que interpela profundamente la práctica médica contemporánea: ¿qué ocurre cuando el paciente reemplaza la deliberación profesional por un algoritmo? A continuación, se analizan los principales dilemas bioéticos involucrados, a la luz de los cuatro principios fundamentales de Beauchamp y Childress (1):
- Autonomía mal informada
El paciente ejerció un acto de autonomía aparente al buscar respuestas por sí mismo. Sin embargo, esta decisión fue tomada sin el acompañamiento del conocimiento clínico ni de una adecuada comprensión del funcionamiento de la IA, lo cual constituye una autonomía mal informada. La capacidad de decidir no equivale a la capacidad de comprender los límites, sesgos o interpretaciones erróneas de herramientas tecnológicas no validadas.
- No maleficencia vulnerada
El principio de no hacer daño fue transgredido indirectamente por una tecnología diseñada para apoyar. El mensaje algorítmico, al no considerar el estado emocional, la historia médica ni las alternativas terapéuticas en evaluación, provocó un daño emocional significativo y una respuesta fisiológica real. El caso muestra cómo el diseño tecnológico sin filtro humano puede inducir iatrogenia digital o emocional, aun en ausencia de intención clínica directa (2).
- Beneficencia interrumpida
El equipo médico había iniciado un proceso ético de deliberación para definir la mejor estrategia de revascularización. Dicho proceso, orientado al beneficio del paciente desde una visión integral, fue bruscamente alterado por una decisión autónoma basada en un algoritmo, desplazando la lógica clínica por una lógica técnica sin rostro, ni escucha, ni compasión.
- Justicia y brecha digital
El libre acceso a tecnologías sin regulación ni educación diferencial genera una nueva forma de desigualdad: la vulnerabilidad ante el algoritmo. Los pacientes con menos recursos, menor alfabetización digital o sin acompañamiento profesional, son más propensos a interpretar literalmente las predicciones de una IA, sin comprender sus limitaciones estadísticas, ni su carácter genérico y no personalizado.
Reflexión ampliada: el desplazamiento del juicio clínico
Este caso plantea la necesidad urgente de salvaguardar el juicio clínico como núcleo del acto médico. La medicina no puede reducirse a la interpretación de datos, sino que debe sostenerse en el encuentro humano, la prudencia deliberativa y la interpretación bioética contextualizada (3).
La confianza ciega en tecnologías no validadas y la medicalización algorítmica sin acompañamiento profesional amenazan con generar una nueva forma de disfunción asistencial: la iatrogenia moral inducida por inteligencia artificial, donde se pierde el equilibrio entre ciencia, ética y humanidad.
El juicio clínico no es solo diagnóstico, es también contención, presencia, espera y deliberación. Y en la era de la IA, la prisa del dato no puede sustituir el tiempo del cuidado.
Discusión
El caso descrito representa un ejemplo paradigmático de cómo el uso autónomo, desregulado y no contextualizado de herramientas de inteligencia artificial (IA) en medicina puede generar consecuencias clínicas y emocionales adversas. Aunque la IA posee un indiscutible potencial para asistir en diagnósticos, optimizar decisiones terapéuticas y mejorar la eficiencia del sistema de salud (1), su aplicación sin mediación profesional plantea un nuevo tipo de riesgo: el desplazamiento del juicio clínico humano por la interpretación algorítmica sin deliberación.
En el contexto de la cardiología intervencionista, donde las decisiones terapéuticas son de alto impacto y dependen de múltiples variables clínicas, anatómicas, emocionales y éticas, la reducción del paciente a un perfil estadístico puede invisibilizar su singularidad. La medicina basada en la evidencia, en su correcta interpretación, no es una medicina basada en algoritmos ciegos, sino una práctica que integra la mejor evidencia disponible, la experiencia clínica y los valores del paciente (2).
Este evento clínico adverso también pone en evidencia una forma emergente de daño: la iatrogenia algorítmica, entendida como el perjuicio generado por una tecnología médica no mediada ni adaptada al caso individual. Este concepto, aún poco explorado en la literatura bioética, requiere atención urgente, ya que implica responsabilidades compartidas entre diseñadores tecnológicos, sistemas de salud y profesionales clínicos (3).
Además, el caso refleja el inicio de un fenómeno preocupante: la algoritmización del sufrimiento humano. El paciente no fue afectado únicamente por su condición médica de base, sino por la carga emocional provocada por una predicción digital sin rostro, sin contexto ni contención. Esta “palabra de la máquina” interfirió en el proceso deliberativo que venía construyéndose cuidadosamente por el equipo médico, sustituyendo la contención clínica por una sentencia incontrolada.
Frente a este escenario, surgen preguntas necesarias:
- ¿Puede una IA diagnosticar sin acompañar?
- ¿Es ético que una aplicación emita predicciones letales sin ser comprendida por el paciente?
- ¿Quién responde cuando la interpretación algorítmica produce un daño emocional o funcional?
Estas interrogantes exigen una ética de la inteligencia artificial médica, basada en la prudencia, la supervisión profesional y la formación crítica de médicos y pacientes en alfabetización digital. El juicio clínico humano, sostenido en la deliberación y en la compasión, no debe ser sustituido, sino potenciado por la tecnología, como ha señalado Topol en su visión de una medicina más humana a través de la IA (4).
Este caso refuerza la necesidad de construir barreras éticas, educativas y normativas que eviten que los pacientes queden expuestos a tecnologías sofisticadas pero carentes de responsabilidad moral, emocional y contextual.
Conclusiones y recomendaciones
El caso analizado revela con claridad los riesgos reales del uso no supervisado de herramientas de inteligencia artificial en contextos clínicos complejos. A pesar de los avances que la IA representa en el campo de la cardiología intervencionista —mejora diagnóstica, estratificación de riesgo, apoyo terapéutico—, su aplicación sin mediación profesional puede generar angustia emocional, decisiones precipitadas y respuestas clínicas indeseadas.
Desde una perspectiva bioética, se evidencia cómo la autonomía mal informada, la ausencia de acompañamiento profesional y la confianza ciega en algoritmos vulneran los principios de beneficencia, no maleficencia, justicia y deliberación responsable. La medicina basada en evidencia y valores humanos no puede ser reemplazada por algoritmos que carecen de prudencia, contexto y sensibilidad clínica.
Este caso invita a repensar el lugar de la tecnología en el acto médico. La inteligencia artificial no debe sustituir el juicio clínico, sino potenciarlo, complementarlo y someterse a sus límites éticos. Para ello, proponemos:
Recomendaciones clave
- Regulación ética y legal del uso de IA en salud, especialmente en aplicaciones de acceso público o predictivo.
- Alfabetización digital y bioética para pacientes, con el fin de interpretar con juicio crítico la información médica en línea.
- Acompañamiento profesional obligatorio en la interpretación de herramientas de IA en escenarios clínicos complejos.
- Protocolos de validación y acreditación de aplicaciones médicas basadas en IA, avaladas por sociedades científicas.
- Protección del juicio clínico deliberativo como eje del acto médico, en defensa de la dignidad, la esperanza y la singularidad del paciente.
En la era de la inteligencia artificial, la medicina está llamada a ser más humana, no menos. Los algoritmos pueden predecir, pero solo los médicos pueden acompañar. Y en muchos casos, es el acompañamiento lo que salva.
Derechos y deberes del paciente frente a la inteligencia artificial en salud
El acto médico no puede reducirse a una transacción entre datos y algoritmos. El paciente sigue siendo el centro del proceso clínico, ético y relacional. Por ello, resulta esencial reconocer y difundir un marco de derechos y deberes bioéticos que guíe su interacción con estas tecnologías emergentes.
Derechos del paciente frente a la inteligencia artificial médica
- Derecho a una decisión informada y deliberada
Toda intervención basada en IA debe explicarse previamente con lenguaje claro, y requerir consentimiento voluntario. - Derecho a la supervisión médica humana
Toda información generada por IA debe ser interpretada por profesionales de salud. - Derecho a conocer las limitaciones de la IA
El paciente debe saber si la herramienta está validada, su margen de error y su nivel de confiabilidad. - Derecho a la protección de sus datos personales
La información médica utilizada por IA debe cumplir estándares de privacidad y ciberseguridad. - Derecho al acompañamiento emocional y ético
Ningún paciente debe enfrentar solo el impacto psicológico de una predicción algorítmica.
Deberes del paciente frente a la inteligencia artificial médica
- Informar al equipo médico si ha utilizado IA por su cuenta
Para contextualizar adecuadamente los resultados y evitar decisiones erróneas. - No modificar tratamientos sin supervisión
Las decisiones deben basarse en deliberación compartida, no en respuestas automatizadas. - Utilizar plataformas confiables y aprobadas clínicamente
Evitando herramientas sin respaldo científico o ético. - Proteger la privacidad de sus datos de salud
Usar entornos digitales seguros y autorizados. - Participar activamente en el proceso médico
El diálogo con el equipo tratante sigue siendo esencial. La tecnología no sustituye el encuentro humano.
Discusión
El caso descrito representa un ejemplo paradigmático de cómo el uso autónomo, desregulado y no contextualizado de herramientas de inteligencia artificial (IA) en medicina puede generar consecuencias clínicas y emocionales adversas. Aunque la IA posee un indiscutible potencial para asistir en diagnósticos, optimizar decisiones terapéuticas y mejorar la eficiencia del sistema de salud (1), su aplicación sin mediación profesional plantea un nuevo tipo de riesgo: el desplazamiento del juicio clínico humano por la interpretación algorítmica sin deliberación.
En el contexto de la cardiología intervencionista, donde las decisiones terapéuticas son de alto impacto y dependen de múltiples variables clínicas, anatómicas, emocionales y éticas, la reducción del paciente a un perfil estadístico puede invisibilizar su singularidad. La medicina basada en la evidencia, en su correcta interpretación, no es una medicina basada en algoritmos ciegos, sino una práctica que integra la mejor evidencia disponible, la experiencia clínica y los valores del paciente (2).
Este evento clínico adverso también pone en evidencia una forma emergente de daño: la iatrogenia algorítmica, entendida como el perjuicio generado por una tecnología médica no mediada ni adaptada al caso individual. Este concepto, aún poco explorado en la literatura bioética, requiere atención urgente, ya que implica responsabilidades compartidas entre diseñadores tecnológicos, sistemas de salud y profesionales clínicos (3).
Además, el caso refleja el inicio de un fenómeno preocupante: la algoritmización del sufrimiento humano. El paciente no fue afectado únicamente por su condición médica de base, sino por la carga emocional provocada por una predicción digital sin rostro, sin contexto ni contención. Esta “palabra de la máquina” interfirió en el proceso deliberativo que venía construyéndose cuidadosamente por el equipo médico, sustituyendo la contención clínica por una sentencia incontrolada.
Frente a este escenario, surgen preguntas necesarias:
- ¿Puede una IA diagnosticar sin acompañar?
- ¿Es ético que una aplicación emita predicciones letales sin ser comprendida por el paciente?
- ¿Quién responde cuando la interpretación algorítmica produce un daño emocional o funcional?
Estas interrogantes exigen una ética de la inteligencia artificial médica, basada en la prudencia, la supervisión profesional y la formación crítica de médicos y pacientes en alfabetización digital. El juicio clínico humano, sostenido en la deliberación y en la compasión, no debe ser sustituido, sino potenciado por la tecnología, como ha señalado Topol en su visión de una medicina más humana a través de la IA (4).
Este caso refuerza la necesidad de construir barreras éticas, educativas y normativas que eviten que los pacientes queden expuestos a tecnologías sofisticadas pero carentes de responsabilidad moral, emocional y contextual.
Conclusiones y recomendaciones
El caso analizado revela con claridad los riesgos reales del uso no supervisado de herramientas de inteligencia artificial en contextos clínicos complejos. A pesar de los avances que la IA representa en el campo de la cardiología intervencionista —mejora diagnóstica, estratificación de riesgo, apoyo terapéutico—, su aplicación sin mediación profesional puede generar angustia emocional, decisiones precipitadas y respuestas clínicas indeseadas.
Desde una perspectiva bioética, se evidencia cómo la autonomía mal informada, la ausencia de acompañamiento profesional y la confianza ciega en algoritmos vulneran los principios de beneficencia, no maleficencia, justicia y deliberación responsable. La medicina basada en evidencia y valores humanos no puede ser reemplazada por algoritmos que carecen de prudencia, contexto y sensibilidad clínica.
Este caso invita a repensar el lugar de la tecnología en el acto médico. La inteligencia artificial no debe sustituir el juicio clínico, sino potenciarlo, complementarlo y someterse a sus límites éticos. Para ello, proponemos:
Recomendaciones clave
- Regulación ética y legal del uso de IA en salud, especialmente en aplicaciones de acceso público o predictivo.
- Alfabetización digital y bioética para pacientes, con el fin de interpretar con juicio crítico la información médica en línea.
- Acompañamiento profesional obligatorio en la interpretación de herramientas de IA en escenarios clínicos complejos.
- Protocolos de validación y acreditación de aplicaciones médicas basadas en IA, avaladas por sociedades científicas.
- Protección del juicio clínico deliberativo como eje del acto médico, en defensa de la dignidad, la esperanza y la singularidad del paciente.
En la era de la inteligencia artificial, la medicina está llamada a ser más humana, no menos. Los algoritmos pueden predecir, pero solo los médicos pueden acompañar. Y en muchos casos, es el acompañamiento lo que salva.
Derechos y deberes del paciente frente a la inteligencia artificial en salud
El acto médico no puede reducirse a una transacción entre datos y algoritmos. El paciente sigue siendo el centro del proceso clínico, ético y relacional. Por ello, resulta esencial reconocer y difundir un marco de derechos y deberes bioéticos que guíe su interacción con estas tecnologías emergentes.
Derechos del paciente frente a la inteligencia artificial médica
- Derecho a una decisión informada y deliberada
Toda intervención basada en IA debe explicarse previamente con lenguaje claro, y requerir consentimiento voluntario. - Derecho a la supervisión médica humana
Toda información generada por IA debe ser interpretada por profesionales de salud. - Derecho a conocer las limitaciones de la IA
El paciente debe saber si la herramienta está validada, su margen de error y su nivel de confiabilidad. - Derecho a la protección de sus datos personales
La información médica utilizada por IA debe cumplir estándares de privacidad y ciberseguridad. - Derecho al acompañamiento emocional y ético
Ningún paciente debe enfrentar solo el impacto psicológico de una predicción algorítmica.
Deberes del paciente frente a la inteligencia artificial médica
- Informar al equipo médico si ha utilizado IA por su cuenta
Para contextualizar adecuadamente los resultados y evitar decisiones erróneas. - No modificar tratamientos sin supervisión
Las decisiones deben basarse en deliberación compartida, no en respuestas automatizadas. - Utilizar plataformas confiables y aprobadas clínicamente
Evitando herramientas sin respaldo científico o ético. - Proteger la privacidad de sus datos de salud
Usar entornos digitales seguros y autorizados. - Participar activamente en el proceso médico
El diálogo con el equipo tratante sigue siendo esencial. La tecnología no sustituye el encuentro humano.
Referencias
- Jneid H, Kumbhani DJ. Artificial intelligence in interventional cardiology: a paradigm shift. J Am Coll Cardiol. 2023;81(10):1045–1048.
- Núñez Medina TJ. Cardiología intervencionista en Venezuela: una preocupación creciente en la lectura crítica de la evidencia [Internet]. Instituto Educardio; 2024 [citado 2025 may 6]. Disponible en: https://institutoeducardio.net/cardiologia-intervencionista-en-venezuela-una-preocupacion-creciente-en-la-lectura-critica-de-la-evidencia/
- van de Leur RR, Bos MM, Szili-Torok T. Artificial intelligence and the rise of the algorithmic patient. NPJ Digit Med. 2023;6(1):108. https://doi.org/10.1038/s41746-023-00854-4
- Topol EJ. Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again. New York: Basic Books; 2019.
- Núñez Medina TJ. Cardiología intervencionista en Venezuela: importancia de la lectura crítica en la medicina basada en la evidencia [Internet]. Instituto Educardio; 2024 [citado 2025 may 6]. Disponible en: https://institutoeducardio.net/cardiologia-intervencionista-en-venezuela-importancia-de-la-lectura-critica-en-la-medicina-basada-en-la-evidencia/
- Beauchamp TL, Childress JF. Principles of Biomedical Ethics. 8th ed. Oxford University Press; 2019.
- UNESCO. Declaración Universal sobre Bioética y Derechos Humanos. París: UNESCO; 2005.