Introducción
La medicina de urgencias constituye uno de los escenarios más exigentes de la práctica clínica, donde las decisiones deben tomarse en segundos, bajo condiciones de incertidumbre y con información incompleta. En este contexto, el juicio clínico ha sido históricamente el pilar fundamental del acto médico, sustentado en la integración de experiencia, conocimiento y responsabilidad. Sin embargo, este paradigma está siendo profundamente transformado por la irrupción de la inteligencia artificial (IA) aplicada al razonamiento clínico.
Un estudio reciente publicado en Science ha demostrado que modelos avanzados de lenguaje pueden igualar e incluso superar a médicos en tareas complejas de diagnóstico y toma de decisiones, incluyendo casos reales en servicios de urgencias (1) . Esta superioridad es particularmente evidente en el triaje inicial, donde la información es limitada y el margen de error puede ser crítico para la vida del paciente (1). Asimismo, la IA ha evidenciado una capacidad superior para estructurar el razonamiento clínico y seleccionar estrategias diagnósticas adecuadas, alcanzando niveles de desempeño que superan a médicos con distintos grados de experiencia (1).
Estos hallazgos no solo representan un avance tecnológico, sino que plantean una tensión fundamental en la medicina contemporánea: la coexistencia de una inteligencia algorítmica altamente precisa con una práctica médica basada en la responsabilidad moral y la relación humana. Como se ha señalado previamente en el ámbito de la cardiología intervencionista, la introducción de la inteligencia artificial en decisiones críticas —como aquellas vinculadas a la muerte súbita— no elimina el dilema clínico, sino que lo profundiza, al confrontar la precisión con la responsabilidad en contextos donde el margen de error es mínimo y las consecuencias son irreversibles (2).
Desde la bioética clínica, este escenario obliga a reexaminar los principios fundamentales que orientan la práctica médica —beneficencia, no maleficencia, autonomía y justicia— como marco indispensable para la integración de nuevas tecnologías (3). En este sentido, la pregunta ya no es si la inteligencia artificial puede asistir al médico, sino cómo debe incorporarse en la toma de decisiones clínicas sin comprometer la esencia ética del cuidado.
La presente reflexión propone analizar críticamente este nuevo escenario, entendiendo la inteligencia artificial no como un sustituto del médico, sino como una herramienta de alto valor que exige una redefinición del profesionalismo médico en el siglo XXI.
Evidencia clínica: superioridad diagnóstica en condiciones de incertidumbre
La evidencia derivada del estudio publicado en Science aporta un soporte sólido para comprender el alcance real de la inteligencia artificial en la práctica clínica. A diferencia de evaluaciones previas centradas en escenarios simulados, este trabajo integra casos clínicos complejos, conferencias clinicopatológicas del New England Journal of Medicine y, de manera particularmente relevante, pacientes reales atendidos en servicios de urgencias, lo que le confiere una elevada validez externa (1).
En el análisis del diagnóstico diferencial, el modelo de IA incluyó el diagnóstico correcto en aproximadamente el 78.3% de los casos, alcanzando hasta un 97.9% cuando se consideraban diagnósticos cercanos o clínicamente relevantes (1). De igual manera, mostró una alta precisión en la selección de pruebas diagnósticas, con una concordancia del 87.5% respecto a las decisiones consideradas adecuadas por expertos (1).
El hallazgo más significativo se observa en el triaje inicial, fase caracterizada por información incompleta y alta presión temporal. En este punto, la IA logró identificar diagnósticos correctos o muy cercanos en el 67.1% de los casos, superando consistentemente a médicos evaluados en condiciones similares (1). Esta ventaja, aunque se reduce en etapas posteriores de la atención, se mantiene a lo largo del proceso clínico, incluyendo la evaluación médica inicial y la admisión hospitalaria (1).
Estos resultados no solo evidencian una superioridad técnica en términos de precisión, sino que revelan una fortaleza particular de la IA en los momentos más críticos del proceso asistencial: aquellos en los que la incertidumbre es mayor y el margen de error más estrecho. En consecuencia, la inteligencia artificial deja de ser una herramienta complementaria para convertirse en un elemento potencialmente determinante en la calidad de la toma de decisiones clínicas.
Calidad de la evidencia: entre la superioridad técnica y la validación clínica
El estudio publicado en Science aporta evidencia de alta calidad en relación con el desempeño cognitivo de la inteligencia artificial, al establecer comparaciones directas con médicos en tareas de diagnóstico y razonamiento clínico, incluyendo escenarios reales de urgencias y utilizando herramientas validadas (1). Sin embargo, sus resultados deben ser interpretados con cautela. Se trata de un análisis realizado en entornos controlados que no evalúa de forma directa el impacto en desenlaces clínicos, seguridad del paciente ni costo-efectividad. En este sentido, aunque la IA demuestra una superioridad técnica relevante, aún no constituye evidencia suficiente para modificar estándares de práctica clínica. Su verdadero valor, por ahora, radica en su potencial como herramienta de apoyo, cuya integración requiere validación prospectiva en escenarios reales antes de una adopción generalizada.
Razonamiento clínico: más allá de la precisión diagnóstica
Más allá del acierto diagnóstico, el estudio publicado en Science introduce un hallazgo de mayor profundidad conceptual: la superioridad de la inteligencia artificial en la estructuración del razonamiento clínico (1). En medicina, no basta con identificar correctamente una entidad nosológica; es imprescindible comprender el proceso mediante el cual se construye el diagnóstico, se jerarquizan hipótesis y se toman decisiones coherentes.
Mediante el uso de herramientas validadas para evaluar el razonamiento clínico, como la escala R-IDEA, el modelo de IA alcanzó puntuaciones prácticamente perfectas en la mayoría de los casos, superando de manera significativa a médicos adjuntos y residentes (1). Este desempeño refleja no solo precisión, sino también consistencia lógica, integración eficiente de la información clínica y claridad en la formulación del diagnóstico diferencial.
Asimismo, en escenarios de planificación del manejo clínico, la IA demostró una ventaja sustancial, obteniendo puntuaciones superiores frente a médicos con y sin apoyo de herramientas digitales (1). Este hallazgo sugiere que la inteligencia artificial no solo “acierta más”, sino que también “razona mejor” en términos estructurales.
Sin embargo, esta afirmación requiere una lectura crítica. El razonamiento de la IA es esencialmente probabilístico, carente de experiencia vivida, intuición clínica y contexto humano. Su lógica es coherente, pero no consciente. En este punto emerge una distinción fundamental: la diferencia entre razonar correctamente y comprender clínicamente.
Esta distinción sitúa el debate en el terreno de la bioética clínica. La cuestión no es únicamente si la IA puede replicar el razonamiento médico, sino si dicho razonamiento, desprovisto de responsabilidad y relación con el paciente, puede considerarse equivalente al acto clínico humano. La respuesta, lejos de ser técnica, es profundamente ética.
El núcleo bioético: capacidad sin responsabilidad
La evidencia demuestra que la inteligencia artificial puede alcanzar —e incluso superar— al médico en precisión diagnóstica y estructuración del razonamiento clínico (1). Sin embargo, este avance introduce una paradoja central para la bioética clínica: una herramienta con alta capacidad decisional, pero sin responsabilidad moral.
A diferencia del médico, la IA carece de agencia ética. No puede asumir consecuencias, no responde ante el error y no participa en la relación terapéutica. Su intervención en la toma de decisiones clínicas es significativa, pero no puede ser considerada sujeto moral. Esta disociación entre capacidad y responsabilidad genera una tensión estructural entre eficiencia técnica y compromiso ético.
En la práctica clínica, la responsabilidad no es transferible. Aunque la IA aporte recomendaciones con alto grado de precisión, la decisión final recae en el médico, quien debe interpretar, validar y asumir sus implicaciones. Lejos de diluir la responsabilidad, la incorporación de la IA la reconfigura y la amplifica, al introducir una nueva dimensión de complejidad en el proceso decisional.
Desde la perspectiva de la bioética clínica, este escenario interpela directamente los principios fundamentales:
- Beneficencia, al promover el uso de herramientas que puedan mejorar los resultados clínicos
- No maleficencia, ante el riesgo de errores derivados de sesgos, limitaciones o interpretaciones inadecuadas
- Autonomía, en relación con la transparencia sobre el uso de tecnologías en la atención
- Justicia, en cuanto al acceso equitativo a estas herramientas
El desafío no radica en decidir si la inteligencia artificial debe utilizarse, sino en definir cómo debe integrarse de manera ética en un modelo de atención donde la responsabilidad sigue siendo, irrenunciablemente, humana.
Autonomía y relación médico–paciente en la era de la inteligencia artificial
La integración de la inteligencia artificial en la medicina de urgencias no solo modifica la toma de decisiones clínicas, sino que transforma de manera profunda la relación médico–paciente. Tradicionalmente, esta relación se ha sustentado en la confianza, la comunicación y la responsabilidad compartida. Sin embargo, la introducción de sistemas algorítmicos en el proceso diagnóstico y terapéutico incorpora un nuevo elemento: un agente tecnológico que influye, aunque no sustituye, la decisión médica.
Este cambio plantea interrogantes esenciales desde la bioética clínica. En primer lugar, la cuestión del consentimiento informado adquiere una nueva dimensión. Si la inteligencia artificial participa en la generación de hipótesis diagnósticas o en la selección de estrategias terapéuticas, el paciente tiene derecho a conocerlo. La transparencia deja de ser un atributo deseable para convertirse en una exigencia ética vinculada al respeto por la autonomía (3).
En segundo lugar, surge el desafío de la explicabilidad. Mientras el médico puede fundamentar sus decisiones en la experiencia y el razonamiento clínico, los sistemas de IA operan a través de procesos complejos que, en muchos casos, no son fácilmente interpretables. Esta opacidad dificulta la traducción del razonamiento algorítmico en términos comprensibles para el paciente, lo que puede limitar su capacidad de participar activamente en la toma de decisiones.
Asimismo, la presencia de la IA puede modificar la dinámica de confianza. El paciente no establece una relación con el algoritmo, sino con el médico. En este sentido, el profesional se convierte en el mediador ético y clínico entre la tecnología y la persona, garantizando que las decisiones no solo sean técnicamente correctas, sino también humanamente comprensibles.
Desde esta perspectiva, la autonomía del paciente en la era digital no se reduce a la capacidad de elegir entre opciones terapéuticas, sino que implica también el derecho a comprender cómo se generan esas opciones. La medicina que incorpora inteligencia artificial no debe ser menos humana, sino más consciente de la responsabilidad de explicar, acompañar y decidir en un entorno tecnológicamente mediado.
El riesgo de la autoridad algorítmica y la erosión del juicio clínico
La creciente capacidad de la inteligencia artificial para generar respuestas coherentes, precisas y altamente persuasivas introduce un riesgo emergente en la práctica clínica: la autoridad algorítmica. A medida que estos sistemas demuestran un desempeño superior en múltiples dominios del razonamiento clínico, existe la posibilidad de que el médico delegue progresivamente no solo tareas operativas, sino también su propio juicio crítico.
El estudio publicado en Science evidencia que los modelos de IA no solo alcanzan altos niveles de precisión, sino que presentan sus conclusiones con una estructura lógica consistente y convincente (1). Este rasgo, aunque clínicamente valioso, puede inducir a una confianza excesiva, especialmente en contextos de alta presión como la medicina de urgencias, donde el tiempo limitado favorece decisiones rápidas y menos deliberativas.
Este fenómeno plantea un riesgo silencioso: la sustitución del pensamiento clínico autónomo por una aceptación acrítica de recomendaciones algorítmicas. En este escenario, el error clínico no desaparece, sino que se transforma en un error híbrido, donde la responsabilidad se distribuye entre el sistema y el profesional, pero corre el riesgo de diluirse en la práctica.
Desde la bioética clínica, este riesgo interpela directamente el principio de no maleficencia. La dependencia excesiva de la IA podría conducir a decisiones inapropiadas si el médico no mantiene una actitud crítica frente a sus recomendaciones. Asimismo, se ve comprometido el profesionalismo médico, entendido como la capacidad de deliberar, cuestionar y asumir responsabilidad.
Por ello, la integración de la inteligencia artificial exige no solo competencias técnicas, sino una disciplina intelectual y ética que preserve la autonomía del juicio clínico. El desafío no es evitar la influencia de la IA, sino impedir que esta sustituya la reflexión médica. En última instancia, la tecnología debe ampliar la capacidad de pensar, no reemplazarla.
Reconfiguración del profesionalismo médico en la era de la inteligencia artificial
La irrupción de la inteligencia artificial en la práctica clínica no elimina la figura del médico, pero sí redefine de manera sustancial su rol. La evidencia demuestra que estos sistemas pueden superar al clínico en tareas específicas de razonamiento y diagnóstico (1); sin embargo, lejos de desplazarlo, esta realidad obliga a replantear el núcleo del profesionalismo médico.
Tradicionalmente, el profesionalismo se ha sustentado en el dominio del conocimiento, la experiencia clínica y la capacidad de tomar decisiones autónomas. En el contexto actual, estos atributos siguen siendo necesarios, pero ya no son suficientes. El médico del siglo XXI debe incorporar nuevas competencias orientadas a la integración crítica de sistemas inteligentes en la práctica clínica.
Este nuevo perfil implica:
- Capacidad para interpretar y validar recomendaciones generadas por inteligencia artificial
- Habilidad para identificar sesgos, limitaciones y posibles errores del sistema
- Competencia para comunicar decisiones complejas al paciente de forma comprensible
- Compromiso ético con la responsabilidad final de cada decisión clínica
En este escenario, el conocimiento deja de ser un atributo exclusivo del médico y pasa a ser un recurso compartido con sistemas tecnológicos avanzados. Lo que diferencia al profesional no es únicamente lo que sabe, sino cómo utiliza ese conocimiento en beneficio del paciente y bajo principios éticos.
La inteligencia artificial no sustituye el profesionalismo; lo somete a una prueba de madurez. Obliga a transitar de un modelo basado en la autoridad del conocimiento a uno centrado en el discernimiento, la responsabilidad y la integridad ética. En este nuevo paradigma, el médico no compite con la tecnología, sino que la integra, la cuestiona y responde por sus resultados.
Así, el valor del médico no disminuye; se redefine. Su papel no radica en replicar la capacidad de cálculo de los algoritmos, sino en ejercer aquello que estos no pueden: la responsabilidad moral de decidir en contextos de incertidumbre y vulnerabilidad humana.
Hacia un marco bioético de integración: de la adopción tecnológica a la responsabilidad clínica
La evidencia disponible no deja espacio para la inacción: la inteligencia artificial ha alcanzado un nivel de desempeño que justifica su incorporación en la práctica clínica. El estudio en Science no solo demuestra su superioridad en múltiples dominios del razonamiento clínico, sino que subraya la necesidad de ensayos prospectivos y de infraestructura adecuada para su integración segura en los sistemas de salud (1). Sin embargo, la adopción tecnológica sin un marco ético claro puede transformar una herramienta de alto valor en una fuente de riesgo.
La transición hacia una medicina asistida por inteligencia artificial no debe ser únicamente técnica, sino normativamente orientada. Es necesario avanzar hacia un modelo de integración bioética estructurada, que garantice que el uso de la IA contribuya efectivamente al bienestar del paciente sin comprometer los principios fundamentales de la medicina (3).
En este sentido, se proponen cuatro ejes fundamentales:
- Supervisión humana (Human-in-the-loop)
La inteligencia artificial debe funcionar como sistema de apoyo a la decisión clínica. La responsabilidad final debe permanecer en el médico, quien interpreta, valida y contextualiza la información.
- Transparencia y explicabilidad
El uso de IA debe ser comunicable y comprensible. El médico debe ser capaz de traducir las recomendaciones algorítmicas en términos clínicos accesibles para el paciente, garantizando una toma de decisiones informada.
- Responsabilidad clínica indelegable
Aunque la IA participe en el proceso, la responsabilidad ética y legal recae en el profesional. La tecnología no diluye la responsabilidad; la amplifica, al exigir mayor rigor en la validación de las decisiones.
- Formación en competencias digitales y éticas
La educación médica debe incorporar el entrenamiento en el uso crítico de sistemas de inteligencia artificial, incluyendo la identificación de sesgos, limitaciones y riesgos potenciales.
Este marco no pretende limitar la innovación, sino orientarla hacia un uso prudente, seguro y centrado en el paciente. La integración de la inteligencia artificial en medicina no es simplemente un problema tecnológico a resolver, sino un proceso ético que debe ser cuidadosamente gobernado.
Discusión: de la inteligencia artificial a la inteligencia clínica aumentada
Los hallazgos expuestos no deben interpretarse como el inicio de una sustitución del médico por la inteligencia artificial, sino como la transición hacia un nuevo paradigma: la inteligencia clínica aumentada. El estudio demuestra que los sistemas de IA pueden superar al médico en tareas específicas de razonamiento y diagnóstico (1), pero también reconoce limitaciones relevantes, como su dependencia de datos predominantemente textuales y la necesidad de validación en entornos clínicos reales mediante estudios prospectivos (1).
En este contexto, el verdadero potencial de la IA no reside en su autonomía, sino en su capacidad para integrarse con el juicio clínico humano. La combinación de ambos puede dar lugar a un modelo superior al de cualquiera de sus componentes por separado. La IA aporta velocidad, consistencia y capacidad de procesamiento; el médico aporta experiencia, contexto, deliberación ética y responsabilidad.
Sin embargo, esta integración no es automática ni está exenta de riesgos. Requiere rediseñar los flujos de trabajo clínico, establecer mecanismos de supervisión y desarrollar nuevas formas de interacción entre humanos y sistemas inteligentes. Asimismo, exige reconocer que la precisión diagnóstica, aunque fundamental, no es el único indicador de calidad en la atención médica. Elementos como la comunicación, la empatía, la toma de decisiones compartida y el acompañamiento del paciente siguen siendo esenciales.
La discusión, por tanto, debe desplazarse desde la comparación —¿es la IA mejor que el médico?— hacia la integración —¿cómo construir un modelo en el que ambos actúen de manera complementaria?—. La medicina del futuro no será exclusivamente humana ni exclusivamente algorítmica. Será el resultado de una colaboración que deberá ser cuidadosamente diseñada, evaluada y regulada.
Conclusión: la bioética como eje de una medicina aumentada
La evidencia disponible confirma que la inteligencia artificial ha alcanzado un nivel de desempeño capaz de superar al médico en tareas específicas del razonamiento clínico, especialmente en contextos de alta incertidumbre como la medicina de urgencias (1). Sin embargo, este avance no redefine únicamente la eficiencia diagnóstica, sino que interpela el núcleo ético del acto médico.
La medicina no se reduce a la precisión. Implica responsabilidad, deliberación y compromiso con la persona. En este sentido, la inteligencia artificial debe ser entendida como una herramienta de alto valor, cuyo uso no sustituye al médico, sino que exige de él un mayor nivel de discernimiento, supervisión y responsabilidad.
El desafío contemporáneo no es elegir entre inteligencia humana o artificial, sino construir un modelo en el que ambas converjan sin comprometer los principios fundamentales de la bioética clínica. Esto implica garantizar la autonomía del paciente mediante una comunicación transparente, evitar daños derivados de una dependencia acrítica de la tecnología y promover un acceso equitativo a sus beneficios (3).
En la medicina del futuro, la tecnología ampliará la capacidad de decidir, pero será la bioética la que determine cómo y para qué se decide. La inteligencia artificial puede optimizar la respuesta clínica; el médico, en cambio, sigue siendo quien responde por ella.
Referencias
- Brodeur PG, Buckley TA, Kanjee Z, Goh E, Ling EB, Jain P, et al. Performance of a large language model on the reasoning tasks of a physician. Science. 2026;392(6797). doi:10.1126/science.adz4433.
- Núñez Medina TJ. Inteligencia artificial, decisión médica y muerte súbita: un dilema bioético en cardiología intervencionista. Instituto Educardio. Disponible en: https://institutoeducardio.net/inteligencia-artificial-decision-medica-y-muerte-subita-un-dilema-bioetico-en-cardiologia-intervencionista/
- Beauchamp TL, Childress JF. Principles of Biomedical Ethics. 8th ed. New York: Oxford University Press; 2019.
- World Medical Association. World Medical Association Declaration of Helsinki: ethical principles for medical research involving human subjects. JAMA. 2013;310(20):2191–2194.
- Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019;25(1):44–56.
- Rajkomar A, Dean J, Kohane I. Machine learning in medicine. N Engl J Med. 2019;380(14):1347–1358.
- London AJ. Artificial intelligence and black-box medical decisions: accuracy versus explainability. Hastings Cent Rep. 2019;49(1):15–21.
- European Commission. Ethics guidelines for trustworthy AI. High-Level Expert Group on Artificial Intelligence. Brussels; 2019.
- Yu KH, Beam AL, Kohane IS. Artificial intelligence in healthcare. Nat Biomed Eng. 2018;2(10):719–731.
- Rodman A, Zwaan L, Olson A, Manrai AK. Artificial intelligence and the future of clinical reasoning. N Engl J Med AI. 2025;2(3):AIe2500143.


