12/10/2025
📘 𝗢𝗽𝗲𝗻𝗘𝘃𝗶𝗱𝗲𝗻𝗰𝗲: 𝗰𝘂𝗮𝗻𝗱𝗼 𝗹𝗮 𝗲𝘃𝗶𝗱𝗲𝗻𝗰𝗶𝗮 𝗮𝗽𝗿𝘂𝗲𝗯𝗮, 𝗽𝗲𝗿𝗼 𝗹𝗮 𝗰𝗼𝗻𝘀𝗰𝗶𝗲𝗻𝗰𝗶𝗮 𝗮ú𝗻 𝗻𝗼.
Hace pocos días, la IA OpenEvidence logró un 100 % en el USMLE, el examen que valida la competencia médica en Estados Unidos.
Un logro histórico.
Una señal de cambio.
Y también, una advertencia.
🔹 Porque la IA no “aprueba” por comprender, sino por reconocer patrones.
Sabe responder, pero no dudar.
Puede reproducir evidencia, pero no interpretar dolor.
La medicina —y la ciencia en general— no viven de respuestas perfectas, sino de preguntas humanas: aquellas que nacen del cuerpo, la incertidumbre y la compasión.
🔍 El riesgo está en confundir exactitud con sabiduría.
Un modelo puede dominar toda la literatura médica, pero no entiende el silencio del paciente, ni la historia detrás de cada síntoma.
El conocimiento clínico no se mide solo en datos, sino en presencia y juicio ético.
🌍 Además, su “perfección” nace de un único modelo cultural.
OpenEvidence aprendió en inglés, con protocolos, casos y decisiones de un sistema sanitario occidental.
Pero ¿qué ocurre cuando aplicamos esa IA en contextos diferentes, donde la salud depende tanto del cuerpo como del entorno social y emocional?
La evidencia no es universal, es situada.
Y si la IA no incorpora esa diversidad, su precisión se vuelve ciega.
💭 La pregunta no es si la IA puede aprobar un examen médico.
La pregunta es si nosotros —profesionales, docentes, investigadores—
podremos seguir educando con criterio en un mundo donde las máquinas ya memorizan todo.
🧭 La verdadera inteligencia no consiste en acertar todas las respuestas,
sino en reconocer cuándo una pregunta aún no tiene respuesta.