Centauros y Ciborgs en Bata Blanca

En una mañana cualquiera, en una consulta médica en un hospital privado de la ciudad de México, observo a un médico residente mirar discretamente su teléfono. En segundos, un asistente de inteligencia artificial (IA) le devuelve un diagnóstico diferencial “razonado” y un plan de manejo persuasivo. ¿Intervengo? ¿Cuánto de lo que escribe el residente es suyo y cuánto del algoritmo? Y, sobre todo, ¿cómo enseñamos a pensar críticamente cuando una máquina “razona” con la fluidez de un colega? Esta escena —cada vez más frecuente— es el punto de partida de dos documentos recientes que, leídos desde México, ofrecen brújula y advertencia.

El primero, publicado en The New England Journal of Medicine, propone un marco pedagógico para supervisar el uso clínico de IA por parte de estudiantes y residentes. Su tesis es directa: los modelos de lenguaje (LLMs) parecen “razonar”, pero su opacidad y variabilidad introducen riesgos educativos: des-habilitación, no-habilitación y mala-habilitación. Cuando el aprendiz descarga en la IA tareas complejas —en vez de usarla para informar su razonamiento— corre el peligro de perder destrezas, no adquirirlas nunca o reforzar conductas erróneas si el modelo yerra o está sesgado. Los datos son incómodos: la dependencia frecuente de IA se asocia con menor pensamiento crítico; y quienes adoptan ciegamente las salidas del modelo rinden peor en tareas analíticas que cuando no usan IA.

La respuesta educativa, argumenta el artículo, no es prohibir sino enseñar a pensar con IA. Propone el método DEFT-AI (Diagnosis/Discusión, Evidence/Evidencia, Feedback/Retroalimentación, Teaching/Enseñanza + Recomendación de uso de IA), para transformar el “momento IA” —ese instante en que el juicio de la máquina exige un salto de fe— en una oportunidad de pensamiento crítico guiado. El preceptor debe indagar qué pregunta formuló el alumno, cómo afinó los prompts, qué evidencia respalda o contradice la salida, y cerrar con recomendaciones específicas sobre cuándo delegar y validar como centauro y cuándo co-construir como cyborg. La metáfora es útil: el centauro reparte tareas y verifica; el cyborg se entrelaza con la IA para tareas acotadas y de bajo riesgo. La destreza madura es migrar entre ambos modos según el riesgo de la tarea.

Ese mismo texto baja a tierra dos competencias que hoy faltan en nuestros programas: saber preguntar (diseño del prompt) y saber verificar. Un buen prompt es específico, aporta contexto clínico y evita sesgos de confirmación; pedir “explica tu razonamiento” mejora la calidad y, además, revela la cadena de ideas para valorar su confiabilidad. Después, siempre viene el “verifica y confía”: contrastar la salida contra guías, literatura y el propio juicio clínico. La verificación —del resultado más que del algoritmo— es el núcleo del uso seguro.

El segundo documento, una revisión narrativa publicada en Medicine and Pharmacy Reports, responde a una ansiedad extendida: ¿la IA sustituirá o apoyará a las especialidades? Su conclusión es equilibrada: en tareas de análisis masivo de datos e imágenes —radiología, patología, oftalmología, dermatología— la IA ya muestra precisión sobresaliente; pero falla donde el juicio matizado, la comunicación empática y el razonamiento clínico situado son indispensables. La receta, dicen, es integración apoyando al profesional, no sustituyéndolo.

El mapa por especialidad también es claro. Más susceptibles al reemplazo parcial: campos dominados por patrones repetibles (p. ej., lectura de imagen). Resistentes a la automatización integral: psiquiatría, pediatría, medicina interna, urgencias, terapia intensiva y cirugía —territorios donde decodificar silencios, negociar incertidumbres, ponderar valores familiares o decidir en segundos no se reduce a variables. En psiquiatría, por ejemplo, la alianza terapéutica, la interpretación de lo no verbal y los dilemas éticos no caben en una red neuronal; la IA puede asistir —chatbots y agentes para monitoreo o apoyo—, pero no reemplazar esa relación humana. En pediatría y urgencias, la evaluación holística, la comunicación con familias y la priorización dinámica ante información incompleta exigen creatividad clínica que hoy no automatizamos.

La revisión también recuerda que la IA ya está mejorando acceso y eficiencia: telemedicina, asistentes virtuales, analítica predictiva para asignación de recursos y dispositivos diagnósticos de bajo costo. Bien gobernadas, estas herramientas abaratan y acercan servicios en contextos de escasez.

Hasta aquí, ciencia y aula. Ahora, México. Mientras el gobierno federal de la cuarta transformación insiste en negar la magnitud del deterioro, el país real vive las consecuencias: transiciones improvisadas de sistemas, poco presupuesto, rezagos de infraestructura, personal exhausto y brechas digitales que se traducen en diagnósticos tardíos y desconfianza ciudadana. No se trata de “estar a favor o en contra” de la IA, sino de decidir cómo la incorporamos y para quién. Si la usamos para reemplazar sin criterio, des-habilitamos a nuestros médicos jóvenes; si la excluimos por dogma, perdemos oportunidades de equidad y calidad. La salida —lo dicen los dos artículos— es pedagógica, ética y regulatoria.

Concluyo con la pregunta: En Los Protocolos Nacionales de Atención Médica (PRONAM), que son documentos que emiten directrices basadas en la mejor evidencia científica, para la prevención, diagnóstico y tratamiento de aquellas enfermedades que determine el Consejo de Salubridad General son dirigidos a ¿Centauros, Ciborgs o ignoran el uso de IA?

*El autor (www.ectorjaime.mx) es médico especialista en cirugía general, certificado en salud pública, doctorado en ciencias de la salud y en administración pública. Es Legislador y defensor de la salud pública de México, diputado reelecto del grupo parlamentario del PAN en la LXVI Legislatura.

Cortesía de El Economista



Dejanos un comentario: