La IA mejora la detección tumoral, pero debilitaría la habilidad de los médicos para hallarlos solos

Los médicos que confían demasiado en la tecnología pueden perder memoria muscular y resistencia cognitiva necesarias para evaluar casos, lo que es peligroso si deben operar sin asistencia tecnológica o si la IA falla.

Katherine Ardila

    La IA mejora la detección tumoral, pero debilitaría la habilidad de los médicos para hallarlos solos

    Durante años, hemos celebrado cómo la inteligencia artificial ha mejorado numerosos procesos en la medicina: detecta cánceres invisibles al ojo humano, acelera diagnósticos y predice complicaciones con precisión. 

    Pero ahora, una investigación publicada en The Lancet Gastroenterology & Hepatology revela que esta colaboración con la tecnología podría tener una consecuencia negativa.

    Médicos de cuatro centros de endoscopia en Polonia utilizaron durante tres meses una herramienta de IA que marcaba en tiempo real pólipos precancerosos durante colonoscopias.

    Los resultados iniciales fueron que la detección mejoró significativamente. Pero cuando los investigadores midieron lo que ocurría sin la ayuda artificial, descubrieron que la tasa de detección manual había caído del 28% al 22%, muy por debajo de su línea base inicial.

    Esto, conocido como "descalificación" (deskilling), es la primera evidencia concreta de que la dependencia de la IA puede atrofiar las capacidades clínicas esenciales. "Es un proceso bidireccional", explica el gastroenterólogo Omer Ahmad del University College Hospital de Londres. "La IA afecta nuestras respuestas, pero también modifica nuestro comportamiento".

    ¿Por qué preocupa este fenómeno?

    Robert Wachter, director de medicina de la Universidad de California en San Francisco, plantea la pregunta crucial: "¿Y qué? ¿Es realmente importante?". Su respuesta es matizada: mientras algunas habilidades obsoletas son naturalmente reemplazadas por el progreso (como la auscultación directa tras la invención del estetoscopio), la IA presenta una particularidad peligrosa.

    A diferencia de otras tecnologías, los sistemas de IA requieren supervisión humana constante. Los algoritmos se entrenan para un contexto específico y pueden degradarse con el tiempo o fallar ante cambios mínimos (como alteraciones en la iluminación). "Si pierdo las habilidades básicas, ¿cómo detectaré los errores de la IA?", cuestiona Ahmad.

    Mecanismos de la descalificación

    Estudios de seguimiento ocular revelan que los médicos que usan IA tienden a fijarse menos en los bordes de las imágenes, alterando la "memoria muscular" necesaria para examinar exhaustivamente. Además, se atrofia la resistencia cognitiva requerida para evaluar meticulosamente cada caso.

    El riesgo es especialmente grave durante esta transición tecnológica: médicos acostumbrados a herramientas avanzadas podrían verse obligados a trabajar en entornos sin estos recursos, comprometiendo la seguridad del paciente.

    La situación se vuelve crítica para las nuevas generaciones. Si médicos con 27 años de experiencia mostraron deterioro en solo tres meses, ¿qué ocurrirá con estudiantes y residentes que construyen sus fundamentos clínicos en simbiosis con la IA?

    Algunas instituciones ya están tomando medidas. Chris Longhurst del UC San Diego Health implementa formación mediante simulación para practicar procedimientos sin IA. Adam Rodman del Beth Israel Deaconess Medical Center revela que algunas facultades consideran prohibir la IA durante los primeros años de formación.

    Hacia una integración inteligente

    Los expertos coinciden: no se trata de rechazar la IA, sino de integrarla estratégicamente. La solución pasa por:

    • Desarrollar protocolos de "entrenamiento de mantenimiento" para habilidades manuales
    • Implementar verificaciones periódicas de competencia sin asistencia tecnológica
    • Diseñar curricula educativos que equilibren innovación y fundamentos clínicos

    Como advierte Wachter, estamos ante un desafío similar al que enfrentó la aviación con el piloto automático y la salida es aprovechar la tecnología mientras mantenemos la capacidad humana para intervenir cuando falla. 


    Más noticias de Investigación