Además de muchas otras cosas, la inteligencia artificial ya puede diagnosticar la enfermedad con un sorprendente grado de precisión. De hecho, los modelos avanzados alcanzaron el 94.9% de los casos médicos, según un estudio reciente de la Universidad de Oxford.
Sin embargo, cuando estamos usando esta misma IA … la tasa de éxito cae al 34.5%. ¿Dónde está el problema? No esta en la máquina.
AI está preparado. ¿Y nosotros?


La inteligencia artificial es algo «nuevo» para la gran mayoría de las personas. Pero la realidad es que la tecnología que te da vida no es tan nueva. Esta es exactamente la razón por la cual AI está lista para volar y tener éxito. No se puede decir lo mismo de nosotros … los usuarios.
Después de todo, según un estudio de Oxford que reunió a casi 1300 participantes con un desafío simple (actuando como pacientes), está lejos de ser perfecto.
Cada persona recibió un escenario clínico con síntomas, antecedentes y contexto personal (como haber tenido exámenes o dolor al mirar hacia abajo). El objetivo era usar modelos de IA como médicos: Haga preguntas, describe los síntomas, tome decisiones.
Se usaron tres modelos diferentes (ChatGPT-4O, LLAMA 3 y Command R+), y los participantes podían interactuar tan a menudo como quisieran. Luego, un equipo de médicos evaluó si el diagnóstico y el plan de acción eran correctos.
¿La máquina lo hace bien? ¡El botín humano!
Los resultados no dejan margen para la duda. Los modelos de IA, solo alcanzaron el 56.3% del tiempo para tomar. Los humanos que no usaron fueron golpeados 47%. Pero los que usaron IA … fueron 44.2%. Es decir, poner en la ecuación empeoró los resultados.
¿Por qué? Debido a que las personas dieron instrucciones incompletas, olvidaron síntomas importantes, no mencionaron el tiempo de gravedad o evolución del problema. Curiosamente, cuando lo golpeé, muchos ni siquiera siguieron la recomendación.
Tal como lo hacen con médicos reales.
¡Es culpa de cómo hablamos con AI!
Es como pedirle a un asistente que vaya a tomar café … no diga que quieres leche, frío y vainilla.
Con ai es lo mismo. Creemos que ella nos «lee» como una amiga cercana, pero no es así. La máquina necesita información clara, detallada y precisa.
¿Médicos con IA? Sí. Pacientes con IA? Cuidadoso.
Los médicos ya están utilizando herramientas como OpenEvidence para validar la información clínica. Lo que tiene sentido, porque los profesionales saben cómo interpretar los resultados y el ruido del filtro. Lo mismo no es cierto para los pacientes que no tienen formación, pero quieren diagnósticos en segundos.
El resultado? Malentendidos, decisiones incorrectas y pánico injustificado.
Todavía estamos avergonzados … ¡incluso hablando con un robot!
Según la experta Nathalie Volkheimer, muchas personas continúan omitiendo detalles importantes por vergüenza, incluso cuando están hablando con una IA. Que no tiene sentido. Porque la IA no nos juzga. Solo procesa información. El problema no es la tecnología. Es nuestra relación con ella.

