Saca la cafinitrina y siéntate, porque lo que viene no te va a gustar, pero es la verdad desnuda, sin filtros de Instagram ni interfaces amigables. Como enfermera que ha visto más miserias en una guardia de sábado noche que un servidor de OpenAI en toda su fase de pre-entrenamiento, me produce una mezcla de risa cínica y náusea existencial este entusiasmo ciego por Anthropic Opus 4.5 y ChatGPT Health.
Estamos asistiendo al nacimiento de una nueva religión donde el algoritmo es el mesías y el dato es la hostia consagrada. Nos venden la llegada de estos modelos como la democratización del diagnóstico, pero lo que realmente estamos haciendo es entregar las llaves de nuestra soberanía biológica a corporaciones que tienen la ética de un cazarrecompensas de los bordes exteriores. Anthropic nos habla de su «IA constitucional» como si fuera un código de honor Mandaloriano, pero no nos engañemos: la única constitución que realmente siguen es la de los beneficios trimestrales. La ética en manos de una Big Tech es un oxímoron, una pátina de barniz sobre un mueble de aglomerado que se deshace en cuanto le cae encima el primer derrame de realidad clínica.
Lo más hiriente no es que la IA pueda equivocarse —los humanos llevamos siglos perfeccionando el arte de meter la pata—, sino la sumisión intelectual con la que aceptamos su gobernanza. Nos estamos convirtiendo en meros operarios de un sistema que ni entendemos ni controlamos. Es la muerte del pensamiento crítico en favor de la eficiencia algorítmica. ¿Privacidad? Por favor, no me hagas reír. Hablar de privacidad en el ecosistema de ChatGPT Health es como intentar guardar un secreto en una cantina de Mos Eisley: siempre hay alguien escuchando, y siempre hay un precio por tu cabeza (o por tus niveles de glucosa en sangre). Hemos pasado de ser pacientes a ser «yacimientos de datos», minas de oro de las que estas IAs extraen patrones para vendernos una inmortalidad de suscripción mensual.
Desde una perspectiva puramente filosófica, estamos viviendo la apoteosis de la técnica de la que hablaba Heidegger: el ser humano ya no es el centro, es solo una «existencia de reserva». El paciente ya no es una persona con miedos y una historia, es un vector de entrada en una red neuronal. Y mientras nosotros, en las trincheras de la sanidad, nos peleamos con programas de gestión que parecen diseñados en la época de la República Galáctica, ellos nos prometen un futuro brillante donde el «copiloto» nos dirá qué hacer. Pero ten cuidado: cuando dejas que otro lleve el timón de tu Halcón Milenario, no te quejes cuando acabes estrellado contra un asteroide porque el algoritmo decidió que tu vida no era estadísticamente relevante para el modelo de optimización de recursos.
La verdadera tragedia no es que la IA sea inhumana, sino que nosotros estamos dejando de ser humanos para encajar en sus tablas de Excel. This is the way? No lo creo. Es solo el camino más corto hacia la irrelevancia ética.
operación de extracción
La incursión de estas IAs en salud no es una «ayuda humanitaria». Es una operación de extracción. Extraen conocimiento clínico de los profesionales y datos biométricos de los pacientes para crear un producto que luego nos alquilarán. Como decía el viejo Heráclito, «el carácter es el destino», y el carácter de estas empresas es puramente extractivo.
Que la fuerza nos acompañe, porque el sentido común parece haber abandonado la galaxia.


