Aníbal M. Astobiza, doctor en Ciencias Cognitivas y Humanidades por la Universidad del País Vasco, y especialista en filosofía de la tecnología (es autor del libro del libro «Tecnofilosofía»), que analiza nuestra relación con las máquinas, imparte en la Escola de Salut Pública un curso sobre IA (inteligencia artificial) generativa y sus aplicaciones en el ámbito sanitario.
Contextualiza esta entrevista con los grandes hitos de la tecnología aplicada a la medicina. La imprenta médica, que en el siglo XV democratizó el acceso al conocimiento; el descubrimiento de gérmenes y bacterias en el XIX, que revolucionó la prevención, o los rayos X, que abrieron nuevas vías diagnósticas. El siglo XX trajo la informática, el big data y el historial clínico electrónico, junto con la biotecnología. Hoy, la inteligencia artificial generativa constituye, en sus palabras, una nueva revolución.
¿Qué problemas sanitarios son resolubles con IA?
—Puede optimizar la gestión, el procesamiento o recogida de datos, reduciendo la carga administrativa para que los profesionales se concentren en la relación con el paciente en lugar de en tareas burocráticas. Se está aplicando con éxito en áreas clínicas como la detección temprana y el diagnóstico a partir de imágenes radiológicas, en la estratificación de riesgos, en procesos de triaje y en la toma de decisiones médicas.
¿Cuál es su aplicación en salud pública?
—La IA generativa puede aplicarse a estudios epidemiológicos mediante simulaciones que proyectan la evolución de un brote infeccioso. Estas herramientas permiten anticipar en qué grupos poblacionales conviene intervenir con mayor urgencia y diseñar las estrategias más rápidas y eficaces para lograr una inmunización amplia.
¿Lo pondría más fácil que hace cinco años, con la covid?
—El físico italiano Alessandro Vespignani, referente internacional en modelos computacionales y epidemiología, ya aplicaba estas herramientas durante la pandemia para anticipar contagios, brotes y escenarios de propagación. No obstante, en aquel momento, los modelos generativos que hoy conocemos de grandes compañías, como ChatGPT de OpenAI, o Gemini de Google, que han ido progresando en la capacidad de acumulación de datos, aún no estaban disponibles.
¿Cómo puede la IA predecir una pandemia?
—Por ejemplo, si se acumulan grandes cantidades de búsquedas relacionadas con ciertos síntomas en una determinada área geográfica, esto se podría utilizar para adelantarse a la predicción de un brote epidemiológico.
En su curso también analiza los riesgos de los modelos predictivos.
—Están los desafíos éticos derivados de los sesgos presentes en los datos con los que han sido entrenados. O el riesgo de que su uso no sea justo ni equitativo, dejando atrás ciertos colectivos. Otro peligro es la posible dependencia excesiva de la inteligencia artificial, que podría llevar a una pérdida de pensamiento crítico y, en última instancia, a la atrofia de nuestras propias capacidades cognitivas.
¿Estamos ante una excesiva fiebre tecnológica?
—En el ámbito técnico se utiliza el término alucinación para describir el momento en que una IA genera información que no es real. Si el usuario no cuenta con un conocimiento previo sobre el prompt (la instrucción o pregunta que formula), corre el riesgo de recibir datos inventados pero presentados de manera persuasiva, alineados con la tendencia de estas herramientas a resultar convincentes y agradables. Ahora bien, algunos expertos consideran positivo que la IA siga cometiendo errores: obliga al usuario a mantener una actitud crítica y escéptica. Porque, de ser infalible, la atrofia de nuestras capacidades cognitivas y competitivas sería ya inevitable.
¿Cuáles son las claves para una buena utilización?
—Tener conocimiento sobre lo que va a preguntar y cierto grado de escepticismo, sabiendo que la IA puede errar.
¿La humanización de la salud está a salvo?
—«Cuando todo cambia, todo permanece igual», recuerda el adagio. No parece que la inteligencia artificial vaya a provocar una transformación radical en este sentido. Se trata de una tecnología como tantas otras, y conviene no caer en la idea de que derivará en una súperinteligencia capaz de sustituirnos o en escenarios distópicos donde llegue a aniquilarnos. Eso sí, resulta imprescindible establecer marcos de regulación para un uso seguro y responsable.
¿Desde sus estudios de filosofía, cómo surgió su interés por la relación hombre-máquina?
—La filosofía es la madre de todas las ciencias, y siempre ha estado en diálogo con ellas. Nada de lo humano le es ajeno y, al igual que las matemáticas en Platón, debe aplicarse de manera transversal. De ahí surge la necesidad de una mirada humanística, heredera de la tradición filosófica, que nos brinde la capacidad de reflexión crítica, nos ayude a trazar los límites de la tecnología y a plantear la cuestión social de cuándo conviene y cuándo no utilizarla.
Su curso incluye la perspectiva humanística.
—La IA está de moda, pero no dejemos de lado que la tecnología debe estar al servicio de las personas. En el campo de la medicina, que tiene una base ineludiblemente humanística, no puede dejar de lado la reflexión ética y el espíritu crítico.