Este 2021, con motivo del Día Mundial de la Salud, la Organización Mundial de la Salud (OMS) pide poner el foco en las desigualdades. La COVID-19 ha puesto todavía más de manifiesto el diferente acceso a los servicios sanitarios y unas condiciones de vida que ponen en riesgo el derecho a una buena salud. Creen que esta situación es evitable y, entre otras acciones, proponen recoger datos oportunos y fiables para evaluar y monitorizar esas diferencias y tomar medidas con impacto.
Precisamente los datos han sido últimamente parte de nuestro día a día. Nos han permitido seguir la evolución de la pandemia y su análisis nos ofrece información de valor para atajarla en diferentes situaciones. Esa es la razón por la que Elisa Martín, directora del área de Salud en el Instituto de Ingeniería del Conocimiento (IIC), cree que la Inteligencia Artificial, que se nutre de estos datos, puede ser una gran herramienta en estos ámbitos considerando la implicación directa que tienen con las personas.
Vista ahora su utilidad e impacto, el siguiente paso es dar un impulso a la confianza en esta tecnología.
“En el último año hemos evidenciado la necesidad que tenemos de utilizar esos datos para mejorar la forma en que diagnosticamos y realizamos el seguimiento de un paciente, también para definir un tratamiento o simplemente para optimizar los procesos de atención sanitaria”, explica Elisa Martín.
En resumen, “nos hemos concienciado de su importancia y ha caído la barrera de la desconfianza, abriéndose las puertas a la necesidad”, concluye. No obstante, ante los miedos y reticencias que siguen existiendo, el de la salud es uno de los ámbitos donde más se valora y más se está trabajando en la explicabilidad, la transparencia y la validación clínica de datos y algoritmos.
Explicabilidad en el sector salud
La explicabilidad es ya uno de los aspectos imprescindibles para una Inteligencia Artificial ética, y el ámbito de la salud uno de los más sensibles cuando tratamos de explicar los resultados de un algoritmo que puedan afectar a las personas. Por eso, también es una de las líneas de investigación del IIC: “en el área de salud es importante poder dar la mayor transparencia posible a los comportamientos de los modelos”, destaca Elisa Martín, aunque todavía queda mucho por hacer.
Actualmente, se pueden llegar a explicar las predicciones que da un modelo. No es complicado si el modelo es simple y se basa en pocas variables. “Las cosas se empiezan a poner duras cuando va aumentando el número de variables, cuando se complica el objetivo del modelo o cuando quieres tomar muchas decisiones en cuestión de segundos”, explica la experta del IIC.
En este tipo de escenarios complejos, si queremos tener explicabilidad debemos renunciar a alcanzar una mayor precisión. En ese equilibrio explicabilidad-exactitud es donde actualmente se busca avanzar porque, de momento, “corren más las palabras que la ciencia”, concluye.
En el IIC usamos entre otras, una técnica razonablemente extendida llamada SHAP, basada en teoría de juegos, que ayuda a entender lo que aporta una variable ´a la decisión del modelo. Pero hay que seguir avanzando en la aplicabilidad de estas técnicas.