Los sistemas inteligentes forman cada vez más parte de nuestras vidas, son útiles en distintas áreas y nos ayudan a tomar decisiones. Por eso, se habla de la necesidad de desarrollar una Inteligencia Artificial ética, explicable, confiable y transparente. En parte también por la apuesta de la Unión Europea y por las regulaciones comunitarias y españolas que están surgiendo para establecer ese marco normativo ético y las prioridades en el avance de este campo.
Del tema sabe especialmente Amparo Alonso, catedrática en el área de Ciencias de la Computación e Inteligencia Artificial en la Universidad de A Coruña y presidenta de la Asociación Española para la Inteligencia Artificial (AEPIA) que pertenece, además, al Consejo Asesor de la reciente Estrategia Nacional de Inteligencia Artificial.
Según Amparo Alonso, estas medidas podrían contribuir a la confianza de la población hacia la IA. En la primera parte de la entrevista, nos cuenta en qué áreas es más importante contar con algoritmos explicables y cómo se desarrollan técnicamente.
¿En qué consiste la Inteligencia Artificial Confiable y Explicable?
Hoy en día, la Inteligencia Artificial es una tecnología que está prácticamente en cualquier área, ayudándonos en la toma de decisiones y en la obtención de patrones, normalmente usando grandes cantidades de datos.
Entonces, es importante, para el aprendizaje y para que esta información sea útil, que los humanos la puedan entender. La Unión Europea ha apostado por esa Inteligencia Artificial ética, confiable, responsable y explicable.
¿Cómo podemos conseguir algoritmos justos y explicables?
Hay varios casos que podemos investigar, pero la idea general es que los algoritmos dejen de ser tan caja negra como lo son en la actualidad y permitir que haya algún tipo de explicación, de auditabilidad, de mantenimiento de la privacidad o de garantía de la sostenibilidad. En realidad, se están haciendo esfuerzos en muchos tipos de modelos y necesitamos más investigación, es un campo en ebullición.
En mi grupo de investigación, trabajamos en distintas áreas. Por ejemplo, hemos desarrollado algoritmos que trabajan en entornos distribuidos y que lo que intentan es garantizar la privacidad de los datos de cada nodo. De manera que podemos aprender de los datos de todos los nodos a la vez, pero sin que se compartan y sin enviarlos a través de la red para juntarlos en la nube o en cualquier nodo central. Lo que se comunica son los parámetros del algoritmo.
También hemos trabajado en la parte de explicabilidad de los algoritmos. Lo que hemos hecho es introducir en la métrica de evaluación del algoritmo la cantidad de variables que estamos utilizando para desarrollar la explicación. De forma que intentamos mantener el rendimiento de algoritmos complejos, pero teniendo por encima de ellos un algoritmo entendible para que un humano pueda interpretar ese resultado.
¿Qué perfiles se necesitan para abordar la explicabilidad de la IA?
Necesitaríamos poder trabajar en equipos más diversos. En España esto no es muy habitual, pero es interesante que aprendamos a trabajar con personal de otras áreas, como la Sociología o el Derecho, para abordar aspectos más éticos o que tienen que ver no solo con el desarrollo de algoritmos buenos, sino con el desarrollo de algoritmos que sean buenos para las personas. Nos pueden ayudar a integrar este cambio desde una perspectiva más social.
¿En qué nos beneficia una Inteligencia Artificial explicable?
Existen áreas en las que la mayoría de los algoritmos que estamos utilizando, como los de aprendizaje profundo, son bastante opacos. Muy potentes desde el punto de vista de la exactitud, pero no muy interpretables. Yo creo que el tema de la explicabilidad de la Inteligencia Artificial es un término muy concreto que a lo mejor para algunas áreas no es necesario, mientras que en otras sí.
Lo que sí que es importante es que aprendamos a desarrollar algoritmos más transparentes, o al menos que puedan ser auditables. Desde saber si los datos que estamos introduciendo son datos sesgados o no, hasta entender todo el algoritmo o la salida del algoritmo.
La transparencia puede tener distintos grados. La explicabilidad de los algoritmos sería el grado más alto, en el que necesitaríamos que ese algoritmo o sus resultados fuesen sencillos de ver por una persona de la calle.
Es una de las cuestiones que recoge la Ley General de Protección y Regulación de datos, en la que se dice que una persona tiene derecho a recibir una explicación entendible cuando le afecta una decisión de un algoritmo de Inteligencia Artificial.
¿En qué áreas es más necesario contar con una IA explicable?
Es una cuestión que no queda clara ni en el Libro Blanco de la Inteligencia Artificial ni en la Estrategia Nacional española. Se habla de áreas sensibles o de áreas de alto riesgo y esto todavía está por definir, precisamente porque no queremos poner cortapisas a la investigación y al desarrollo de algoritmos que puedan ser muy exactos. Yo creo que el tema no está en que vamos a sacrificar la exactitud en aras de la explicabilidad, sino en intentar balancear.
Un área sensible puede ser la de la salud, si una persona se ve afectada por una decisión que determine qué tratamiento obtiene o a qué tipo de diagnóstico se enfrenta. También áreas que tienen que ver con el Fintech, temas de seguros, concesiones de préstamos, temas legales, etc.
Probablemente en otras áreas mucho menos sensibles para las personas y en las que utilizamos todos los días Inteligencia Artificial, pues no sea tan importante. Como digo, creo que vamos a ir más bien a intentar conseguir un balance y a intentar que la explicabilidad de la Inteligencia Artificial. sea la máxima posible en áreas especialmente sensibles.
¿Ayudarían estas medidas a que la sociedad acepte e incorpore la IA?
Es algo imprescindible para crear confianza. A veces los medios o las películas están transmitiendo temas de Inteligencia Artificial que hacen desconfiar a los ciudadanos. Algunas de las acciones que hemos visto, mayormente relacionadas con la privacidad de los datos, han creado cierta confusión en ellos y cierta necesidad de protegerse. Y así vemos que algunas herramientas, como Radar COVID, no están siendo adoptadas por la población, quizás un poco por esa desconfianza.
Es fundamental que los ciudadanos entiendan que la Inteligencia Artificial está a su servicio, y para eso es fundamental que lo esté. Entonces, necesitamos modernizar la Administración Pública y transmitir esta idea de una IA mucho más confiable, y esto creo que está calando en Europa poco a poco. Y probablemente en otras zonas como EE. UU., donde hemos asistido a escándalos que tienen que ver con la cesión de datos, la privacidad, empresas que dan marcha atrás en algún proyecto, etc.
Creo que es fundamental que creemos una conciencia ciudadana. Cuanto más cultos seamos en cuanto a las capacidades y las limitaciones, que las tiene, de la Inteligencia Artificial actual, más confiaremos en la tecnología y creo que mejores herramientas podremos ofrecer.
Puedes escuchar la entrevista completa en nuestro canal de podcast InnovaDATA.
Muy interesante. Un proyecto de investigación muy necesario. Seguid informando, por favor