Según el informe El Estado de Inteligencia Artificial 2020 de McKinsey & Company, la explicabilidad de los algoritmos es uno de los asuntos más relevantes para las organizaciones que están incorporando la Inteligencia Artificial a su actividad. Y entre los temas que más preocupan también están la privacidad o el cumplimiento de la regulación.
De todo esto trató el último seminario de la Cátedra UAM-IIC de Ciencia de Datos y Aprendizaje Automático: Hacia algoritmos más justos, responsables y transparentes, para el que se contó con Amparo Alonso, catedrática en el área de Ciencias de la Computación e Inteligencia Artificial en la Universidad de A Coruña y presidenta de la Asociación Española para la Inteligencia Artificial (AEPIA). La experta pertenece, además, al Consejo Asesor de la reciente Estrategia Nacional de Inteligencia Artificial en España.
Para ella, el cambio tecnológico implica también un cambio social para el que no tenemos normas definitivas y que hay que ir consensuando al mismo tiempo que avanzamos. En su ponencia online, compartió algunas cuestiones técnicas para conseguir algoritmos más justos e introdujo los últimos avances en la regulación europea y española para una Inteligencia Artificial explicable y confiable.
Hacia algoritmos que aseguren la privacidad y la explicabilidad
Aunque ya los tuviéramos en cuenta, los temas sociales y éticos van a ser cada vez más imprescindibles al hablar de Inteligencia Artificial. Según Amparo Alonso, “tenemos la responsabilidad de diseñar algoritmos que tengan en cuenta la privacidad de los datos, que garanticen la justicia de las decisiones, que sean auditables, o al menos transparentes, y que sean incluso sostenibles desde el punto de vista energético”.
Aunque estos aspectos nos puedan parecer relativamente recientes, la experta advierte que quizás no lo son tanto. La historia de la Inteligencia Artificial empieza aproximadamente en los años 50. Tras un primer boom, se abandonó la idea de diseñar algoritmos generales para reflejar todo el conocimiento concreto de un campo. Y con menos datos disponibles y algoritmos más bien sencillos, esta era una IA altamente explicable, una característica que se perdió cuando nuestras experiencias empezaron a ser digitales y los algoritmos debían gestionar mucha más información.
Otro papel fundamental en el avance de la IA lo tuvieron las denominadas “promesas”, explicó Amparo Alonso. Al principio, se invirtió mucho para conseguir ciertos objetivos, pero pronto estos se demostraron muy lejanos y la IA dejó de ser una tecnología prometedora para, de alguna manera, convertirse en un riesgo.
No obstante, la investigación continuó y sirvió para que algunas de las promesas iniciales se cumplieran más tarde, ejemplificadas en el caso de Deep Blue y su victoria jugando al ajedrez. Estos nuevos logros se tradujeron en interés social e inversión en investigación e innovación, pero también en inquietud ante la amenaza potencial de una IA autónoma. Por ello, se empieza a hablar de una Inteligencia Artificial para el bien común, donde entraría también una regulación ética.
¿Cómo conseguir algoritmos éticos en Machine Learning?
Actualmente, se está evaluando el poder dar un sello de validez ética a los algoritmos. “Hay que revisar la entrada, la salida y aspectos como la exactitud o la confianza, pero también algunos nuevos como la explicación o la privacidad”, comentó Amparo Alonso. En algunas áreas, como la de la salud, esto sería imprescindible. Sin embargo, “una cosa es la auditabilidad, otra es que el algoritmo sea transparente, otra es que sea explicable y en qué niveles”. Queda por precisar qué hay que tener en cuenta para que un algoritmo sea éticamente válido.
La experta puso algunos ejemplos de modelos y algoritmos de Aprendizaje Automático desarrollados en su grupo de investigación que aseguran la privacidad y la explicabilidad. Las cuestiones más técnicas se explican en el vídeo del seminario. Por ejemplo, para asegurar la privacidad, se han hecho algunos “ajustes” en algoritmos de aprendizaje distribuido, de detección de anomalías o de clasificación. La idea es compartir parámetros, no datos. Y como resultado, explicó Amparo Alonso, “se obtiene un modelo escalable, que mantiene la exactitud, disminuye el tiempo de entrenamiento y que, además, añade ese mantenimiento de la privacidad”.
Otra de las cuestiones es la explicabilidad, que suele estar reñida con un alto nivel de exactitud. El reto está en conseguir ese equilibrio explicabilidad-exactitud, para el que han desarrollado un modelo que se puede superponer sobre otros de aprendizaje automático. “Se trata de una aproximación para que sean interpretables, al menos por un experto del campo en el que estemos trabajando”, explicó la ponente.
Algoritmos verdes y sostenibles
Por último, Amparo Alonso mencionó los llamados algoritmos verdes, y que pueden serlo en dos líneas. Por un lado, tenemos modelos que nos ayudan a ser sostenibles o a conservar el medio ambiente: tienen que ver con agricultura, energía, agua, la reducción de emisiones o las denominadas supermanzanas urbanas.
“Estamos colaborando con grupos de sociología y psicología para ayudar a los gobiernos a diseñar mejores acciones y que los ciudadanos aceptemos las medidas medioambientales”, explicó.
Por otro lado, otro tipo de algoritmos verdes son los que permiten obtener modelos precisos con poca capacidad de cómputo, con el consecuente ahorro energético. Un ejemplo es un algoritmo que detecta características redundantes en grandes muestras de datos y hace un filtrado de las mismas. “Con menos datos, los modelos de aprendizaje son más rápidos, más eficientes y contribuyen de alguna forma a la transparencia”. comentó Alonso. Y mencionó que ya existen medidas de “precisión reducida” para redes neuronales.
Regulación para una Inteligencia Artificial ética
A pesar de los riesgos, según comentaba Amparo Alonso, “no hay duda de que la Inteligencia Artificial es una oportunidad frente al mercado”. La tecnología supone una contribución cada vez mayor al PIB mundial y, para diferenciarse de los dos hubs más importantes (la fuerte inversión asiática y las grandes empresas norteamericanas), en Europa se apuesta por una aproximación ética, con planes para una IA robusta y explicable, y que ayuden además a retener talento.
Volviendo a la historia, cuando se empezó a trabajar con Big Data, se intentó resolver el problema de la escalabilidad, centrándose en las infraestructuras y dejando más de lado la parte ética.
Cuando ya se tuvo una infraestructura estándar, es cuando se desarrollan algoritmos que tienen en cuenta esa regulación. “Ahora la regulación, la ética y los algoritmos avanzan casi de forma paralela”, asegura la experta.
Ya en 2018, en Europa entra en vigor la regulación para la protección de datos (RGPD). Y algunas de las cuestiones reflejadas afectan a los desarrolladores de algoritmos, por ejemplo, en cuanto a que cualquier ciudadano que “sufra” una decisión de un sistema inteligente tiene derecho a una explicación entendible. “Lo cual nos obliga en cierta manera a tener algoritmos cuyas decisiones sean al menos entendibles”, aclara Amparo. Además, existen guías y recomendaciones para una IA confiable, con las que se busca, entre otros, los siguientes objetivos:
- Asegurar la supervisión humana
- Seguridad técnica
- Privacidad y revisión de los datos
- Transparencia y explicabilidad
- Diversidad, no discriminación y justicia
- Bienestar social y ambiental
- Responsabilidad
También en España se trabajó en 2019 en una estrategia de I+D+i en Inteligencia Artificial. Recientemente, en diciembre de 2020, se publicó la Estrategia Nacional de Inteligencia Artificial, que enumera una serie de acciones a desarrollar en los próximos años. Algunas ya están en marcha, como la creación de la Oficina del Dato o la Carta de Derechos Digitales y, en su conjunto, esta Estrategia puede impactar de manera importante en la investigación e innovación española en este campo, vital para el futuro.
VÍDEO DEL SEMINARO