La Inteligencia Artificial ha sido desde su inicio un campo conectado al resto de las ciencias, también las sociales y las humanidades. Una tendencia que, sin embargo, cambia en los últimos 20 años, a lo largo de los cuales las referencias cruzadas y la colaboración entre las ciencias sociales y la IA han disminuido.
Manuel Cebrián, investigador en MIT Media Lab, empezó a interesarse por esta relación con el estudio de la cooperación humana, del crowdsourcing. Y explicó su experiencia en el último seminario de la Cátedra UAM-IIC de Ciencia de Datos y Aprendizaje Automático, bajo el título “The evolution of citation graphs in artificial intelligence research”.
Una observación recurrente es que utilizando datos sociales se pueden resolver problemas sociales. Cebrián puso el ejemplo del huracán Sandy: con datos de Twitter y Facebook, con los comentarios sobre el viento y las inundaciones, y datos de los seguros, se podía predecir el daño que iba a hacer un temporal, y a partir de ahí, el dinero que habría que pagar a los afectados.
Con esta metodología, se podía cuantificar igualmente la bajada del ánimo de las personas cuando hace mal tiempo o cuando cambian la hora, y compararlas objetivamente. Sin embargo, Manuel observó que los datos sociales cada vez tenían menos poder predictivo.
El impacto social de los algoritmos
Desde 2014, explicó Cebrián, las redes sociales están más intermediadas y filtran los mensajes, que no llegan por igual a todo el mundo. ¿Por qué sucede esto? Los algoritmos nos muestran lo que más puede interesarnos según nuestra actividad. Pero, ¿realmente vemos lo que necesitamos o lo que quieren que veamos?
Estas modificaciones algorítmicas tienen implicaciones sociales. Según el investigador, el modelo de negocio actual de Internet se basa en nuestro comportamiento, para además modificarlo. Por eso, se centró en el estudio del impacto de la IA.
Volviendo a la investigación, vio que la mayoría de los papers vienen de instituciones concretas y se centran en temas más técnicos y especializados. Algo que dificulta “el diálogo con las ciencias y las humanidades”, que no conocen los entresijos de los algoritmos.
Por ello, comenta Cebrián, “el Machine Bechaviour propone estudiar los algoritmos y aprender de ellos sin saber en profundidad cómo están hechos”, y preguntarse, por ejemplo, si afectan a la democracia o si son justos. De esta forma, se propone “abrirlos a otras disciplinas sin tener que ser expertos en IA”, explica.
“el Machine Bechaviour propone estudiar los algoritmos y aprender de ellos sin saber en profundidad cómo están hechos” Manuel Cebrian
A partir de este punto de vista ético y sociológico, surge la iniciativa de una plataforma para estudiar su comportamiento y eventualmente cuestionarlos, la Turing Box. Con ella se pretende, por ejemplo, conocer en ausencia de filtros previos la opinión de la sociedad y detectar posibles problemas antes de que dichos algoritmos se apliquen o utilicen.
Muy interesante, pero, ¿dónde puedo saber más o informarme más sobre la relación entre la sociología y las inteligencias artificiales? O el conocimiento de algún curso sobre la sociología de la inteligencia artificial.