Recientemente tuve el privilegio de participar en la V National Cyber League de la Guardia Civil como experto del Instituto de Ingeniería del Conocimiento (IIC). En concreto, estuve en la mesa redonda titulada: “AI and cybercrime: AI as a friend or foe?” (IA y cibercrimen: ¿IA como amiga o enemiga?), que es un tema que, sin duda, da para hablar horas y horas, y sobre el cual voy a resumir mi posición en las siguientes líneas.
Básicamente, ante el debate de si pesan más las posibilidades o los riesgos de la inteligencia artificial a la hora de desarrollarla, yo prefiero hablar de buenos y malos usos de la tecnología y, sobre todo, de ceñirnos a la realidad. En mi intervención, puse algunos ejemplos de aplicaciones indebidas de la inteligencia artificial (IA) y propuse algunas líneas de actuación para hacerles frente.
Riesgos reales de la IA
Desde luego que los riesgos de la inteligencia artificial son un tema de rabiosa actualidad. Hace apenas un par de semanas que se celebró la AI Safety Summit en el legendario Bletchley Park, que sirvió de centro de inteligencia al Reino Unido durante la Segunda Guerra Mundial y donde se ubicó el primer ordenador electrónico. Este congreso congregó a altos cargos de gobiernos de todo el mundo, incluyendo EE. UU., China, Reino Unido, Alemania, Francia, España y la UE en su conjunto. Como resultado de este congreso se publicó The Bletchley Declaration, donde se apunta que «La inteligencia artificial avanzada representa riesgos significativos en ámbitos como la ciberseguridad y la biotecnología».[1]
Ahora bien, en mi opinión, el tratamiento de estos riesgos en determinados medios de comunicación, así como de algunos miembros respetables de la comunidad científica, ha sido sobreexagerado, llegando a hablar de «un riesgo existencial para la humanidad». Nada más lejos de la realidad, creo que este tipo de declaraciones sitúan el problema en un dimensión demasiado abstracta e indeterminada, más cerca de la ciencia ficción que de los riesgos presentes de los que, sin duda, hay que ser conscientes.
Siendo claros, soy un entusiasta convencido de los beneficios que la IA puede aportar a la sociedad, pero sería también un iluso si no me tomara en serio los riesgos evidentes derivados de un uso malintencionado. Estos riesgos no son una quimera mediática, son reales y nos afectan en la vida diaria.
Deepfakes y desinformación con IA
Un ejemplo paradigmático de esos malos usos de la inteligencia artificial lo encontramos apenas hace cinco años. En el 2017 se publicó un vídeo ultrafalso (deepfake) de alta calidad en el que Obama era suplantado por un actor. Los labios del expresidente estadounidense se sincronizaban con la voz del actor mediante técnicas de IA. En aquel momento esta tecnología conformaba la frontera en la que se encontraba la IA. Se requerían elevadas capacidades técnicas y muchos recursos para obtener semejante resultado. Actualmente, realizar un vídeo similar está al alcance de cualquiera con unos pocos clics. Desarrollar aplicaciones de IA requiere cada vez menos esfuerzos, costes y conocimientos, para bien y para mal.
Estas técnicas de vídeos ultrafalsos suponen todo un reto para las democracias por la facilidad con la que se pueden generar contenidos engañosos, pero también suponen un riesgo individual, por ejemplo, para mujeres que pueden ser acosadas sexualmente. Un dato demoledor: se estima que más del 90 % de los vídeos ultrafalsos que circulan por internet son pornografía no consentida[2]. Existen páginas que, por unos pocos dólares, te permiten desnudar a cualquier persona en una foto superponiendo un cuerpo desnudo falso.
De la misma manera, hay aplicaciones que ofrecen nutridos catálogos de avatares humanos que pueden ser usados, por ejemplo, como actores en campañas publicitarias, pero también para perpetrar delitos o ejecutar chantajes. Por ejemplo, se puede generar un personaje digital basado en una persona famosa con intención de timar a un tercero, o usar avatares para darse de alta en servicios digitales.
Algo parecido ocurre con la generación de texto. Según la agencia americana de verificación Newsguard, GPT-4 es una herramienta muy potente para generar narrativas de desinformación a pesar de los intentos de OpenAI[3]. Estos modelos del lenguaje se pueden emplear, por ejemplo, para la generación automática de discursos de odio y ciberacoso, o para crear chatbots con el objetivo de realizar engaños sofisticados mediante ingeniería social.
Regulación y concienciación sobre la IA
¿Cómo podemos protegernos frente a los malos usos de la inteligencia artificial en un mundo donde cualquier persona va a poder utilizarla sin conocimientos técnicos, poco esfuerzo y coste? Afortunadamente, la propia IA se puede emplear como contramedida frente a estos usos indebidos. A medida que se hacen más refinados los videos ultrafalsos o deepfakes, también se desarrollan técnicas más complejas para detectarlos. De manera similar, se desarrollan aplicaciones para filtrar noticias e imágenes falsas que ayuden a los verificadores o a los propios ciudadanos. No obstante, más allá de este juego del gato y el ratón, me gustaría proponer dos líneas de acción complementarias.
La primera está relacionada con la regulación de la inteligencia artificial. La UE persigue que el desarrollo de la IA esté alineado con los valores éticos defendidos por los estados miembros y tres son las características que deberían cumplir cualquier aplicación basada en esta tecnología: una IA centrada en las personas, fiable y responsable. En estas coordenadas se desarrolla el futuro Reglamento de Inteligencia Artificial de la UE, que será el primero a nivel mundial. Dentro de esta estrategia regulatoria van a tener un papel relevante las agencias nacionales como la Agencia Española de Supervisión de Inteligencia Artificial (ASEIA), de reciente creación.
La segunda línea de actuación propuesta consiste en desarrollar la «inteligencia natural» propia de los seres humanos. Hay que recordar que detrás del mal uso de una IA hay personas. Por un lado, asegurémonos de que los usuarios conocen todas las implicaciones que tiene el uso indebido de las misma. Los individuos, y especialmente los jóvenes, no son conscientes de las implicaciones legales que suponen el uso incorrecto de estas tecnologías.
Por otro lado, reforcemos que las personas aprendan a distinguir contextos en los que pueden verse sometidos a un engaño. Uno de los mecanismos más efectivos para combatir el phishing, por ejemplo, consiste en realizar simulación de ataques en entornos seguros donde los usuarios de una organización se ven expuestos a mensajes fraudulentos sin sufrir las consecuencias negativas. Otra medida son los recordatorios recurrentes a través de diversos canales de comunicación. En este último escenario, las fuerzas de seguridad pueden tener una labor destacada en campañas de divulgación y en la formación sobre los riesgos de la IA a los que nos podemos ver expuestos por su mal uso. De hecho, dos claros ejemplos de impacto positivo en la sociedad son la gestión de las redes sociales que realiza la Guardia Civil y la Policía Nacional.
En resumidas cuentas, la inteligencia artificial es una herramienta poderosa que puede ser usada tanto para el bien como para el mal. Es nuestra responsabilidad el cómo queremos integrarla en la sociedad, lo cual pasa por la necesidad de una regulación ética y responsable de la IA. Pero no nos podemos quedar únicamente en lo que debería ser, sino que tenemos que promover activamente que las personas sean capaces de reconocer y protegerse contra el mal uso de la IA, partiendo de la educación y la concienciación como herramientas clave.
[1] “AI poses significant risks in domains such as cybersecurity and biotechnology”, en inglés original. Accesible en https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
[2] Increasing Threat of DeepFake Identities (dhs.gov)
[3] ChatGPT-4 produces more misinformation than predecessor – Misinformation Monitor: March 2023 – NewsGuard (newsguardtech.com)