Términos como el Big Data y la Inteligencia Artificial no les son nuevos a nuestros oídos. Tampoco algunas de sus ventajas y aportaciones a la sociedad en el ámbito del transporte, la seguridad o incluso la salud. Sin embargo, también es patente el debate en torno a la ética que debe guiar a las máquinas y la confusión respecto a la imagen que tenemos de ellas.
En una entrevista para la Agencia EFE, Álvaro Barbero, chief data scientist del Instituto de Ingeniería del Conocimiento (IIC), propone evitar pensar en la Inteligencia Artificial como un “terminator” que va a sustituirnos en el trabajo. Y es que es cierto que las máquinas automatizarán cada vez más tareas de esas repetitivas, pero no podrán sustituirnos en las cognitivas ni en oficios que requieren de habilidades humanas.
El Big Data, el Internet de las Cosas (IoT) y la Inteligencia Artificial, entre otras tecnologías punteras, fueron los temas de la octava edición de Big Things. La conferencia tecnológica por excelencia celebrada en Madrid contó con la participación de Álvaro Barbero, que habló de otra de las tendencias en el mundo tecnológico: el Procesamiento del Lenguaje Natural (PLN).
Modelos del lenguaje en los negocios
Si clasificamos un conjunto de textos, los etiquetamos o extraemos información que responda a preguntas, las máquinas pueden aprender a hacerlo automáticamente. Así se desarrollan los sistemas de procesamiento del lenguaje que se utilizan ya en muchos ámbitos.
En su charla –“Solving Natural Language Problems with Scarce Data” – Álvaro Barbero explicó algunas claves y los problemas que pueden surgir al aplicar Procesamiento del Lenguaje Natural en cualquier negocio.
Muchas veces, al abordar este tipo proyectos, nos encontramos con la realidad: disponemos de pocos datos para crear los modelos de inteligencia artificial necesarios para automatizar el proceso de interés. Históricamente esto ha supuesto un obstáculo difícilmente salvable, pero en el contexto del procesamiento del lenguaje natural una innovación reciente ha permitido superarlo: los modelos de lenguaje.
Un modelo de lenguaje es un sistema que es capaz de decirnos si es probable que una serie de palabras formen una oración correcta o no en un lenguaje determinado. Estos sistemas se construyen recopilando y analizando grandes bases de datos de texto escrito, como puede ser la Wikipedia completa o extracciones de otras páginas web, sin necesidad de un proceso de revisión o anotado manual.
Entre las aplicaciones de un modelo de lenguaje, se encuentran los teclados predictivos de nuestros móviles, pero también pueden utilizarse para tratar texto en cualquier ámbito. Mediante un proceso conocido como transferencia del aprendizaje (transfer learning), un modelo de lenguaje puede usarse como cimientos para construir una solución de procesamiento del lenguaje natural que resuelva un problema muy específico del sector en concreto. De este modo, aunque dispongamos de pocos datos de los que aprender, el sistema puede obtener buen rendimiento al basarse en todo el conocimiento que se transfiere desde el modelo de lenguaje.
Las máquinas aprenden cómo funciona el lenguaje
En un programa especial de A golpe de bit en Radio Exterior de España, Álvaro Barbero resumía así lo que se intenta conseguir con estos modelos del lenguaje: “se intenta construir redes neuronales artificiales que entiendan cómo funciona el lenguaje en general y, una vez que tenemos esto, que estas máquinas se adapten a resolver problemas de análisis de texto muy concretos, como ayudarnos a escribir un correo”, explicó.
Entre los obstáculos para avanzar en esta tarea, comentaba que muchos de los recursos que se utilizan para entrenar los modelos están en inglés.
“Tenemos que hacer que las máquinas entiendan el español para que los sistemas con los que interactuamos en este idioma lo hagan poco a poco mejor” Álvaro Barbero.
Así pues, en lo que a PLN se refiere, las máquinas avanzan cada vez más para “entendernos” mejor. “Los nuevos modelos permiten entender opiniones, expresiones típicas de cada lugar, utilizar y cruzar diferentes fuentes o textos y hasta comprender cómo, dónde y por qué se enlazan unas palabras con otras”, explicó Álvaro Barbero a la Agencia EFE.
Además de traducir e interpretar opiniones y comentarios en redes sociales, “los nuevos sistemas de procesamiento del lenguaje natural permiten conocer mucho mejor el contexto que rodea a cada palabra en una oración”, determinó Barbero. Esto facilita que puedan captar la ironía o el doble sentido cuando estos son característicos de muchas de nuestras conversaciones, aunque se trate de estructuras sintácticamente complejas.
Big Things 2019 reunió a grandes empresas tecnológicas, de telefonía o comunicación y hasta 2.000 expertos de todo el mundo que explicaron cómo las nuevas tecnologías se integran y adaptan a los negocios.
Puedes leer el artículo completo de la Agencia EFE: Big Data», «IoT», «IA» y buscadores que entienden hasta la ironía.