El Instituto de Ingeniería del Conocimiento ha patrocinado una sala en Open Expo 2017, feria y congreso anual sobre Open Source, Software Libre y Data y Open World Economy de España, realizada en Madrid el 1 de junio.
Esta feria reunió a profesionales y empresas del sector con el objetivo de difundir, presentar, descubrir y evaluar las soluciones y las tendencias que ofrecen estas tecnologías para las empresas.
En la sala patrocinada por el IIC se albergó un conjunto de charlas agendadas durante todo el día para tratar temas relacionados con los nuevos retos del Open Source & la Transformación Digital.
Una de estas charlas fue impartida por Sergio-Nabil Khayyat, Arquitecto Big Data en el Instituto de Ingeniería del Conocimiento, en la que habló sobre herramientas en tiempo real.
¿Qué te ha parecido OpenExpo 2017?
Open Expo 2017 me ha sorprendido mucho, no me esperaba algo tan grande con tanta participación y tanto nivel en muchas de las ponencias.
“El tiempo es fácil… si sabes cómo” ¿De qué ha tratado tu ponencia?
En la ponencia de Open Expo 2017 he hablado sobre cómo construir una aplicación que haga un análisis de datos en tiempo real y toda la problemática que tiene que solventar para ello. Desde la ingesta de los datos al tipo de trabajo que hay que hacer en más detalle, y también a cómo gestionar toda esa información.
¿Qué aplicación tiene el Open Source en el mundo del Big Data?
El Open Source es fundamental. Se puede decir que todo este movimiento de Big Data empezó de una forma tangible con Hadoop, que es una tecnología Open Source, y a partir de ahí se han ido desarrollando múltiples herramientas y frameworks que dan soporte a todo este ecosistema, y que son enteramente Open Source, están ahí disponibles.
¿Cómo definirías Machine Learning o Docker de manera sencilla?
La definición más simple de Machine Learning es “enseñar a una máquina a hacer un trabajo inteligente”.
Docker es una tecnología que sirve para aislar todos los procesos y hacerlos fáciles de replicar, de distribuir y de llevar a un contexto de negocio.
¿Cuáles son las principales diferencias entre el tiempo real y el procesamiento batch?
La principal diferencia es que cuando nos enfrentamos a un problema de tiempo real los datos están llegando continuamente y tenemos que trabajar con ellos a ese mismo ritmo: no podemos estar esperando a recoger un bloque de datos o bacth y analizarlo en conjunto.
¿Cómo aplica el Instituto de Ingeniería del Conocimiento estas tecnologías?
El Instituto de Ingeniería del Conocimiento se preocupa por buscar el valor de los datos utilizando todas estas herramientas que estén a su alcance para poder conseguirlo. Las herramientas son solo un medio, que nos lleva al fin, que es dar el valor a las empresas, aportarles lo que necesitan.
¿Por qué crees que muchas empresas no se animan a utilizar estas tecnologías para el análisis de la conversación en redes sociales?
La razón principal es desconocimiento. En España el mercado todavía está creciendo, está aprendiendo que esto se puede hacer, y que esto lo puede hacer una máquina; no es necesario que haya una persona leyendo de uno en uno todos los contenidos sociales, sino que una persona puede hacer un trabajo mucho más inteligente y posterior a ese trabajo.
Te puede interesar ver el vídeo de la entrevista:
Sergio-Nabil Khayyat, Arquitecto Big Data en el Instituto de Ingeniería del Conocimiento.