Actualidad

Seminario: Practical Implications of Classification Calibration

El 13 de enero de 2014 a las 12:00 h. en el Salón de Grados de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid tiene lugar el seminario «Practical Implications of Classification Calibration», impartido por Irene Rodríguez Luján, del Biocircuits Institute, University of California S. Diego.

Resumen/Abstract

The importance of classification calibration falls on its relationship with the Bayes consistency. Most research in the literature has analyzed classification calibration under a mathematical framework that implicitly assumes that the decision functions can be separately defined for each point. Therefore, this framework generally overlooks the practical consequences of using a specific classification model based on these loss functions.

Therefore, the goal of this seminar is to give practical point of view of the classification calibration concept by trying to address the following questions: Is it possible to have a continuous family of loss functions in such a way that we can easily control their classification calibration properties? Are the classification calibration requirements feasible when such set of functions is used with a parametric classifier? In other words, does the classifier inherit the classification calibration properties of the loss function?

We propose a continuous family of loss functions defined by a control parameter that allows us to shift the loss function from classification uncalibrated to calibrated. We characterize the decision functions that make a loss function classification calibrated to determine whether these decision functions are achievable in parametric classifiers. As an example, we embed this continuous family of loss functions in a multiclass Support Vector Machine (SVM) to analyze SVM's solutions as a function of the control parameter, obtaining as byproduct a new classification model when the control parameter tends to infinity. Our experiments on multiclass problems show similar classification accuracy for classification calibrated and uncalibrated loss functions, and they point to the classifier with the control parameter tending to infinity as a promising model in terms of classification accuracy and training time.

Dr. Irene Rodríguez Luján. Se graduó en Ingeniería Informática y Matemáticas en la Universidad Universidad Autónoma de Madrid, doctorándose en Ingeniería Informática por la misma universidad en 2012. Entre 2005 y 2011 colaboró con el Instituto de Ingeniería del Conocimiento,y entre 2011 y 2013 trabajó como investigadora en el Grupo de Biometría, Bioseñales y Seguridad de la Universidad Politécnica de Madrid. Desde marzo de 2013 es investigadora postdoctoral en el BioCircuits Institute de la Universidad de California San Diego (UCSD). Sus intereses se centran en el ámbito del reconocimiento de patrones y sus aplicaciones prácticas.

Seminario: Intrinsic dimensionality reduction with application to chemical simulation models

El 19 de septiembre de 2013 a las 15:30 h. en el Salón de Grados de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid tiene lugar el seminario «Intrinsic dimensionality reduction with application to chemical simulation models», impartido por Neta Rabin, de Department of Exact Science at Afeka Academice College of Engineering, Tel-Aviv, Israel.

Resumen/Abstract

Simulation data from physical and chemical processes is typically high-dimensional. The dynamics of such systems can often be well described in fewer dimensions. In this talk we present a method for nonlinear dimensionality reduction that embeds a high-dimensional data set in a low-dimensional intrinsic space. The obtained reduced variables are constructed through the eigendecomposition of a Laplace operator. The Laplace operator is built by using a Riemannian metric, which captures the intrinsic geometry of the data. We apply the method to two simulated data sets resulting from different partial observations of the same underlying dynamic process and use the intrinsic variables to map the data into a common low-dimensional space. Furthermore, we demonstrate how to extend the partially observed high-dimensional data in the ambient space from the constructed reduced coordinates.

Neta Rabin. Received her B.Sc degree in Mathematics and Computer Science, and her M.Sc and Ph.D degrees in Computer Science from TelAviv University, Tel-Aviv, in 2001, 2004, and 2010, respectively. From 2010 to 2012, she was a Gibbs Assistant Professor in the Applied Mathematics Department at Yale University. Since October 2012 she is a faculty member in the Department of Exact Science at Afeka Academice College of Engineering, Tel-Aviv, Israel. Her research interests include high dimensional data analysis, manifold learning and signal processing.

Sesión formativa de energías renovables | Marzo 2013

El 1 de marzo de 2013 se celebró en la Escuela Politécnica Superior de la Universidad Autónoma de Madrid la sesión formativa «La predicción probabilística de variables meteorológicas», impartida por D. José Antonio García-Moya y D. Carlos Santos Burguete, ambos de la Agencia Estatal de Meteorología (AEMET), y organizada por la cátedra UAM-IIC de Aprendizaje Automático en Modelado y Predicción.

Tras una introducción a la naturaleza caótica de la atmósfera y al sistema de Lorenz y sus implicaciones en las incertidumbres de la predicción meteorológica, se abordaron los fundamentos de la construcción de los sistemas de predicción por conjuntos para la predicción probabilística del tiempo, se discutió la verificación objetiva de estas predicciones probabilísticas y se describió cómo hacer un primer proceso de estas predicciones y su aplicación a problemas reales, sobre todo a procesos de decisión de tipo determinista.

La sesión, que contó con la asistencia de más de 70 personas ―principalmente, del sector de la energía renovable―, está enmarcada en la actividad del Grupo de Trabajo en Energías Renovables, promovido por AEMET y Red Eléctrica de España, y del que forman parte empresas del sector de las energías renovables, como Abengoa, Acciona, Gas Natural Fenosa y Sun to Market, así como el Instituto de Ingeniería del Conocimiento (IIC), la Universidad Autónoma de Madrid y la Universidad de Sevilla.

Puede consultar las fotografías del eventoy descargar las presentaciones de las distintas ponencias:

  • Introducción: La predicción probabilística de variables meteorológicas. Descargar PDF
  • Sistemas de predicción por conjuntos para la predicción probabilística del tiempo. Descargar PDF
  • Verificación objetiva de predicciones probabilísticas. Descargar PDF
  • Aplicación de predicciones probabilísticas a problemas reales. Descargar PDF
     

Programa de la sesión

9:00 h. Recepción.

9:30 h. Apertura y presentación.

9:45 h. La atmósfera y la teoría del caos. El sistema de Lorenz.

10:30 h. Sistemas de predicción por conjuntos para la predicción probabilística del tiempo.

11:15 h. Café

11:45 h. Verificación objetiva de predicciones probabilísticas.

12:30 h. Aplicación de predicciones probabilísticas a problemas reales.

13:15 h. Debate de cierre.

13:30 h. Clausura.

9º Seminario: Aplicaciones de los algoritmos para la clasificación de series temporales

El 6 de julio de 2012, a las 12:00 horas en el salón de grados de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid, tuvo lugar el seminario bajo el título Aplicaciones de los algoritmos para la clasificación de series temporales. El seminario en esta ocasión será impartido por D. Ramón Huerta de la Universidad de California en San Diego.

Resumen: Hoy en día existen multitud de problemas donde se disponen de secuencias multidimensionales con estructura temporal. El problema consiste en determinar la causa, el origen o la fuente de esas fluctuaciones temporales que se manifiestan en sensores multidimensionales. Típicamente las series temporales se descomponen en un conjunto de características o “features” que posteriormente se utilizan como entradas de algoritmos de clasificación clásicos, como pueden ser redes neuronales artificiales o máquinas de soporte vectorial.

Si bien estos algoritmos son capaces de extraer unos niveles más que aceptables de rendimiento en la identificación y discriminación de señales, es obvio que se pueden mejorar los resultados si se tiene en consideración que las series temporales tienen una estructura temporal. ¿Qué quiere decir que tengan estructura temporal? Que dos medidas próximas en el tiempo tienen alta correlación entre ellas. Curiosamente esta propiedad tan básica de las series temporales ha sido ignorada en los campos de Inteligencia Artificial y Estadística por dos suposiciones dominantes: la estacionalidad de la señal y, en menor medida, la independencia estadística de las medidas.

El objetivo de este seminario fue explicar diferentes metodologías actuales que se utilizan para la clasificación y discriminación de series temporales, y en concreto mostrar cómo se pueden utilizar sistemas dinámicos junto con las máquinas de vectores soporte para la resolución de problemas de clasificación de series temporales.