Ponentes plenarios de CAEPIA 2018
Pedro Larrañaga
Pedro Larrañaga
Pedro Larrañaga es Catedrático de Ciencias de la Computación e Inteligencia Artificial en la Universidad Politécnica de Madrid (UPM) desde 2007, donde codirige el Grupo de Inteligencia Computacional. Es licenciado en Matemáticas (Estadística) por la Universidad de Valladolid y doctor en Informática por la Universidad del País Vasco (premio a la excelencia). Antes de incorporarse a la UPM, su trayectoria académica se desarrolló en la Universidad del País Vasco (UPV-EHU) en diversos puestos: Profesor Ayudante (1985-1998), Profesor Titular (1998-2004) y Catedrático (2004-2007). Obtuvo la habilitación para Catedrático en 2003.
El profesor Larrañaga ha sido responsable del Plan Nacional en el área de Informática dentro de la Subdirección General de Proyectos de Investigación del Ministerio de Ciencia e Innovación (2007-2010). Asímismo, ha sido miembro del Comité Asesor 6.2 (Ingeniería de Comunicaciones, Informática y Electrónica) de la CNEAI (Ministerio de Educación) en el periodo 2010-2011.
Sus intereses de investigación se centran principalmente en las áreas de modelos gráficos probabilísticos, ciencia de datos, metaheurística y aplicaciones reales, en áreas tales como: biomedicina, bioinformática, neurociencia, industria 4.0 y deportes. Ha publicado más de 200 artículos en revistas con factor de impacto y ha supervisado 25 tesis doctorales. Es miembro electo de la Asociación Europea de Inteligencia Artificial desde 2012 y de la Academia Europaea desde 2018. Ha sido galardonado con el Premio Nacional de Informática 2013 y con el Premio de la Asociación Española de Inteligencia Artificial 2018.
Redes Bayesianas en Acción
En la ponencia se presentará el uso de las redes Bayesianas en aplicaciones recientes en tres áreas diferentes: neurociencia, industria4.0 y analítica deportiva.
Las aplicaciones en neurociencia tratarán problemas a diferentes escalas: desde cuestiones de neuroanatomía, como la clasificación interneuronal y el clustering de espinas, hasta el diagnóstico de enfermedades neurodegenerativas como el Parkinson y el Alzheimer. Las aplicaciones en la Industria 4.0 estarán relacionadas con la inspección automática de un proceso láser y el descubrimiento de huellas dactilares en una máquina que trabaja con servomotores. Finalmente, soluciones al problema de la predicción del rendimiento de jugadores de fútbol profesional, y el abordaje del fútbol como ciencia ilustrarán la analítica deportiva.
Desde el punto de vista del aprendizaje automático, se utilizarán varias técnicas, como el cluster probabilístico, el clustering multivista, la detección de anomalías, la clasificación supervisada, la clasificación multietiqueta y la regresión con varias variables a predecir, todo ello en escenarios estáticos y dinámicos. Estas técnicas constituyen el fundamento de los métodos usados en las aplicaciones anteriores.
Sergio Guadarrama
Sergio Guadarrama
El Dr. Sergio Guadarrama es Ingeniero Senior de Software en Google Research, donde trabaja en Machine Perception y Deep Learning como miembro del equipo VALE con el Dr. Kevin Murphy. Su foco de investigación está en la búsqueda de nuevas arquitecturas de redes neuronales para predicciones detalladas de múltiples tareas, como la detección de objetos, la segmentación de objetos, la predicción de color y la respuesta a preguntas basadas en imágenes. Actualmente es desarrollador de TensorFlow y co-creador de TensorFlow-Slim. Antes de unirse a Google, fue investigador científico de la Universidad de California en Berkeley EECS con el prof. Trevor Darrell y el prof. Lotfi Zadeh. En UC-Berkeley fue uno de los desarrolladores de Caffe: Convolutional Architecture for Fast Feature Embedding. Recibió su licenciatura y su doctorado en la Universidad Politécnica de Madrid, e hizo un postdoctorado en el Centro Europeo de Soft Computing con el Prof. Enric Trillas.
El Dr. Guadarrama ha publicado más de 60 artículos en conferencias internacionales de primer nivel (CVPR, NIPS, AAAI, ICCV, RSS, ICRA, IROS, ACM, BMVC,...) y revistas sobre Inteligencia Artificial y Visión por Ordenador, que desde entonces han obtenido más de 10000 citas.
Las investigaciones y contribuciones originales del Dr. Guadarrama al campo le han valido los siguientes premios: el Everingham Prize 2017 al equipo de Caffe: Convolutional Architecture for Fast Feature Embedding por su contribución a la comunidad de código abierto, fue parte del equipo ganador del COCO 2016 Detection Challenge, ganador de la ACM Multimedia Open-Source Software Competition in 2014, la Beca de Movilidad para Investigación Postdoctoral del Ministerio de Ciencia e Innovación Español, el Premio "Juan de la Cierva" en Informática del Ministerio Ciencia e Innovación de Español, y el Premio a la Mejor Tesis Doctoral de 2006-2007 por la Universidad Politécnica de Madrid (director: Prof. Enric Trillas).
Inteligencia Artificial en Google: últimos avances y tendencias
En los últimos años, la Inteligencia Artificial (IA) ha experimentado un gran crecimiento, principalmente debido al resurgir de las redes neuronales profundas y sus impresionantes resultados en diversos campos de investigación de la IA como el reconocimiento del habla, el procesamiento del lenguaje natural, la visión por ordenador o la robótica.
Entre los problemas específicos abordados con éxito se incluyen: traducción automática, comprensión y generación del habla, detección de objetos y personas, segmentación semántica, aprendizaje por refuerzo en la manipulación robótica y el aprendizaje autosupervisado.
El crecimiento de Deep Learning se debe en gran medida a mejoras en el hardware (GPUs, TPUs, etc.), a mejoras en el software (Caffe, TensorFlow, PyTorch, etc.), pero también a mejoras en los modelos (redes convolucionales, redes residuales, redes recurrentes, redes generativas adversarias, etc.).
Las redes neuronales han demostrado ser eficaces para resolver problemas difíciles, pero el diseño de sus arquitecturas puede ser un desafío, incluso para un tipo específico de problemas en particular (como la clasificación de imágenes). El aprendizaje por refuerzo y los algoritmos evolutivos proporcionan técnicas para descubrir dichas redes de forma automática, recientemente ha habido un gran desarrollo en AutoML.
Finalmente, existe un gran potencial de aplicar el aprendizaje automático para ayudar a resolver problemas importantes de muy diversos campos de la ciencia. Por ejemplo, el año pasado, diferentes investigadores utilizaron las redes neuronales y aprendizaje profundo para predecir las propiedades moleculares en química cuántica, encontrar nuevos exoplanetas en conjuntos de datos astronómicos, predecir réplicas de terremotos y guiar sistemas de prueba automatizados.
Carlos A. Coello Coello
Carlos A. Coello Coello
Carlos Artemio Coello Coello cursó estudios en ingeniería civil en la Universidad Autónoma de Chiapas graduándose con mención honorífica en 1991. Ese mismo año, recibió la Medalla Diario de México por ser uno de los mejores estudiantes de México. Posteriormente, obtuvo una beca de la Secretaría de Educación Pública de México para cursar estudios de maestría y doctorado en ciencias de la computación en la Universidad Tulane, en Estados Unidos, graduándose en 1993 y 1996, respectivamente. Desde 2001, es Investigador Titular en el Departamento de Computación del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (CINVESTAV-IPN) en la Ciudad de México.
El Dr. Coello ha sido pionero en un área que hoy se conoce como optimización evolutiva multi-objetivo, la cual se enfoca a la solución de problemas de optimización con dos o más funciones objetivo (normalmente en conflicto entre sí) usando algoritmos con inspiración biológica. Su trabajo ha girado principalmente en torno al diseño de algoritmos, varios de los cuales han sido utilizados para resolver problemas de mundo real en Estados Unidos, Colombia, Chile, Japón, Irán, Cuba y México.
El Dr. Coello cuenta con más de 450 publicaciones (incluyendo 1 libro monográfico en inglés, más de 140 artículos en revistas con arbitraje estricto y 55 capítulos en libros en inglés), las cuales reportan a la fecha más de 40,000 citas en Google Scholar (su índice h es de 78). Es también editor asociado de varias revistas internacionales, incluyendo las 2 más importantes de su área (IEEE Transactions on Evolutionary Computation y Evolutionary Computation). También es miembro del Consejo Asesor de la Natural Computing Book Series de Springer.
A lo largo de su carrera ha recibido diversos premios, de entre los que destacan el Premio Nacional de Investigación 2007 en "ciencias exactas" de la Academia Mexicana de Ciencias, la Medalla al Mérito Científico 2009 de parte de la Asamblea Legislativa del Distrito Federal, el Premio Scopus México 2012 en Ingeniería, el Premio Ciudad Capital: Heberto Castillo Martínez–Edición 2011, en Ciencias Básicas y el Premio Nacional de Ciencias y Artes 2012, en el área de Ciencias Físico-Matemáticas y Naturales. Este último es el premio más importante que otorga el gobierno mexicano a un científico. Desde enero de 2011 es IEEE Fellow por sus "contribuciones a la optimización mono-objetivo y multi-objetivo usando metaheurísticas". También recibió el 2013 IEEE Kiyo Tomiyasu Award por "contribuciones pioneras a la optimización mono- y multi-objetivo usando metaheurísticas bio-inspiradas" y en noviembre de este año recibirá el 2016 The World Academy of Sciences (TWAS) Award en "Engineering Sciences" por "contribuciones pioneras al desarrollo de nuevos algoritmos basados en metaheurísticas bio-inspiradas para resolver problemas de optimización mono-objetivo y multi-objetivo".
¿Hacia dónde va la investigación en optimización evolutiva multi-objetivo?
El primer algoritmo evolutivo multi-objetivo se publicó en 1985. Sin embargo, fue hasta a finales de los 1990s cuando la denominada optimización evolutiva multi-objetivo comenzó a ganar popularidad como área de investigación. A lo largo de estos 33 años, se han producido diferentes avances muy importantes en el área, incluyendo el desarrollo de diferentes familias de algoritmos, problemas de prueba, indicadores de desempeño, métodos híbridos y aplicaciones del mundo real, entre muchos otros. En la primera parte de esta plática se dará un vistazo rápido a algunos de estos avances, enfatizando principalmente los logros recientes más importantes. En la segunda parte de la plática, se hará un análisis crítico sobre la investigación por analogía que ha proliferado en años recientes en las revistas y congresos especializados (tal vez como un efecto colateral de la abundancia de publicaciones que ha experimentado esta área). Mucha de esta investigación cuenta con un nivel muy bajo de innovación y con un aporte casi nulo en términos científicos, pero va respaldado por un gran número de tablas y análisis estadísticos. En la tercera y última parte de la plática, se mencionarán brevemente algunos de los retos de investigación futuros para esta área que, tras 33 años de existencia, apenas comienza su etapa de madurez.
João Gama
João Gama
João Gama es Profesor Asociado de la Universidad de Oporto, Portugal. También es investigador senior y miembro de la junta directiva del Laboratorio de Inteligencia Artificial y Soporte a la Decisión (LIAAD), grupo perteneciente al INESC Porto.
João Gama es miembro del Consejo Editorial de Machine Learning Journal, Data Mining and Knowledge Discovery, Intelligent Data Analysis y New Generation Computing. Fue Copresidente de ECML 2005, DS09, ADMA09 y de una serie de Talleres sobre KDDS y Descubrimiento de Conocimientos a partir de Datos de Sensores con ACM SIGKDD. También fue presidente de la conferencia Intelligent Data Analysis 2011. Su principal interés en la investigación es el descubrimiento de conocimiento a partir de flujos de datos y datos en evolución. Es autor de más de 200 artículos revisados por colegas y autor de un libro reciente sobre Descubrimiento de Conocimientos de Data Streams. Tiene extensas publicaciones en el área de aprendizaje de flujos de datos.
Real-Time Data Mining
Hoy en día, hay aplicaciones en las que los datos se modelan mejor no como tablas persistentes, sino como flujos de datos transitorios. En esta nota clave, discutimos las limitaciones del aprendizaje de la máquina actual y los algoritmos de minería de datos. Discutimos los temas fundamentales del aprendizaje en entornos dinámicos como los modelos de decisión de aprendizaje que evolucionan con el tiempo, el aprendizaje y el olvido, la deriva conceptual y la detección de cambios. Los flujos de datos se caracterizan por una gran cantidad de datos que introducen nuevas restricciones en el diseño de los algoritmos de aprendizaje: recursos computacionales limitados en términos de memoria, tiempo de procesamiento y potencia de la CPU. En esta charla, presentamos algunos algoritmos ilustrativos diseñados para tomar en cuenta estas restricciones. Identificamos los principales problemas y desafíos actuales que surgen al aprender de los flujos de datos, y presentamos líneas de investigación abiertas para futuros desarrollos.
Humberto Bustince
Humberto Bustince
Humberto Bustince es catedrático de Ciencia de la Computación e Inteligencia Artificial de la Universidad Pública de Navarra y profesor honorario de la Universidad de Nottingham. Es el investigador principal del Grupo de Inteligencia Artificial y Razonamiento Aproximado de la Universidad Pública de Navarra, y sus principales líneas de investigación son tanto téoricas (funciones de agregación y pre-agregación, medidas de información y comparación, conjuntos difusos y sus extensiones) como aplicadas (procesamiento de imagen, clasificación, machine learning, minería de datos, big data y Deep learning). Ha sido responsable de 11 proyectos de investigación con financiación pública tanto a nivel nacional como regional. También ha sido el responsable de proyectos de colaboración con empresas de primer orden en banca, energía renovables o seguridad, entre otros campos. Ha tomado parte en dos proyectos de investigación internacionales.
Es co-autor de más de 240 trabajos de acuerdo con Web of Science, la mayor parte de ellos en revistas del primer cuartil del JCR. Además, seis de estos trabajos están entre los artículos altamente citados de los últimos 10 años, de acuerdo con Science Essential Indicators de Web of Science. Es editor en jefe del magazine online Mathware&Soft Computing de la asociación europea EUSFLAT y de la revista Axioms. También es editor asociado de la revista IEEE Transactions on Fuzzy Systems, y miembro del Comité Editorial de las revistas FuzzySets and Systems, Information Fusion, International Journal of Computational Intelligence Systems y Journal of Intelligent & Fuzzy Systems.
Es miembro Senior de la asociación IEEE y Fellow de IFSA. En 2015 recibió el premio al mejor trabajo publicado en la revista IEEE Transactions on Fuzzy Systems en el año 2013, y en 2017 fue galardonado con la Cruz de Carlos III el Noble del Gobierno de Navarra.
Pre-agregaciones a partir de integrales y sus aplicaciones en clasificación, el cerebro computacional y procesamiento de imagen
A partir de los últimos estudios en Deep Learning y Big-data, se observa que existe un creciente interés en desarrollar nuevos métodos para fusionar información. Estos métodos, aunque no son agregaciones en el sentido usual ya que no se modelizan utilizando funciones monótonas, sí que presentan un elevado valor por su aplicación en cualquier disciplina en la que la fusión de datos sea un elemento relevante. Un paso muy importante en esta dirección ha sido la introducción del concepto pre-agregación, que es una función que satisface las mismas condiciones de contorno que una función de agregación, pero que es creciente a lo largo de solo una dirección. En esta charla, veremos ejemplos de cómo pueden construirse estas funciones por medio de generalizaciones de las integrales de Choquet y Sugeno. También veremos cómo estas generalizaciones pueden utilizarse para construir detectores de bordes que proporcionan excelentes resultados, o sistemas de clasificación que igualan e incluso mejoran el estado del arte. En particular, discutiremos la aplicaciones de estas pre-agregaciones en el estudio del cerebro computacional para la clasificación de señales.