Multivariate methods to track frequency shifts in EEG/MEG recordings

PonenteCarmen Vidaurre Arbizu (Investigadora Principal, Tecnalia Research and Innovation, Basque Foundation for Science — Ikerbasque –).

Lugar: Salón de Actos (Edificio CCT), o a través de Blackboard (https://bit.ly/salaDMC)

Hora: martes 14 de junio de 2022, 12:00.

Resumen: Instantaneous and peak frequency changes in neural oscillations have been linked to many perceptual, motor and cognitive processes. Yet, the majority of such studies have been performed in sensor space and only occasionally in source space. Furthermore, both terms have been used interchangeably in the literature, although they do not reflect the same aspect of neural oscillations. In this talk I will discuss the relation between instantaneous frequency, peak frequency and local frequency. Then, I will propose three different methods to find brain sources whose frequency estimate of interest (instantaneous, local or peak) is maximally correlated to an experimental variable.

Biografía: Carmen Vidaurre es Ikerbasque Research Associate en el grupo de neuroingeniería de Tecnalia. Anteriormente fue contratada Ramón y Cajal en la Univ. Pública de Navarra e investigadora en el grupo de Machine Learning de la Univ. Técnica de Berlín. También fue Marie Curie fellow del Fraunhofer Institute for Software Technik, en el grupo de análisis inteligente de datos. Se ha dedicado al análisis de señales del sistema nervioso central y periférico y al diseño de interfaces cerebrales adaptativas en línea. Actualmente está interesada en el desarrollo de métodos multimodales para obtener información sobre el funcionamiento del cerebro.

Nota: la conferencia se ha realizado con la colaboración del Vicerrectorado de Investigación e Internacionalización de la Universidad de La Rioja.

Generative Few-Shot Learning

PonenteAdrián Inés Armas (Investigador Predoctoral, Grupo PSYCOTRIP, Universidad de La Rioja).

Lugar: Salón de Actos (Edificio CCT), o a través de Blackboard (https://bit.ly/salaDMC)

Hora: martes 31 de mayo de 2022, 12:00.

Resumen: El problema de few-shot learning en clasificación de imágenes consiste en crear un modelo que sea capaz de clasificar imágenes de nuevas clases usando un número muy reducido de imágenes de entrenamiento para cada clase. La dificultad de este problema radica en los pocos datos de entrenamiento que podemos usar y la gran cantidad de datos necesarios para entrenar modelos de Machine Learning o Deep Learning capaces de resolver este tipo de tareas.


En esta charla voy a contar el trabajo realizado en mi estancia de investigación en la Universidad Albert-Ludwigs de Alemania. En primer lugar, voy a introducir el problema de few-shot learning en la clasificación de imágenes, así como las aproximaciones que existen en la literatura. Posteriormente veremos cómo hemos abordado este problema usando redes generativas.

Generación de Datos de entrenamiento a partir de imágenes sintéticas para algoritmos de esquivación de objetos basados en Machine Learning

Ponentes: David Villota Miranda, Javier Rico Azagra, Montserrat Gil Martínez (Grupo de Investigación en Ingeniería de Control. Universidad de La Rioja)

Lugar: Salón de Actos (Edificio CCT), o a través de Blackboard (https://bit.ly/salaDMC)

Hora: martes 11 de enero, 11:00

Resumen: El aprendizaje automático (machine learning) es capaz de dotar a los vehículos autónomos de cierta inteligencia para sus funciones de navegación. Una de las principales funciones que un UAV (vehículo aéreo no tripulado) debe ser capaz de solventar es la evasión de objetos, en la cual se centrará este trabajo.

Para el adecuado entrenamiento de cualquier red neuronal, se precisa gran cantidad de información. En este caso, imágenes de paisajes diversos que han de ser capturadas desde el vehículo en movimiento. Entonces, con el fin de salvaguardar la integridad del dron, los entornos virtuales utilizados en videojuegos serán de gran ayuda para generar imágenes sintéticas. Esto permitirá obtener secuencias de imágenes también en ambientes en los que sería impensable volar un dron como, por ejemplo, la superficie lunar o cualquier lugar desconocido e inaccesible a día de hoy. En particular, se ha utilizado el motor gráfico Unreal Engine, en combinación con el “Plugin” Airsim, que embebe el movimiento del dron dentro del paisaje virtual y permite configurar el formato de adquisición de imágenes.

Para generar los datos de entrenamiento de la red neuronal, se parte de las imágenes anteriores cuyos píxeles codificarán la profundidad y, por tanto, se obtendrá un indicador de la probabilidad de colisión. De esta manera se dará solución a uno de los principales problemas en algoritmos de machine learning conocido como “transfer learning”. En muchas aplicaciones, las redes neuronales aprenden características muy concretas de los elementos como texturas, colores, composiciones, que posteriormente merman la versatilidad de la red neuronal. En este caso, la imagen se codifica en escala de grises con el fin de que la red neuronal aprenda a diferenciar las geometrías que vayan apareciendo, e insensibilizando su respuesta ante colores o texturas.

Con el fin de automatizar la generación del “ground-truth” se han desarrollado tres algoritmos de segmentación, que generan como salida el punto (coordenadas X-Y) óptimo o de menor probabilidad de colisión. Los tres algoritmos (Centro de masas, Regresión, Sectorización) utilizan fórmulas físicas y estadísticas como la fórmula de centro de masas, o cálculo de líneas de regresión utilizadas para la identificación de la posición y dirección de los píxeles de colisión. Finalmente se compararán los resultados de cada ellos en una red neuronal ResNet-8 que como salida arroje un punto objetivo dentro del área visualizada desde el UAV donde se estime la menor probabilidad de colisión.

Transformación Digital: la adopción del Machine Learning en las empresas

PonentesIgnacio Fernández Estébanez (Business Development Manager, Arsys).

Lugar: Aula 204 (Edificio CCT), y online (https://bit.ly/salaDMC).

Hora: miércoles 14 de abril, 10:00

Resumen: ¿Sabías que Netflix te muestra diferentes portadas para las series y películas en función de tus gustos? El Machine Learning es una disciplina del ámbito de la inteligencia artificial consistente en entrenar una máquina a partir de una colección de datos para que pueda aprender y realizar tareas reduciendo la intervención humana.

El aumento del volumen de datos y de la capacidad de cómputo han permitido extender la aplicación del Machine Learning hasta convertirse en algo que utilizamos diariamente de forma inconsciente: está presente en las recomendaciones de YouTube, Netflix o Spotify, en asistentes de voz o en el análisis de fraude al solicitar un crédito.

A pesar de su popularización a través de lenguajes de programación como Python o R, el uso del machine learning está todavía restringido a usuarios avanzados con al menos conocimientos de programación y matemáticas, entre otras áreas. Cada vez más aparecen algunas aplicaciones que permiten utilizar modelos preentrenados o entrenar modelos sin tener estos conocimientos, pero están aislados a ciertos casos de uso como el análisis de imágenes o el procesado de textos.

En esta charla comentaremos la inmersión de una empresa IT para adentrarse en el mundo del Machine Learning con un proyecto para generar un modelo de recomendaciones de ventas, empezando desde cero y los principales problemas encontrados. El siguiente reto: ¿es posible este caso con computación cuántica?

Rompiendo la barrera del tiempo en microscopía

PonentesDiego Megías Vázquez (jefe de la Unidad de Microscopía Confocal del Centro Nacional de Investigaciones Oncológicas – CNIO), Gadea Mata Martínez (Universidad de La Rioja).

Lugar: online (https://bit.ly/salaDMC).

Hora: miércoles 31 de marzo, 10:00

Resumen: La adquisición de imagen en microscopía óptica de fluorescencia requiere la exposición de la muestra a potentes fuentes de luz y a la recogida de su emisión. A mayor tiempo de exposición mayor relación señal / ruido. Dicho aumento en el tiempo de exposición genera toxicidad y muchas veces impide poder seguir con claridad eventos celulares rápidos. Las muestras biológicas que se ensayan diariamente en microscopía han de ser capturadas intentando que las imágenes sean lo más rápidas y fieles a la realidad posible pero sin dañarlas. En este seminario os contaremos como el Machine Learning nos puede ayudar a conseguir estos objetivos.

Búsqueda de Modelos de Machine Learning con GA-PARSIMONY y su aplicación en proyectos de Ingeniería

Ponente: Fco. Javier Martínez de Pisón Ascacíbar (Grupo EDMANS – Universidad de La Rioja)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: martes 26 de noviembre, 13:00

Resumen: En esta charla se hablará de las experiencias y lecciones aprendidas en algunos proyectos de aprendizaje automático (Machine Learning) en los que ha trabajado el Grupo EDMANS (Engineering Data Mining And Numerical Simulations) para la mejora de procesos industriales, de diseño mecánico o estructural, medioambiental, empresarial, etc. Además, se hablará del uso de la librería para R, denominada “GA-PARSIMONY”; que ha sido desarrollada dentro del propio grupo de investigación. Esta librería permite realizar una búsqueda automática, mediante Algoritmos Genéticos, de las mejores variables y parámetros de cada algoritmo en base a un doble criterio de optimización: precisión y parsimonia. El objetivo final es la obtención de modelos precisos con un bajo número de entradas que los haga robustos ante perturbaciones y ruidos.

Referencias:

– https://github.com/jpison/GAparsimony

– https://cran.r-project.org/web/packages/GAparsimony/index.html

– Urraca, R., Huld, T., Martinez-de-Pison, F.J., Gonzalez-Sendino, R., Aldama, A., Ferreiro-Cabello, J., Fraile-Garcia, E., 2019.
Hybrid methodology based on Bayesian optimization and GA-PARSIMONY to search for parsimony models by combining hyperparameter optimization and feature selection. Neurocomputing, 354, pp. 20-26. DOI: 10.1016/j.neucom.2018.05.136

– Sanz-Garcia, A., Fernandez-Ceniceros, J., Antonanzas-Torres, F., Pernia-Espinoza, A.V., Martinez-de-Pison, F.J., 2015.  GA-PARSIMONY: A GA-SVR approach with feature selection and parameter optimization to obtain parsimonious solutions for predicting temperature settings in a continuous annealing furnace. Applied Soft Computing 35, 23-38.

– Urraca R., Sodupe-Ortega E., Antonanzas E., Antonanzas-Torres F., Martinez-de-Pison, F.J. (2017). Evaluation of a novel GA-based methodology for model structure selection: The GA-PARSIMONY. Neurocomputing, Online July 2017.

– Fernandez-Ceniceros J., Sanz-Garcia A., Antonanzas-Torres F., Martinez-de-Pison F.J. (2015). A numerical-informational approach for characterising the ductile behaviour of the T-stub component. Part 2: Parsimonious soft-computing-based metamodel. Engineering Structures 82, 249-260.

– Antonanzas-Torres F., Urraca R., Antonanzas J., Fernandez-Ceniceros J., Martinez-de-Pison F.J. (2015). Generation of daily global solar irradiation with support vector machines for regression. Energy Conversion and Management 96, 277-286.

Processing Biomedical Images for the Study of Treatments Related to Neurodegenerative Diseases

 

Ponente: Gadea Mata Martínez (Universidad de La Rioja)

Lugar: Salón de Actos (Edificio CCT)

Hora: martes 5 de septiembre, 12:00

Resumen: The study of neuronal cell morphology and function in neurodegenerative disease processes is essential in order to develop suitable treatments. In fact, studies such as the quantification of either synapses or the neuronal density are instrumental in measuring the evolution and the behaviour of neurons under the effects of certain physiological conditions.

In order to analyse this data, fully automatic methods are required. To this end, we have studied and developed methods inspired by Computational Algebraic Topology and Machine Learning techniques. Notions such as the definition of connected components, or others related to the persistent homology and zigzag persistence theory have been used to compute the synaptic density or to recognise the neuronal structure. In addition, machine learning methods have been used to determine where neurons are located in large images and to ascertain which are the best features to describe this kind of cells.

Nota: la charla se trata de una prueba de tiempo para la presentación de la Tesis, que tendrá lugar el viernes 15 de septiembre a las 12:00 en el mismo Salón de Actos del CCT.

Análisis de imagen biomédica en el grupo de informática de la UR

 

Ponente: Jónathan Heras

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: martes 16 de mayo, 12:00

Resumen:  En esta charla se comentarán las técnicas de visión por computador y aprendizaje automático aplicadas por el grupo de informática de la Universidad de La Rioja a distintos problemas de análisis de imagen biomédica. Entre dichos problemas se incluyen la localización y el conteo de sinapsis, el estudio de antibiogramas, o el uso de hongos para decolorar tintes.

Nota: la charla se trata de una prueba de tiempo de la conferencia del mismo título que el ponente impartirá en la jornada “Unbox Machine Learning para desarrolladores” que tendrá lugar en el Centro Nacional en Formación de Nuevas Tecnologías (Think-TIC) de Logroño el 19 de mayo (puedes encontrar más detalles sobre la jornada en el siguiente enlace).

Experiencias de un Data Scientist en el mundo empresarial

 

Ponente: Víctor Nalda Castellet (Data Scientist, Departamento de Investigación e Innovación en Modelos de Riesgo, Banco Santander)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: martes 2 de mayo, 12:00

Resumen: En esta ocasión vuelvo a mi universidad para mostraros cuáles son los retos a los que se enfrenta un matemático en el mundo empresarial, haciendo un repaso por el mundo del Big Data, desde Business Intelligence hasta Machine Learning. Todo ello lo ilustraremos con casos prácticos que pasan por sectores profesionales tan diferentes como las energías renovables, el fraude, las telecomunicaciones, la seguridad, la alimentación o la banca.