Deep Detection and Segmentation Models for Plant Physiology and Precision Agriculture

Ponente: Ángela Casado García (Grupo PSYCOTRIP, Universidad de La Rioja).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: miércoles 8 de noviembre de 2023, 12:00.

Resumen: In this thesis, we have focused on developing methods to improve the performance of deep object detection models. To achieve such a goal, we have used ensemble methods to devise an algorithm that enhances the accuracy and robustness of object detection models. Moreover, the proposed algorithm is the basis for defining semi-supervised learning techniques that reduce the number of annotated images that are required to train object detection models. In addition, we have simplified the creation and use of detection models by building an easy-to-use graphical interface. The developed methods and tools are not only applicable to object detection problems, but we have generalised them to a different computer vision task that is semantic segmentation. Finally, our work is not only theoretical, but it has also been applied to tackle actual problems in plant physiology and precision agriculture.

Nota: la charla se trata de una prueba de tiempo de la presentación de la Tesis Doctoral que Ángela realizará el día 16 de noviembre a las 10:00 en la Sala de Grados del Edificio CCT.

CASABee: el primer software de análisis espermático para insectos

Ponente: Ana Romero Ibáñez (Grupo PSYCOTRIP, Universidad de La Rioja).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: martes 30 de mayo de 2023, 12:00.

Resumen: La calidad del semen producido por los zánganos determina el éxito reproductivo de las abejas y su supervivencia, por lo que el estudio de su calidad espermática es de gran interés tanto para estudios básicos como aplicados. En este campo, existe la necesidad de desarrollar métodos informáticos para el análisis automático de la calidad del semen específicamente adaptados a las abejas melíferas, ya que los programas existentes hasta ahora (desarrollados para mamíferos) no son de utilidad. En este trabajo presentamos el sistema CASABee, un software de código abierto diseñado específicamente para el análisis automático de la motilidad y concentración espermática en zánganos de abejas melíferas. Trabajo conjunto con Jose Divasón, Pilar Santolaria y Jesús Yániz.

IA en la detección de enfermedades de la retina, del laboratorio a la práctica

Ponente: Dídac Royo Fibla (CEO, UPRetina), Miguel Ángel Zapata Victori (Director médico, Hospital Vall D’Hebron/UPRetina).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: viernes 24 de marzo de 2023, 10:00.

Resumen: UPRetina (https://www.upretina.com/en/) es una empresa que se dedica principalmente a la telemedicina en el campo de las enfermedades de la retina. Durante la charla comentaremos las principales líneas de trabajo, los primeros estudios y aplicaciones de la inteligencia artificial, así como las aplicaciones prácticas de redes neuronales que actualmente está utilizando UPRetina. Durante el encuentro se comentarán también las futuras líneas de investigación en inteligencia artificial previstas y otras líneas de trabajo que se están desarrollando en el mundo de la retina con el uso de la inteligencia artificial.

¿Reemplazará la IA a los artistas? Modelos de difusión y sus implicaciones

Ponente: Jónathan Heras Vicente (Grupo PSYCOTRIP, Universidad de La Rioja).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: martes 14 de febrero de 2023, 11:00.

Resumen: En el último año hemos visto un gran avance en la generación automática de imágenes gracias a los modelos de difusión. En esta charla veremos en qué consiste esta tecnología, los modelos de aprendizaje profundo que hay por detrás, las herramientas existentes, y las implicaciones éticas asociadas al uso de estas herramientas.

Nota: puedes acceder a las transparencias de la charla a través del siguiente enlace.

Modelo de detección temprana para la tinta del castaño a partir de imágenes tomadas mediante vuelos dron

Ponente: Antonio Rubio Loscertales (Coordinador I+D+i, SpectralGeo).

Lugar: Seminario Mirian Andrés (Edificio CCT).

Hora: martes 7 de febrero de 2023, 11:00.

Resumen: En esta charla se presentará el desarrollo del proyecto Phytoseek que busca aunar los resultados obtenidos mediante el uso de técnicas de teledetección y espectrometría con un desarrollo en inteligencia artificial. El objetivo es la creación de un modelo predictivo capaz de detectar la enfermedad de la tinta del castaño (Phytophthora cinnamomi), conocida por la ausencia de síntomas visibles que la caractericen. Durante la charla se describirá la metodología diseñada y ejecutada y se evaluarán los resultados obtenidos por el modelo creado.

Generative Few-Shot Learning

PonenteAdrián Inés Armas (Investigador Predoctoral, Grupo PSYCOTRIP, Universidad de La Rioja).

Lugar: Salón de Actos (Edificio CCT), o a través de Blackboard (https://bit.ly/salaDMC)

Hora: martes 31 de mayo de 2022, 12:00.

Resumen: El problema de few-shot learning en clasificación de imágenes consiste en crear un modelo que sea capaz de clasificar imágenes de nuevas clases usando un número muy reducido de imágenes de entrenamiento para cada clase. La dificultad de este problema radica en los pocos datos de entrenamiento que podemos usar y la gran cantidad de datos necesarios para entrenar modelos de Machine Learning o Deep Learning capaces de resolver este tipo de tareas.


En esta charla voy a contar el trabajo realizado en mi estancia de investigación en la Universidad Albert-Ludwigs de Alemania. En primer lugar, voy a introducir el problema de few-shot learning en la clasificación de imágenes, así como las aproximaciones que existen en la literatura. Posteriormente veremos cómo hemos abordado este problema usando redes generativas.

Generación de Datos de entrenamiento a partir de imágenes sintéticas para algoritmos de esquivación de objetos basados en Machine Learning

Ponentes: David Villota Miranda, Javier Rico Azagra, Montserrat Gil Martínez (Grupo de Investigación en Ingeniería de Control. Universidad de La Rioja)

Lugar: Salón de Actos (Edificio CCT), o a través de Blackboard (https://bit.ly/salaDMC)

Hora: martes 11 de enero, 11:00

Resumen: El aprendizaje automático (machine learning) es capaz de dotar a los vehículos autónomos de cierta inteligencia para sus funciones de navegación. Una de las principales funciones que un UAV (vehículo aéreo no tripulado) debe ser capaz de solventar es la evasión de objetos, en la cual se centrará este trabajo.

Para el adecuado entrenamiento de cualquier red neuronal, se precisa gran cantidad de información. En este caso, imágenes de paisajes diversos que han de ser capturadas desde el vehículo en movimiento. Entonces, con el fin de salvaguardar la integridad del dron, los entornos virtuales utilizados en videojuegos serán de gran ayuda para generar imágenes sintéticas. Esto permitirá obtener secuencias de imágenes también en ambientes en los que sería impensable volar un dron como, por ejemplo, la superficie lunar o cualquier lugar desconocido e inaccesible a día de hoy. En particular, se ha utilizado el motor gráfico Unreal Engine, en combinación con el “Plugin” Airsim, que embebe el movimiento del dron dentro del paisaje virtual y permite configurar el formato de adquisición de imágenes.

Para generar los datos de entrenamiento de la red neuronal, se parte de las imágenes anteriores cuyos píxeles codificarán la profundidad y, por tanto, se obtendrá un indicador de la probabilidad de colisión. De esta manera se dará solución a uno de los principales problemas en algoritmos de machine learning conocido como “transfer learning”. En muchas aplicaciones, las redes neuronales aprenden características muy concretas de los elementos como texturas, colores, composiciones, que posteriormente merman la versatilidad de la red neuronal. En este caso, la imagen se codifica en escala de grises con el fin de que la red neuronal aprenda a diferenciar las geometrías que vayan apareciendo, e insensibilizando su respuesta ante colores o texturas.

Con el fin de automatizar la generación del “ground-truth” se han desarrollado tres algoritmos de segmentación, que generan como salida el punto (coordenadas X-Y) óptimo o de menor probabilidad de colisión. Los tres algoritmos (Centro de masas, Regresión, Sectorización) utilizan fórmulas físicas y estadísticas como la fórmula de centro de masas, o cálculo de líneas de regresión utilizadas para la identificación de la posición y dirección de los píxeles de colisión. Finalmente se compararán los resultados de cada ellos en una red neuronal ResNet-8 que como salida arroje un punto objetivo dentro del área visualizada desde el UAV donde se estime la menor probabilidad de colisión.

Rompiendo la barrera del tiempo en microscopía

PonentesDiego Megías Vázquez (jefe de la Unidad de Microscopía Confocal del Centro Nacional de Investigaciones Oncológicas – CNIO), Gadea Mata Martínez (Universidad de La Rioja).

Lugar: online (https://bit.ly/salaDMC).

Hora: miércoles 31 de marzo, 10:00

Resumen: La adquisición de imagen en microscopía óptica de fluorescencia requiere la exposición de la muestra a potentes fuentes de luz y a la recogida de su emisión. A mayor tiempo de exposición mayor relación señal / ruido. Dicho aumento en el tiempo de exposición genera toxicidad y muchas veces impide poder seguir con claridad eventos celulares rápidos. Las muestras biológicas que se ensayan diariamente en microscopía han de ser capturadas intentando que las imágenes sean lo más rápidas y fieles a la realidad posible pero sin dañarlas. En este seminario os contaremos como el Machine Learning nos puede ayudar a conseguir estos objetivos.

Presentación del proyecto de reconstrucciones en tres dimensiones de la anatomía colorrectal y su aplicación en la práctica quirúrgica habitual

Ponentes: Natalia Pérez Serrano (Facultativo Especialista de Área de Cirugía General y del Aparato Digestivo en Hospital San Pedro de Logroño), José Fernando Trebolle (Facultativo Especialista de Área de Cirugía General y del Aparato Digestivo en Hospital Royo Villanova de Zaragoza. Colaborador Docente de la Universidad de Zaragoza).

Lugar: online (https://bit.ly/salaDMC).

Hora: martes 15 de diciembre, 12:00

Resumen: La charla explicará la aplicación de los programas de reconstrucción en tres dimensiones en cirugía. El proyecto se basa en la anatomía del colon por su variabilidad anatómica y de sus posibles alteraciones, lo que hace necesario un estudio individualizado de los casos.

Dicha reconstrucción permite la realización de modelos en tres dimensiones de cada uno de los pacientes. Estos modelos pueden ser reproducidos en la pantalla del ordenador y proyectados en el propio quirófano a través de una aplicación móvil. Los trabajos son publicados en la Plataforma Virtual UNITOMÍA.

Biografía.

Natalia Pérez Serrano: Licenciada en Medicina y Cirugía en la Universidad de Zaragoza (2008-2014). Tesis Doctoral “Imagen Tridimensional de la Patología Oncológica del Colon y su Aplicabilidad como Planificación Quirúrgica en Cirugía Endoscópica” (en curso). Máster Profesional Médico- Quirúrgico sobre Disfunciones del Suelo Pélvico (2018-2019). Facultativo Especialista de Área de Cirugía General y del Aparato Digestivo en Hospital San Pedro de Logroño.

José Fernando Trebolle: Licenciado en Medicina y Cirugía en la Universidad de Zaragoza (1999-2005). Doctor por la Universidad de Zaragoza  con la Tesis Doctoral “Aplicación de la imagen tridimensional a la cirugía laparoscópica del colon. Análisis morfométrico a partir de reconstrucciones de TAC. Estudio en cadáver y en vivo” (Diciembre 2015). Máster en Coloproctología por la Universidad de Zaragoza (2012-2014). Facultativo Especialista de Área de Cirugía General y del Aparato Digestivo en Hospital Royo Villanova de Zaragoza. Colaborador Docente de la Universidad de Zaragoza.

Inteligencia Artificial para Interpretar Mapas

Ponente: Jónathan Heras Vicente (Universidad de La Rioja)

Lugar: Seminario Mirian Andrés (Edificio CCT)

Hora: miércoles 4 de octubre, 11:00

Resumen: La segmentación semántica es una técnica de Inteligencia Artificial que tiene como objetivo el ser capaces de comprender una imagen al nivel de píxel, es decir ser capaces de otorgar una etiqueta o categoría a cada píxel de una imagen. Por ejemplo, en el caso que nos ocupa en esta charla, queremos ser capaces de distinguir en una imagen aérea los píxeles que pertenecen a edificaciones, a carreteras o que son considerados como fondo.

En esta charla, presentamos como las técnicas de aprendizaje profundo pueden ser aplicadas a la segmentación semántica y su aplicación a la detección de edificaciones y carreteras en imágenes aéreas disponibles en IDERioja.

Puedes acceder a las transparencias de la charla a través de este enlace.

Nota: el blog de la comunidad de la Infraestructura de Datos Espaciales de España  (IDEE) recoge en una entrada el contenido de la charla. Puedes acceder a la entrada en el siguiente enlace.