Jornada de investigación de Doctorandos Enero 2024

Fecha: 22 de enero de 2024

Organización de las Jornadas

  • La jornada estará organizada en sesión única a las 15:00.
  • Cada ponente dispondrá de 10 minutos para realizar su presentación más 5 minutos para responder a preguntas.
  • Las ponencias serán presenciales (en la sala de grados de la Facultad de Informática), mientras que la asistencia podrá ser presencial u online (por Google Meet, en un enlace enviado por correo electrónico a ponentes e interesados potenciales).

Presentaciones

Sesión 1: 15:00 - 17:15

Ponente Ponencia Resumen
Pablo Gutiérrez Sánchez Herramientas para el diseño y evaluación de experiencias interactivas El aprendizaje por refuerzo establece un marco prometedor para crear personajes y agentes autónomos en juegos en diversos contextos. Sin embargo, diseñar estos agentes, y especialmente sus funciones de premio para guiar la toma de decisiones secuenciales, puede ser desafiante y a menudo requiere un laborioso proceso de ensayo y error. Esta presentación describirá una aplicación conjunta de enfoques apoyados en aprendizaje por refuerzo y de un sistema de descripción de comportamientos cercano al diseñador para el diseño de personajes no jugadores (NPC) que pueden ser utilizados como sustitutos del jugador en tales contextos. En particular, nuestro sistema permite expresar comportamientos mediante una herramienta visual basada en nodos (Behavior Graphs), que traduce las intenciones del diseñador a un lenguaje formal de especificación de tareas fundamentado en lógicas temporales (LTL). A partir de estas especificaciones, se propone un nuevo algoritmo para la generación de premios en RL que resulta fácil de interpretar y depurar, y que no requiere una especificación manual de la función de premio, basado en representaciones por autómatas de los predicados del diseñador. Estas técnicas permiten a los diseñadores definir naturalmente cómo esperan que los jugadores interactúen con un nivel del juego y validar automáticamente esta estrategia a lo largo del desarrollo
Carlos Bilbao Muñoz Diseño de software de sistema eficiente para la planificación y gestión de recursos optimizada en arquitecturas multinúcleo En esta presentación discutiré el enfoque central de mi Tesis Doctoral: la optimización del software de sistema para llevar a cabo una gestión de recursos y planificación mejorada (y totalmente automática) en arquitecturas multinúcleo. El primer paso en nuestra investigación consistió en abordar los desafíos asociados con el desarrollo ágil de estrategias novedosas de planificación y gestión de recursos que requieren la modificación de un sistema operativo real. Como resultado, construimos el framework PMCSched: una herramienta de software libre construida sobre el kernel Linux, que ha sido concebida para facilitar la investigación sobre el software de sistema en entornos reales.
Borja Morcillo Salgado Generación rápida de arquitecturas hardware para el procesado de imágenes hiperespectrales Breve resumen de la misma: Las imágenes hiperespectrales representan la radiación electromagnética más allá del espectro visible, tal que cada uno de sus píxeles contiene cientos de muestras equiespaciadas, correspondientes a un intervalo fijo de longitudes de onda. Esto permite analizar características no visibles de las escenas u objetos capturados, resultando de gran utilidad en múltiples campos: estudio de minerales, agricultura, astronomía... Dichas imágenes conforman elevados volúmenes de datos, por ende, es conveniente someterlos a algoritmos que automaticen parcialmente su interpretación. No obstante, para satisfacer las restricciones de alto rendimiento y bajo consumo energético exigidas de cara al procesamiento embarcado en tiempo real, es necesario recurrir a diseños hardware personalizados. Gracias a su flexibilidad, las FPGAs reúnen todas las condiciones para albergar los citados algoritmos de procesamiento. Sin embargo, su principal inconveniente es el elevado tiempo de desarrollo y depuración del diseño; por ello, el objeto de esta presentación es un método novedoso para la implementación rápida de arquitecturas hardware, orientado a algoritmos hiperespectrales. Este se basa en el uso de módulos paramétricos estandarizados, previamente definidos y verificados, de modo que el programador pueda abstraerse de los detalles internos del diseño.
Clara Isabel López González Análisis y poda de Redes Neuronales Convolucionales desde el punto de vista de la Inteligencia Artificial eXplicativa (XAI). Uno de los problemas actuales de las masas de agua continentales, con un riesgo para la salud pública, es la proliferación de cianobacterias nocivas. Para detectarlas y alertar de su presencia se han desarrollado modelos de Redes Neuronales Convolucionales (RNC), centrados en la segmentación de imágenes captadas con cámaras a bordo de Vehículos Autónomos de Superficie (VAS). El uso de estas técnicas en imágenes de exterior supone un reto, debido a reflejos o cambios de iluminación, entre otros factores ambientales. Además, la tendencia a ampliar las redes neuronales en anchura y profundidad dificulta enormemente su uso en dispositivos pequeños con recursos limitados (VAS). Es por ello necesario analizar estos modelos de RNC para su mejora, así como desarrollar técnicas de compresión que mantengan precisión y rendimiento. Esta presentación aborda estas dos cuestiones desde el punto de vista de la Inteligencia Artificial eXplicativa (XAI), que busca comprender y explicar la toma de decisiones de las redes neuronales, intentando así solventar su característica de caja negra. Gracias a ello, se desarrollan métodos efectivos y novedosos de poda y explicabilidad. Para este estudio se requieren grandes cantidades de imágenes, necesitando utilizar datasets con este requisito ante la carencia de imágenes de cianobacterias suficientes.
Escolástico Sánchez Martínez Quantum and Simulated Annealing in Finance Hard problems in finance are the nearest-term arena for exploiting the full power of Quantum Computing. Be it optimization problems, such as portfolio optimization, simulation, such as option pricing or risk analysis, or machine learning, such as fraud detection, Quantum Computing has been proposed as an alternative to boost run-times and enhance precision in relevant financial metrics . In this presentation I will start from a renowned classical algorithm for optimization, known as Simulated Annealing, which is closely related to the algorithm proposed by Fujitsu for their Digital Annealer. Simulated Annealing is an optimization technique where one tries to avoid the solution to get trapped in a local minimum/maximum by means of randomly changing the iteration of the optimal candidate (so called "generalized thermal agitation").  The document then progresses to discuss Quantum Annealing. This technique is particularly suited for solving combinatorial optimization problems, which are ubiquitous in industrial applications. The main player in this field is D-Wave, whose annealers have already been put to work in more than 250 applications across different industries.
Ginés Carrascal de las Heras Computación cuántica aplicada a problemas financieros

Análisis de riesgos empleando Redes Bayesianas Cuánticas. Planteamiento de un nuevo modelo restringido (RQBN) para el cálculo de probabilidades de fallo en sistemas complejos con probabilidades condicionales (aplicado a un ejemplo de red de distribución eléctrica para facilitar la comprensión del modelo)

Optimización de Portfolio: Análisis sistemático de diferentes paradigmas de cálculo de optimización clásicos y cuánticos, utilizando datos históricos de cotización lo largo de varios años, sobre 10000 diferentes combinaciones de acciones sobre las que elegir, y aplicando los modelos en condiciones equivalentes para extraer datos estadísticamente significativos. Este es el primer estudio de backtesting de este tipo que se realiza (en nuestro conocimiento) para este tipo de algoritmos aplicado a servicios financieros.. Se acompaña además de análisis y pruebas para el empleo de este tipo de modelos en computadores reales de 127 qubits.

Elías Plaza Alonso Lógica borrosa aplicada a la gestión de dispositivos de hiper-sustentación en aviones Presentamos un sistema inteligente para automatizar las acciones del piloto relativas al control de dispositivos de hiper-sustentación en aviones comerciales, con el objetivo de aumentar la seguridad operacional en el ámbito aeronáutico: dichos dispositivos tienen un importante impacto en la seguridad ya que si no se despliegan en los momentos necesarios pueden ser causa de accidentes aéreas (como ha ocurrido en algunas ocasiones). El sistema modular diseñado utiliza lógica borrosa en los dos módulos principales (identificación de fase de vuelo y comando de palanca de flaps) con el objetivo de adaptar de forma segura la envolvente de velocidad de la aeronave mediante el cambio de la posición de los dispositivos de hiper-sustentación (flaps y slats) en los momentos adecuados. De esta forma, el sistema borroso decide cuándo y cómo utilizar estos dispositivos como lo haría un piloto humano, pero de forma automática, interpretando la fase de vuelo y los márgenes hasta  las velocidades máximas y mínimas permitidas. Los resultados de la simulación en un escenario real muestran el comportamiento esperado y han sido evaluados cuantitativamente mediante métricas. 
Handy Kurniawan qEmQUIP: Platform to Compare Noise-Aware Quantum Compilation Techniques The primary focus of this presentation revolves around the pivotal challenge of enhancing the success rate of algorithms executed on noisy quantum processors, a critical aspect for generating reliable results. A key strategy in achieving this objective is the optimization of compilation techniques. To address this, we propose the establishment of a comprehensive platform designed for the comparative analysis of state-of-the-art compilation techniques.
The core purpose of this platform is to facilitate a fair and rigorous comparison by ensuring a uniform environment, conditions, and metrics across evaluations. By employing standardized parameters, we aim to establish a robust foundation for assessing the effectiveness of proposed compilation techniques. The presentation will delve into the significance of this approach, emphasizing the need for objective evaluations to discern whether the introduced techniques indeed offer improvements in terms of success rates.