Jornada de investigación de Doctorandos Julio 2024

Fecha: 10 de julio de 2024

Organización de las Jornadas

  • La jornada estará organizada en dos sesiones:
    • La primera 15:30 - 16:45
    • Descanso 16:45 - 17:00
    • La segunda 17:00 - 18:00
  • Cada ponente dispondrá de 10 minutos para realizar su presentación más 5 minutos para responder a preguntas.
  • Las ponencias serán presenciales (en la sala de grados de la Facultad de Informática), mientras que la asistencia podrá ser presencial u online (por Google Meet, en un enlace enviado por correo electrónico a ponentes e interesados potenciales).

Presentaciones

Sesión 1: 15:30 - 16:45

Ponente Ponencia Resumen
Nicolás Bueno Mora Towards more representative simulation intervals for cache memory system.

En los últimos años el rendimiento de los procesadores ha aumentado significativamente, a la par que la complejidad a nivel de diseño de las organizaciones en las que estos se integran. En consecuencia, la simulación entraña una mayor dificultad. En muchos sistemas actuales la jerarquía de memoria es uno de los componentes más relevantes por su significativo impacto en el rendimiento, consumo de energía y área ocupada, por lo que su evaluación experimental mediante simulación resulta decisiva en el diseño. Las nuevas tecnologías de memoria y el incremento de las cargas de trabajo multiplican la dificultad del reto de simular de manera precisa y eficiente el comportamiento de la jerarquía de memoria. Existen diversas estrategias de simulación, con compromisos entre flexibilidad, velocidad y precisión. Una de las más utilizadas en investigación consiste en caracterizar las cargas de trabajo (benchmarks), seleccionando un subconjunto para posteriormente simularlo mediante un simulador arquitectónico detallado, como gem5. Los objetivos generales son por un lado, evaluar si las metodologías actuales de simulación siguen siendo válidas con los nuevos sistemas de memoria y por otro lado, y a la luz de los resultados obtenidos en el anterior, proponer alternativas en los aspectos que sea necesario mejorar, exponiendo el compromiso "tiempo de simulación vs. precisión".

María José Belda Beneyto Explorando arquitecturas heterogéneas con Arrays Reconfigurables de Grano Grueso

En la actualidad, en los campos del Internet de las Cosas (IoT), la Inteligencia Artificial (IA) y la monitorización médica, se emplean algoritmos que requieren operaciones intensivas como multiplicaciones de matrices y la Transformada Rápida de Fourier (FFT). Estas tareas son computacionalmente costosas y pueden ser paralelizadas para mejorar su eficiencia. En estos ámbitos, existen dos escenarios principales: los sistemas de Computación de Alto Rendimiento (HPC) y los sistemas empotrados. Los sistemas HPC buscan maximizar el rendimiento sin restricciones significativas de energía, priorizando la velocidad y la capacidad de procesamiento masivo. Por otro lado, los sistemas empotrados operan bajo estrictas limitaciones de energía y tiempo, ya que suelen estar integrados en dispositivos portátiles o de bajo consumo. Para satisfacer las demandas específicas de cada escenario, se recurre a arquitecturas heterogéneas que combinan diferentes tipos de procesadores y aceleradores. En este

contexto, añadimos un acelerador específico conocido como Array Reconfigurable de Grano Grueso (CGRA). Los CGRA son ideales porque pueden ser adaptados para ejecutar diferentes algoritmos, optimizando el rendimiento en HPC o la eficiencia energética en sistemas empotrados. Así, se logra una solución balanceada que cumple con los requisitos particulares de rendimiento y eficiencia de cada entorno.

Daniel León González Comparativa de la sensibilidad frente a soft errors según las extensiones ISA RISC-V en un procesador COTS de Western Digital. Se presenta una comparativa de la sensibilidad a soft errors, dependiendo de las extensiones ISA RISC-V utilizadas, cuando se ejecutan distintas aplicaciones, de interés en el sector aeroespacial, en el procesador comercial VeeR EH1 de Western Digital, basado en arquitectura RISC-V. Para ello, se ha utilizado una plataforma de inyección de errores, diseñada al efecto, capaz de inyectar soft errors en todos los registros arquitectónicos y microarquitectónicos del procesador, sin modificar el núcleo del procesador original. Los errores se han categorizado en función de las consecuencias que tienen sobre la ejecución normal del procesador, así como de la unidad del mismo en la que se inyectan. Se ha comprobado asimismo cómo distintos binarios, funcionalmente iguales, generados al compilar estos programas utilizando diferentes extensiones de la ISA, se ven afectados de diferentes maneras ante soft errors, abriendo la posibilidad de compilar funciones selectivamente según la combinación deseada de fiabilidad/velocidad/tamaño del código. Esta técnica software de mitigación de errores no sustituye, sino que se suma, a otras previamente estudiadas como la modificación de compiladores para crear redundancia por software o la selección de optimizaciones adecuadas del compilador. De la misma forma, puede ser utilizada simultáneamente con otras técnicas de mitigación hardware.
Jefferson Andrés Bravo Montes. A Methodology to Select and Adjust Quantum Noise Models. En esta presentación se expone una metodología agnóstica que permite implementar y ajustar modelos de ruido cuántico en entornos de emulación, utilizando valores de calibración de un procesador cuántico real. El objetivo de este trabajo es resaltar el valor del uso de emuladores cuánticos, que ofrecen ventajas como disponibilidad, escalabilidad, flexibilidad de hardware y software, coste y baja latencia. Este estudio incluye una evaluación y comparación de precisión en términos de fidelidad y latencia entre los entornos de emulación y un procesador cuántico. Para ello, se han evaluado cinco circuitos cuánticos que presentan diferentes características, como número de qubits, número de puertas de uno y dos qubits, profundidad, peso y funcionalidad. Los seis modelos de ruido que se utilizan en este trabajo contemplan fuentes de ruido provenientes de la inicialización de los qubits, puertas cuánticas (uno y dos qubits), entorno y medida. El backend de referencia utilizado para este experimento ha sido el ibm_perth, mientras que los entornos de emulación estudiados han sido Qaptiva y Qiskit. Los resultados obtenidos en esta propuesta han sido prometedores, lo que ha permitido la redacción de un artículo científico que se encuentra en la etapa inicial de revisión.

Sesión 2: 17:00 - 18:05

Ponente Ponencia Resumen
Juan Sandubete López Mejora, comprensión y evaluación de redes neuronales profundas aplicadas al modelado de sistemas complejos.

Existen cada vez más sistemas autónomos concebidos para el estudio y supervisión de ecosistemas. Un ejemplo son los ecosistemas acuáticos, donde se pueden desarrollar dinámicas de interacción complejas entre magnitudes físicas (radiación solar, flujo, presión, etc.) y bioquímicas (pH, sustancias disueltas) en conjunción con la microbiología local, como cianobacterias. Asimismo, la microfluídica embarcada es una candidata prometedora para facilitar el estudio de estos complejos ecosistemas al permitir la recolección y análisis de muestras in situ y distribuida. Añadir estos sistemas de análisis microfluídico podría permitir, junto con los sistemas de medida ya existentes, el desarrollo de modelos que reflejen con mayor precisión la complejidad de las dinámicas estudiadas. No obstante, los sistemas microfluídicos pueden resultar difíciles de diseñar y operar debido a las comunes diferencias entre su diseño teórico y su implementación real. Así pues, en esta tesis se estudia el uso algoritmos, simulación y aprendizaje profundo para facilitar el diseño de los sistemas microfluídicos, su modelado y operación, así como la implementación embarcada de los modelos de redes neuronales para la predicción in situ de la evolución de florecimientos de cianobacterias.

Juan Bayón Fernández Filtro de luz azul aplicado a vídeo en tiempo real preservando el color, el contraste y la calidad.

 La luz azul presente en los dispositivos móviles tienen una función reguladora del organismo en procesos como el sueño o el hambre. Además, la exposición directa está asociada con el desarrollo o empeoramiento de ciertas enfermedades. De hecho, las personas con alguna afección la encuentran molesta y tratan de evitarla. Muchos dispositivos del mercado poseen sistemas de filtrado para controlar su emisión, pero modifican significativamente la mayoría de colores. Nuestro trabajo propone un nuevo procedimiento para reducir la representación de color o Gamut de la pantalla y filtrar las emisiones más energéticas conocidas como luz azul. El filtro absorbe hasta el 100% de emisiones azules, respetando el contraste, la calidad y la mayor parte de colores. Se consigue un resultado lo más realista posible, con una identificación de los colores adecuada en más de un 90% de los casos. El proceso se realiza en tiempo real para vídeo y ha sido testado en gafas de realidad aumentada con buenos resultados. Las mediciones preliminares usando un espectrofotómetro demuestran los resultados teóricos y la propuesta se considera de interés para su aplicación en todo tipo de dispositivos. Especialmente, se busca su inclusión en el sistema de ayuda y rehabilitación Retiplus, para personas con baja visión, compuesto por un móvil Android y unas gafas de realidad aumentada de última generación. 

Carlos Moral Rubio A Machine Learning Perspective on Personalized Medicine. Mi trabajo consiste en el estudio y aplicación de técnicas y modelos computacionales de aprendizaje automático para la creación de un modelo personalizado en la aplicación del tratamiento rTMS (repetitive Transcranial Magnetic Stimulation) a través de la señal EEG (electroencefalograma), recogida por los pacientes antes y después del tratamiento (los datos pertenecen a un estudio clínico real realizado por el Hospital Clínico San Carlos). Me encuentro en la fase final de la tésis, por lo que explicaré todo el proceso completo realizado y la metodología seguida: Tratamiento señal EEG. Generación de features para cada paciente a partir de diversas transformaciones y análisis realizados sobre EEG y otras herramientas. Aplicación de test estadísticos sobre test clínicos antes y después del tratamiento para encontrar variable target en el modelo de personalización. Generación del modelo de personalización final a través de algoritmos de Machine Learning.
Jaime Villanueva García Construcción de modelos de microsimulación para la evaluación de políticas públicas. Ciencia de datos aplicada a la mejora del gasto público. El sistema de pensiones debe permitir a las personas disfrutar de una jubilación después de su vida laboral, y suponen una importante (o única) fuente de ingresos para una gran proporción de la población que envejece, actuando como elemento de protección contra la pobreza en la mayoría de los europeos mayores (Comisión Europea, 2014). La construcción de herramientas de microsimulación permite analizar simultáneamente la sostenibilidad y adecuación del sistema de pensiones en distintos contextos normativos. Al considerar una óptica micro -no considerada en simuladores anteriores- es capaz de estimar de forma más precisa las pensiones de entrada que tendrán los futuros pensionistas durante el periodo de implementación de cualquier reforma propuesta (microsimulación sin comportamiento). Adicionalmente, el trabajo diseña e implementa diferentes modelos de machine learning con el fin de predecir el comportamiento en la decisión de jubilación de los individuos, factor más complejo y determinante en este tipo de modelos de microsimulación (microsimulación con comportamiento).
Andrea Peña Calvin Concentración de poder y participación en la gobernanza en línea: el ecosistema de las organizaciones autónomas descentralizadas

La presentación aborda las dinámicas de las Organizaciones Autónomas Descentralizadas (DAOs) en el ecosistema Web3. Las DAOs utilizan la tecnología blockchain

para crear comunidades en línea autogestionadas, donde la gobernanza se realiza generalmente mediante votaciones con tokens de gobernanza.  Esta investigación presenta el primer análisis cuantitativo exhaustivo de más de 30.000 comunidades DAOs, proporcionando información sobre su  longevidad, tasas de participación y concentración de poder. El estudio revela que la mayoría de las DAOs tienen una vida corta y bajas tasas de participación. Además, se encuentra una correlación positiva entre el tamaño de una comunidad y la concentración de poder de voto, lo que sugiere que a medida que las DAOs crecen, tienden a volverse más oligárquicas. Sin embargo, algunas DAOs siguen manteniendo principios igualitarios, desafiando esta tendencia.