Jornada de Investigación de Doctorandos 2015

Fecha: 8 de septiembre de 2015, de 10 a 13:30

Lugar: Sala de Grados, Facultad de Informática

Organización de las Jornadas

  • La jornada estará organizada en dos sesiones: 10:00-11:30 y 12:00-13:30.
  • Cada ponente dispondrá de 10 minutos para realizar su presentación más 5 minutos para responder a preguntas.

Presentaciones

Sesión 10:00-11:30

PonentePonenciaResumen
Josefa Díaz Álvarez Optimización de rendimiento y consumo energético del subsistema de memoria mediante nuevas técnicas basadas en metaheurísticas

Los sistemas empotrados han experimentado un considerable desarrollo en las últimas décadas. Los nuevos dispositivos portátiles, a pesar de la limitación de recursos, incrementan su funcionalidad y esto lleva a un requerimiento mayor de rendimiento.

El diseño de sistemas empotrados, gracias a las mejoras en la tecnología de los procesos de fabricación, nuevas técnicas aplicadas al diseño de la arquitectura o el desarrollo de algoritmos más eficientes, ha permitido incrementar el rendimiento, la fiabilidad, velocidad, seguridad y reducir el consumo de energía.

Sin embargo, los cambios en el consumo de potencia pueden derivar en fallos temporales, en la necesidad de reducir la frecuencia de trabajo del procesador, producir una degradación del rendimiento e incluso causar fallos permanentes del microprocesador. Además, en el caso de dispositivos portátiles alimentados por baterías, cuya capacidad y tamaño están limitados por restricciones de diseño, el problema puede llevar a comprometer la fiabilidad del sistema, sin olvidar el coste de un sistema de enfriamiento eficiente.

Se considera fundamental la identificación temprana de los puntos calientes para obtener un diseño eficiente. En este sentido, uno de los componentes cuya influencia sobre el rendimiento y el consumo de energía ha quedado suficientemente demostrada, es el subsistema de memoria y su optimización es el objetivo que se aborda en este trabajo de tesis.

José Manuel Bote Rosado Algoritmo de delineación de ECG de baja complejidad para sistemas empotrados de tiempo real

El electrocardiograma (ECG), que representa la actividad eléctrica del corazón, es una herramienta esencial en la monitorización de pacientes en la actualidad. Disponer de un algoritmo que sea capaz de delinear los puntos característicos del ECG tanto en ámbitos hospitalarios como en situaciones de prevención es de vital importancia. Hoy en día, tanto la precisión en la detección de estos puntos como ser capaces de poder extender al máximo la duración de las batería de los dispositivos empotrados que realizan esta delineación, son temas muy a tener en cuenta en la implementación de esta tecnología.

Se ha desarrollado un algoritmo de detección de puntos característicos del ECG en tiempo real, de baja complejidad, modular y capaz de desarrollar la delineación de forma completa o parcial, según las necesidades del paciente en cada momento. El algoritmo, basado en derivadas de la señal de ECG filtrada, ha sido validado con la base de datos "QT database" elaborada a partir de pacientes con enfermedades cardiacas extremas. Presenta una tasa de sensibilidad muy alta, similar a técnicas más complejas, y una desviación estándar de la media del error dentro de los estándares aceptados médicamente (Common Standards for Electrocardiography (CSE)) para todos los puntos característicos excepto para el onset de la onda P.

El algoritmo desarrollado es muy versátil, con consumos energéticos muy bajos en nodos comerciales y capaz de delinear en diferentes modos de consumo de energía, realizando delineaciones completas o reduciendo este consumo hasta en un 70% en situaciones donde los pacientes no presenten problemas cardiacos como taquicardias o bradicardias.

David Guillermo Fernández Herrera Complexity Reduction in the HEVC/H265 Standard Based on Smooth Regions Classification

En el trabajo realizado se proponen una serie de medidas para reducir el coste computacional del estándar de compresión de vídeo HEVC sin obtener pérdidas de calidad apreciables. Como primera aportación se ha trabajado sobre el concepto de regiones “smooth”, buscando utilizar una detección de regiones de este tipo sencilla pero eficaz. Sobre esta clasificación se han aplicado una serie de algoritmos que simplifican las herramientas del estándar HEVC conocidas como Predicción Intra, Predicción Inter y la decisión de tamaño de bloque a aplicar. Por otro lado, se ha mejorado la calidad global de las secuencias de vídeo utilizadas en las pruebas, disminuyendo el parámetro de cuantificación (QP) en dichas zonas de la imagen. Las mejoras aportadas por esta clasificación junto a la adopción de otras simplificaciones, han permitido lograr la codificación HEVC en tiempo real en una plataforma de bajo coste.

Daniel Fernández Gámez Reducción dimensional y compresión de imágenes hiperespectrales usando hardware reconfigurable

En la actualidad, la observación remota de la superficie terrestres mediante el análisis de imágenes es un área de investigación , con numerosas contribuciones en la literatura científica. Para llevar a cabo estas investigaciones es necesario recolectar grandes cantidades de información que serán procesadas en satélites o en plataformas aéreas usando técnicas de procesamiento paralelo en sistemas multiprocesador o en unidades de procesamiento grafico(GPU) intentando evitar el consumo excesivo de energía.

Debido a la alta dimensionalidad de los datos, los algoritmos de análisis hiperespectrales (desmezclado espectral, clasificación, detección de objetivos, detección de anomalías, etc. ) tienen un alto coste computacional. Este coste es una desventaja significante en aplicaciones en aplicaciones que requieren respuesta en tiempo real, como seguimiento de incendios, prevención y vigilancia de desastres naturales, vertidos de productos químicos o polución medioambiental.

Para solventar estos problemas, unas de las soluciona más usadas es la reducción dimensional, la cual elimina el ruido e información relevante de la imagen. Por lo tanto es posible reducir significativamente el tamaño de la imágenes y mejorar la complejidad de los algoritmos y el almacenaje de datos.

Por otra parte las FPGA(Field Programmable Gate Arrays) están especialmente recomendadas en aplicaciones de observación remota que requieren repuesta en tiempo real debido a que sus características tales como la reconfiguración, su bajo consumo, su tamaño compacto y su alto poder de computación a bordo de un satélite por lo que son la solución perfecta para realizar la implementación de estos tipos de algoritmos.

Fernando Román Muñoz Optimización del análisis de vulnerabilidades en aplicaciones Web (CANCELADA)

Para poner orden en las vulnerabilidades Web que van surgiendo progresivamente varias organizaciones elaboran listas que las clasifican. También se han desarrollado mapeos de unas listas con otras, para que sea posible identificar una misma vulnerabilidad en cada una de ellas. Todos estos mapeos proporcionan información estática, actualizada al momento en que se realizaron. Además ninguno de estos mapeos es completo de forma que incluya todas las vulnerabilidades Web de las clasificaciones más conocidas. Para dar respuesta a esta necesidad, en este artículo se propone un método para relacionar, y mantener actualizadas, las vulnerabilidades incluidas en las clasificaciones existentes. El objetivo es disponer de una lista unificada y actualizada de vulnerabilidades Web que incluya tanto estas como las relaciones entre ellas. El proceso que aquí se describe incluye la reducción de las descripciones de cada vulnerabilidad a un pequeño conjunto único de palabras que la determine y que posteriormente se usa para buscar nuevas relaciones entre estas vulnerabilidades.

Descanso 11:30-12:00

Sesión 12:00-13:30

PonentePonencia
Ana Rus Cano Moreno Marco metodológico para el diseño de Serious Games inclusivos

La finalidad de mi trabajo de tesis es proponer un marco metodológico para tratar de mejorar el proceso de diseño de Videojuegos Serios o Serious Games, concebidos para su uso por personas con discapacidad intelectual. Estos videojuegos tienen como objetivo principal la adquisición de un conocimiento específico y/o la mejora de una o varias habilidades en los jugadores para mejorar su calidad de vida. Por tanto, estos juegos se pueden considerar como herramientas de E-Learning.

Como resultado de la investigación se pretende obtener un conjunto de directrices o buenas prácticas que sirvan como guía para diseñar videojuegos adecuados para personas con discapacidad intelectual. Éstas se recogerán en un marco metodológico que englobe, no sólo el diseño, sino todo el proceso de desarrollo de un Serious Game. Además, en paralelo, estamos desarrollando una prueba de concepto o prototipo, cuya beta se presentará en la jornada, con las premisas de diseño que queremos testar y validar con usuarios.

Maximiliano Miranda Esteban

Definiendo factores de diversión en videojuegos de Estrategia en Tiempo Real con una aproximación desde la Inteligencia Artificial

Recientes estudios afirman que en la actualidad en el mundo hay más de 700 millones de personas que juegan a videojuegos online. Entre todos los géneros de videojuegos, el de Estrategia en Tiempo Real es uno de los más jugados. Sin embargo, estos juegos presentan un serio problema de accesibilidad para jugadores novatos, debido a su dilatada curva de dificultad y a la necesidad de compartir partidas con otros jugadores para desarrollar habilidades y estrategias. A menudo los modos offline, que incluyen partidas contra jugadores virtuales, de estos videojuegos suelen mostrar claros problemas de falta de diversión cuando los jugadores adquieren un nivel medio, presentando IAs demasiado simples que repiten patrones y “se dejan ganar” o bien bots muy avanzados que son prácticamente imposibles de batir debido a una visión analítica-matemática del campo de batalla. En las primeras etapas de nuestra tesis tratamos de identificar y definir aquellos parámetros jugables que hacen divertida una partida en un videojuego de este género para, a posteriori, desarrollar una Inteligencia Artificial para jugadores virtuales parametrizable en función de las características deseadas por un jugador humano (como pueden ser duración de la partida, intensidad, imprevisibilidad, etc.).

David Carvajal Garrido Realidad aumentada, realidad virtual y videojuegos para mejorar la capacidad espacial en carreras STEM

La sociedad actual demanda cada vez más expertos (y mejor formados) en ciencias, ingeniería y tecnología, y dichas carreras requieren a su vez el desarrollo de las capacidades espaciales (habilidades cognitivas como rotación mental, visión espacial, orientación, etc.).

Sin embargo, muchos de los alumnos que acceden a estas carreras presentan carencias importantes al respecto, y el desarrollo de estas habilidades es muy complicado (y más en la edad adulta), lo cual genera un problema importante para la formación de las futuras generaciones de expertos.

Por otro lado, en la actualidad estamos siendo testigos del surgimiento de distintas tecnologías inmersivas, desde los videojuegos a la realidad virtual, pasando por la realidad aumentada. Estas tecnologías ofrecen un enorme potencial para convertirse en una solución efectiva y totalmente novedosa de cara a mejorar las capacidades espaciales de los estudiantes.

La presente tesis doctoral parte de la hipótesis de que el uso de dichas tecnologías son beneficiosas para el desarrollo de las capacidades espaciales, y para probarlo busca como objetivo principal de la investigación conseguir resultados positivos en experimentos con dispositivos móviles, cascos de realidad virtual y videojuegos, logrando así un mejor entendimiento del rol de estas tecnologías en el desarrollo de capacidades espaciales.

Daniel Tabas Madrid Desarrollo de algoritmos y herramientas para genómica y proteómica

Con el desarrollo de técnicas de alto rendimiento en los campos de genómica y proteómica, la cantidad de datos generados que han de ser procesados ha aumentado de forma espectacular en los últimos años. Analizar e interpretar estos datos requiere de una enorme capacidad de cómputo y de algoritmos cada vez más sofisticados, además de su mayor complejidad, que requiere de nuevas formas de presentarlos para ser entendidos por los investigadores. En este contexto se presentan una serie de desarrollos, tales como un dashboard web que integra la descarga, análisis y presentación de datos proteogenómicos de diversos recursos públicos de una forma automatizada y eficiente. En esta dirección también se presenta un novedoso método de predicción de interacciones microRNA con RNA mensajero que utiliza datos de procedentes de otras bases de datos de predicción, analizándolas, y recalculando las puntuaciones de las predicciones, mejorando así la precisión de las mismas. A un nivel de análisis de más alto nivel se han propuesto también varios desarrollos, en los que, a partir de listas de genes y proteínas, se pueden realizar análisis funcionales de anotaciones biológicas y búsquedas de experimentos similares ubicados en repositorios públicos con el propósito de encontrar posibles nuevos tratamientos en el ámbito del reposicionamiento de fármacos.

Jose Luis Jorro Aragoneses Sistema de diseño de sistemas recomendadores contextuales y sociales

En esta presentación resumiré los objetivos de mi tesis y la progresión que he tenido durante el curso 2014/2015. El principal objetivo es describir una arquitectura que diseñe sistemas de recomendación contextuales y sociales.

En primer lugar explicaré que se entiende por contexto en los sistemas recomendadores y como se puede clasificar el contexto según su significado. A continuación, veremos como se pueden clasificar los sistemas de recomendación según la información de sus elementos, es decir, los usuarios que usan el sistema recomendador y los items recomendados.

A continuación, veremos el trabajo realizado sobre uno de los tipos de contexto, el contexto emocional. Se explicará el algoritmo PhotoMood, un sistema CBR que utiliza las imágenes del rostro de usuarios para reconocer emociones.

Por último, se verán cuales son los próximos objetivos de mi tesis para seguir avanzando en el diseño de la arquitectura para crear sistemas de recomendación contextuales y sociales.