Jornada de Investigación de Doctorandos 2016

Fecha: 13 de julio de 2016, de 9:30 a 13:45

Lugar: Sala de Grados, Facultad de Informática

Organización de las Jornadas

  • La jornada estará organizada en tres sesiones de una hora y cuarto cada una, con cuatro presentaciones en cada una.
  • Cada ponente dispondrá de 10 minutos para realizar su presentación más 5 minutos para responder a preguntas.

Presentaciones

9:30 - 10:45 Sesión 1.

PonentePonenciaResumen
Antón Rey Villaverde Problema de planificación generalizado para la optimización de rendimiento y consumo energético en arquitecturas heterogéneas

Tradicionalmente, la resolución del problema de planificación de tareas consiste en encontrar la asignación tarea-procesador que minimiza el tiempo total de ejecución, dado un grafo acíclico de tareas y un conjunto de procesadores conectados de acuerdo a cierta topología. En este trabajo se expone una generalización de dicho problema de planificación, el cual amplía los grados de libertad tradicionales -(1) ordenamiento de tareas y (2) asignación tarea-procesador- a otros como (3) particionamiento de tareas, (4) paralelismo de tarea interno, (5) cambio de precisión y (6) frequency scaling. Para su resolución, se expone en lenguaje de operadores algoritmos iterativos construidos a partir de la combinación de operadores fundamentales, capaces de generar planificaciones generalizadas que optimizan el rendimiento o el consumo energético con posibles restricciones de energía, potencia pico, y/o precisión. Se expone de qué forma esta propuesta es interesante para alcanzar un mayor aprovechamiento de plataformas de procesamiento heterogéneas y se proponen mecanismos para implementarla en planificadores de tiempo real.

Franklin Parrales Categorización de respuestas terapéuticas de pacientes con migraña

Diversos estudios han comprobado que el tratamiento basado en Onabotulinum A, aka. Botox, puede mitigar las dolencias migrañosas. No obstante, no todos los pacientes responden igual. En el presente estudio se muestran varias técnicas para determinar cuáles son las características comunes en tres grupos de pacientes después de una primera infiltración con Botox. Para ello se ha trabajado con bases de datos de pacientes reales, procedentes del Hospital Universitario “La Princesa”.

Felipe Serrano Emulación basada en FPGA de los efectos de los single event upsets

La presentación introduce el problema de la radiación cósmica, que afecta cada vez más al diseño de circuitos digitales para aplicaciones aeronáuticas o espaciales debido a la reducción de la escala de integración. También se presentan métodos investigados para mitigar este problema: TMR, técnica que se basa en triplicar el diseño a proteger; FT-DSP, que se apoya en el uso de los DSPs en las FPGAs debido a su frente a la radiación y la FT-HNN, que es aplicable a redes neuronales de tipo Hopfield.

Marlon Cárdenas Bonett Reconocimiento de actividades con acelerómetros sobre un entorno Virtual Living Lab (SociAAL)

Esta parte de la investigación consiste en el reconociemiento de actividades usando acelerómetros sobre un entorno simulado y realizando pruebas en un entorno real. La simulación se apoya en Virtual Living Lab y la parte real en el uso de dispositivos electrónicos de bajo coste y de fácil acople con sensores de todo tipo como es el caso de la Beagle Bone.

Uno de los objetivos es mostrar la cooperación entre dos o más dispositivos, la simulación y el despliegue rápido en el mundo real.

Las funcionalidades desarrolladas para cubrir esta primera fase son:

  • Reconocimiento de las actividades: mostrar el aprendizaje de actividades en el mundo simulado y las pruebas posteriores en el mundo real. El personaje de la simulación realiza acciones con suficiente variaciones las cuales sirven para el aprendizaje y el reconocimiento de la misma.

  • Orientación al usuario: a través de pantallas o botones el usuario podrá recibir asistencia sobre las actividades que realiza.

Estas funciones son aplicadas en dos escenarios: una casa donde el usuario requiere cuidados especiales mientras desarrolla sus actividades diarias y en una gran instalación como la facultad donde el usuario podría necesitar ayuda en caso de perder su orientación.

10:45 - 11:00 Descanso

11:00 - 12:15 Sesión 2.

PonentePonencia
Luis De Garrido Talavera Modelling creativity by artificial intelligence systems. Applications to architectural design

El objetivo de mi Tesis Doctoral es crear la arquitectura general de un sistema creativo artificial. Es decir pretendo diseñar una estructura computacional que permita que los sistemas de procesado artificial tengan el mayor nivel de creatividad posible, y que incluso puedan superar la capacidad creativa humana.

Para lograr este objetivo en la primera parte de mi Tesis he analizado el sustrato neuronal de la creatividad humana, y he identificado varios factores responsables de la creatividad humana:

  1. Existencia de varias redes neuronales cooperativas, y dinámicamente reconfigurables

  2. Estructura jerárquica del cerebro. Funcionamiento T-D y B-U complementario de las redes neuronales

  3. Colaboración entre la Red de Control Ejecutivo (ECN) y la Red Neuronal por Defecto (DMN)

  4. Sistema borroso y procedimental de almacenamiento y recuperación dinámica de la información en la memoria humana

  5. Marcado emocional en el almacenamiento borroso de la información

  6. Restructuración dinámica de las redes neuronales

  7. Menor sistema de filtrado de información

En base a esta información comenzaremos el diseño de una estructura computacional creativa general, y adaptaremos dicha estructura para diseñar un sistema creativo para el diseño arquitectónico.

Manuel López Ibáñez Líneas rojas en el diseño de interfaces para videojuegos de realidad virtual: El dilema del movimiento

A pesar del fuerte crecimiento en el consumo de experiencias de realidad virtual al que hemos asistido durante el último año, el ámbito del diseño de interfaces inmersivas sigue lastrado por una serie de problemas que la comunidad científica no ha conseguido solucionar a través de la investigación. El principal de ellos consiste en la aparente incapacidad para lograr diseñar una interfaz que permita el movimiento ininterrumpido en primera persona sin que aparezcan síntomas de un mal conocido como simulator sickness (SS).

Con el fin de evaluar la naturaleza del problema, así como su conexión con la presencia (o sensación de inmersión), se realizaron dos experimentos consistentes en medir el grado de SS y presencia alcanzado en entornos virtuales con y sin interfaz de movimiento. Los resultados obtenidos abren nuevas líneas de investigación, dado que muestran que puede existir un sesgo por sexo en la cantidad de SS acumulada, y que no existe una relación significativa entre la SS y el movimiento en experiencias de juego cortas.

Maximiliano Miranda Esteban Imitando el estilo de juego humano en jugadores automáticos de Pac-Man con Neuroevolución

Simular el estilo de juego humano ha representado recientemente un importante reto para investigadores de Inteligencia Artificial para videojuegos. Como parte de nuestra investigación en este campo, hemos visto cómo los algoritmos neuroevolutivos obtienen buenos resultados en videojuegos del género de plataformas en 2 dimensiones. La Neuroevolución es un método de aprendizaje automático que hace uso de Algoritmos Evolutivos para entrenar Redes Neuronales Artificiales, considerando los pesos de estas redes como los cromosomas de algoritmos genéticos. Los resultados dependen en gran medida de una función de fitness que trata de caracterizar la “humanidad” de un controlador automático en el videojuego. Diseñar esta función es un trabajo complejo y es totalmente dependiente del juego en concreto. En nuestro trabajo reciente utilizamos Ms. Pac-Man como escenario para comparar diferentes metodologías. En la primera se utilizan trazas de partidas jugadas por un jugador humano y en la segunda otros parámetros de más alto nivel que intentan caracterizar el estilo de juego del jugador (como la puntuación, distancia hasta el fantasma más cercano o el número de cambios de dirección).

Óscar Sánchez Becerro Algoritmo de muestreo de Gibbs para procesar datos genéticos a través de una plataforma Shiny

El análisis de grandes cantidades de datos y los métodos de análisis múltiples son campos en expansión dentro de la genómica. Por esa razón, están surgiendo muchos métodos relacionados con el contraste de hipótesis múltiples sobre variables categóricas desde una perspectiva bayesiana y frecuentista, con la finalidad de estimar la probabilidad de cada una de las hipótesis nulas. De esta forma, conoceremos qué hipótesis deberemos de aceptar y qué hipótesis tendremos que rechazar. Para ello, se ha desarrollado un algoritmo de muestreo de Gibbs (asociado a cadenas de Markov Monte Carlo y distribuciones Gamma y Beta) utilizando un lenguaje para el análisis estadístico conocido como R, y el framework Shiny para el desarrollo de una plataforma web que permita a los investigadores clínicos realizar análisis sobre expresiones génicas. Se ha contado con la colaboración del hospital clínico San Carlos de Madrid quienes nos han proporcionado datos relacionados con la enfermedad celíaca.

12:15 - 12:30 Descanso

12:30 - 13:45 Sesión 3.

PonentePonencia
Fernando Román Muñoz Optimización del análisis de vulnerabilidades en aplicaciones web

Para poner orden en las vulnerabilidades Web que van surgiendo progresivamente varias organizaciones elaboran listas que las clasifican. También se han desarrollado mapeos de unas listas con otras, para que sea posible identificar una misma vulnerabilidad en cada una de ellas. Todos estos mapeos proporcionan información estática, actualizada al momento en que se realizaron. Además ninguno de estos mapeos es completo de forma que incluya todas las vulnerabilidades Web de las clasificaciones más conocidas. Para dar respuesta a esta necesidad, en esta presentación se propone un método para relacionar, y mantener actualizadas, las vulnerabilidades incluidas en las clasificaciones existentes. El objetivo es disponer de una lista unificada y actualizada de vulnerabilidades Web que incluya tanto estas como las relaciones entre ellas. El proceso que aquí se describe incluye la reducción de las descripciones de cada vulnerabilidad a un pequeño conjunto único de palabras que la determine y que posteriormente se usa para buscar nuevas relaciones entre estas vulnerabilidades. Para finalizar se comprueba en que grado la relaciones encontradas con este método son realmente ciertas.

Jesús Antonio Puente Fernández Técnicas de monitorización en redes definidas por software

La principal ventaja de SDN en el monitoreo de redes es la independencia de hardware, dado que no es necesaria la introducción de equipos especializados adicionales. La rápida respuesta del controlador es fundamental para garantizar el rendimiento de la red. Sin embargo, el monitoreo excesivo de la red representa un serio riesgo tanto para el controlador como para los dispositivos de red. Por un lado, el controlador eventualmente utilizaría la mayor parte de su capacidad de procesamiento para la monitorización, perjudicando a otras tareas. A su vez, el intercambio de mensajes de monitoreo entre el switch y el controlador generarían una saturación de la red y de sus dispositivos. Otro factor importante es la diferenciación de los requerimientos de los servicios, los cuales deben formar parte del proceso de monitoreo. De esta forma el controlador pueda personalizar y gestionar correctamente la red. En la presente investigación se realiza un estudio de diferentes técnicas de monitorización para disminuir las peticiones de estadísticas por parte del controlador a los switches y por tanto liberar a éste de una sobrecarga innecesaria para dedicarla a tareas como la gestión de tráfico entre otras.

Jorge Maestre Vidal Sistema de detección de atacantes enmascarados robusto ante métodos de evasión basados en imitación

Los ataques enmascarados constituyen la actividad malintencionada perpetrada a partir de robos de identidad, entre la que se incluye la escalada de privilegios o el acceso no autorizados a activos del sistema. En esta ponencia se propone un sistema de detección de atacantes enmascarados mediante la observación de las secuencias de acciones llevadas a cabo por los usuarios legítimos del sistema. La clasificación de la actividad monitorizada es modelada y clasificada en base a algoritmos de alineamiento de secuencias locales. Para la validación del etiquetado se incorpora la prueba estadística no paramétrica de Mann-Whitney. Esto permite el análisis de secuencias en tiempo real. La propuesta ha sido fortalecida contra intentos de evasión basados en la imitación de la actividad perpetrada por los usuarios legítimos, por medio del análisis y particionado de las secuencias de acciones en concurrencia. Para su evaluación se ha aplicado el estándar funcional SEA para la verificación de herramientas de identificación de enmascarados, observándose resultados muy prometedores.

Marco Antonio Sotelo Monge Análisis del comportamiento de una red definida por software

Esta presentación resume el trabajo realizado durante el primer curso académico del doctorado. Se realiza una introducción a las redes SDN, su arquitectura, y un modelo propuesto para analizar su comportamiento. Una Red Definida por Software (Software Defined Networking o SDN) es una arquitectura de red emergente donde el control de la red es programable y está separada de las funciones de reenvío de paquetes, propias de las capas inferiores del modelo OSI. Las Redes Definidas por Software (SDN) han abierto nuevos modelos de negocio basados en la personalización de los servicios de red mediante esquemas de gestión versátiles y flexibles. En este entorno se define un modelo que permita analizar el comportamiento de la red previa determinación de su estado, el cual se consigue con la implementación de un esquema de monitorización distribuido que otorgue métricas de red, así como información del entorno de operación (infraestructura física, elementos virtualizados, etc.). Obtenido el estado, será posible aplicar criterios de análisis que permitan, por ejemplo, predecir el siguiente estado de la red. Se tomará como caso de estudio la transmisión de contenido multimedia sobre una red SDN.