Jornada de investigación de Doctorandos Julio 2019
Fecha: 22 de julio de 2019
Lugar: Sala de Grados, Facultad de Informática
Organización de las Jornadas
- La jornada estará organizada en dos sesiones: 10:00-11:45 y 12:15-14:00, con siete presentaciones en cada una.
- Cada ponente dispondrá de 10 minutos para realizar su presentación más 5 minutos para responder a preguntas.
Presentaciones
Sesión 1: 10:00 - 11:45
Ponente | Ponencia | Resumen |
---|---|---|
Raquel Ramos López | Agrupamiento de vídeos de dispositivos móviles | La realización de vídeos con dispositivos móviles es una actividad habitual en nuestra sociedad, además estos vídeos pueden utilizarse para deslindar responsabilidades o como parte de la evidencia en un proceso judicial. El análisis forense de vídeos digitales adquiere especial relevancia para determinar el origen y la autenticidad de un vídeo con el propósito de relacionar a un individuo con un dispositivo, lugar o evento. Este trabajo trata el tema de la identificación de la fuente en escenarios abiertos, es decir, el analista no conoce inicialmente el conjunto de videocámaras a las que pertenece el vídeo a identificar su fuente, siendo un planteamiento muy cercano a situaciones de la vida real puesto que en la mayoría de los casos el analista desconoce por completo el conjunto de videocámaras. Finalmente se presentan experimentos con vídeos de dispositivos reales para evaluar la validez de las técnicas utilizadas. Este trabajo se centra en la identificación de la fuente de vídeos digitales en escenarios abiertos, puesto que este enfoque es muy cercano a situaciones de la vida real, debido a que es casi imposible poder tener un conjunto de vídeos de todas las videocámaras de dispositivos móviles. |
Carlos Quinto Huamán | Análisis de la estructura de los contenedores multimedia de vídeos de dispositivos móviles. | En la actualidad, los dispositivos móviles se han convertido en el sustituto natural de la cámara digital, ya que capturan situaciones cotidianas de forma fácil y rápida, promoviendo que los usuarios se expresen a través de imágenes y vídeos. Estos vídeos pueden ser compartidos a través de diferentes plataformas quedando expuestos a cualquier tipo de manipulación, lo que compromete su autenticidad e integridad. Es común que los fabricantes no cumplan al 100% con las especificaciones del estándar, dejando características intrínsecas del dispositivo que generó el vídeo. Las investigaciones de los últimos años se centran en el análisis de la estructura de contenedores AVI, siendo muy limitado, la literatura en el caso de contenedores MP4, MOV y 3GP. En consecuencia, se presenta una técnica de análisis de la estructura de los contenedores de vídeos generados por dispositivos móviles y su comportamiento al ser compartido por las redes sociales o manipulados por programas de edición. Como resultado del análisis se tienen los siguientes resultados: verificación de la integridad de los vídeos, identificación de la fuente de adquisición y diferenciación entre vídeos originales y manipulados. |
Esteban Armas Vega | Detección de falsificación copy-paste usando las características de DCT | Con el número creciente de aplicaciones de software que permiten alterar las imágenes digitales y su facilidad de uso, debilitan la credibilidad de una imagen. Este problema, junto con la facilidad de distribución de información a través de Internet (blogs, redes sociales, etc.), ha hecho que, normalmente, la sociedad acepte como verdad todo lo que ve sin cuestionar su veracidad. La falsificación de imágenes se ha convertido en una amenaza importante para la credibilidad de la información y el análisis forense de imágenes tiene como objetivo detectar y localizar falsificaciones de imágenes mediante el uso de varias pistas que le permiten determinar la veracidad o no de una imagen. Para ello, se propone un método para autenticar imágenes. El método propuesto realiza una detección de alteraciones de copia-paste dentro de una imagen, utilizando la transformada discreta del coseno. Las características obtenidas de estos coeficientes permiten obtener vectores de transferencia, que se agrupan entre sí y mediante el uso de un umbral de tolerancia, es posible determinar si existen regiones copiadas y pegadas dentro de la imagen analizada. |
Antonio López Vivar | Herramienta automática de adquisición de datos de ransomware | Los ataques de ransomware denunciados a las autoridades se enfrentan a la dificultad técnica de las unidades de policía local para recopilar información y realizar análisis forenses adecuados. En el presente documento se propone una herramienta de análisis forense que actúa durante la etapa final del ciclo de infección del ransomware para proporcionar una opción rápida y fácil de adquirir información valiosa para el analista forense a fin de facilitar la posterior clasificación del ransomware. La herramienta propuesta combina la captura de ventanas emergentes que muestran el software de rescate y a través de técnicas de reconocimiento óptico de caracteres, obteniendo el mensaje de rescate junto con la dirección de pago y el valor. Además, extrae los archivos generados por el software de rescate y vuelca la memoria virtual del sistema para su análisis por el técnico forense. Para evaluar la precisión de la herramienta, se realizaron experimentos con diferentes muestras de software de rescate en un ordenador real, bajo un entorno controlado. |
Fernando Turrado García | Sistema evolutivo multiagente para la simulación del cálculo de comisiones e incentivos en la cadena de suministro |
El estudio del comportamiento de un agente autónomo que opera como representante de una entidad es conocido dentro de las ciencias políticas y/o económicas como el problema del agente principal (también es referenciado como teoría de agentes). Se denomina red comercial al conjunto de agentes de una compañía (tanto propios como externos) dedicados a la comercialización de los productos. El pago a los agentes (también conocido como plan retributivo) se fija en torno a cantidades variables (comisiones recibidas por cada venta) y a objetivos individuales o colectivos (por ejemplo, cifras de venta a nivel local / regional o estatal). Estos agentes establecen sus estrategias a nivel individual pudiendo desarrollar estrategias colaborativas en un mercado que fomenta la competencia entre ellos ya que compiten entre sí por las ventas. El objetivo principal de la investigación es el análisis, diseño e implementación de una herramienta capaz de simular el comportamiento de los agentes ante cambios en las condiciones de mercado. Entendemos condiciones de mercado los siguientes conceptos: plan retributivo del agente, perfil del mismo (habilidades o capacidades del mismo), oferta y demanda de los productos, objetivos particulares y colectivos y restricciones propias del mercado. |
Marta Caro Martínez | Sistemas de recomendación y explicaciones basados en grafos de interacción y técnicas de predicción de enlaces |
Tradicionalmente, los sistemas de recomendación se basan en las puntuaciones que dan los usuarios a los productos y en las descripciones de esos productos. Otra forma de abordar el problema consiste en representar las interacciones de los usuarios con los productos como un grafo de usuarios y productos, y utilizar dicho grafo como medio para realizar recomendaciones. Estos modelos de recomendación presentan grandes ventajas frente a los tradicionales: no requieren que los usuarios valoren los productos recomendados ni requieren un conocimiento adicional de los productos. Podemos definir nuevas líneas de investigación para diseñar y mejorar sistemas de recomendación y de explicaciones gracias a grafos de interacción. Las líneas que se proponen son: (1) Estudiar el estado del arte en explicaciones para sistemas de recomendación y sistemas de decisión. (2) Estudiar, diseñar y desarrollar métodos de recomendación basados en grafos de interacción y técnicas de análisis de redes sociales, como predicción de enlaces. (3) Explicar recomendaciones de sistemas basados en grafos con predicción de enlaces y otras técnicas de análisis de redes sociales. (4) Estudiar diferentes modos de visualización para sistemas de explicaciones basados en grafos y estudiar cuáles de ellos ofrecen mejores resultados en usabilidad y satisfacción del usuario. |
Daniel Báscones García | Técnicas de compresión de imágenes hiperespectrales sobre hardware reconfigurable | El gran tamaño de las imágenes hiperespectrales, útiles para multitud de estudios de la superficie terrestre, hace que en ocasiones sean poco manejables. La compresión ayuda a transmitir y almacenar una mayor cantidad de imágenes para poder realizar mejores estudios con los datos disponibles. Habitualmente capturadas desde dispositivos aéreos, como aviones o satélites, la potencia de cómputo disponible para dicha tarea es reducida. Las FPGA (Field Programmable Gate Array) son unas plataformas flexibles y de bajo consumo energético con variantes resistentes a la radiación presente en estos entornos aéreos. Su reconfigurabilidad permite adaptar el hardware interno a las necesidades de diferentes algoritmos de compresión, consiguiendo rendimientos comparables o superiores a sistemas multinúcleo o altamente paralelizables como GPUs. Sus múltiples conexiones permiten una integración directa con el sistema de captura, situándose como medio de procesamiento en tiempo real. En esta presentación veremos la adaptación de tres algoritmos de compresión de imágenes hiperespectrales a FPGA, con variantes de compresión con y sin pérdida. Estudiaremos ventajas e inconvenientes de cada uno, demostrando que las FPGAs son plataformas aptas, adecuadas, y necesarias para este tipo de procesamiento. |
Sesión 2: 12:15 - 14:00
Ponente | Ponencia | Resumen |
---|---|---|
Miguel Isabel Márquez Salas | Testing de programas concurrentes | El testing de programas concurrentes requiere explorar todos los entrelazados posibles entre los threads que la ejecución concurrente pueda tener, ya que cualquiera de ellos puede revelar comportamientos erróneos del sistema. Esto introduce una explosión combinatoria en el número de estados que deben ser considerados, lo que lleva frecuentemente a un problema computacionalmente intratable. Para superar este reto, mi trabajo de tesis consiste en el desarrollo de nuevas técnicas de Partial Order Reduction (POR). El punto más importante dentro de esta teoría es la noción de independencia, que es usada para decidir si cada par de eventos concurrentes p y t están en una carrera, y por lo tanto, tanto p·t como t·p deben ser exploradas. El objetivo fundamental de esta tesis es introducir nociones de independencia condicional que aseguren la conmutatividad de los eventos considerados bajo ciertas condiciones que puedan ser evaluadas durante la exploración. Estas técnicas han sido implementadas en la herramienta SYCO. Además, hemos llevado a cabo una evaluación experimental para probar la efectividad y aplicabilidad de las técnicas propuestas. Finalmente, hemos verificado un conjunto de propiedades para varios casos de estudio de redes definidas por software, para ilustrar el potencial de nuestra aproximación. |
Pablo Gordillo Alguacil | EthIR: A framework for high-level analysis of Ethereum bytecode | Analizar el bytecode de Ethereum (EVM), en lugar del código fuente del que fue generado, es necesario cuando: (1) el código fuente no está disponible (en el blockchain solo se almacena el bytecode), (2) la información necesaria para el análisis solo es visible a nivel de bytecode (el consumo de gas depende de las instrucciones del bytecode), (3) los resultados del análisis se pueden ver afectados por optimizaciones del compilador. EthIR produce, dado un grafo de control de flujo, una representación basada en reglas del bytecode original. Esto permite la aplicación de análisis de alto nivel para inferir propiedades sobre el código EVM. |
Jesús Javier Doménech Arellano | Estudiando terminación y coste con análisis estático | Utilizando análisis estático y otras técnicas nos centramos en el estudio de las propiedades de terminación y coste de un programa. Estás propiedades resultan de gran importancia cuando hablamos de la seguridad y corrección de un programa. Para enfrentarnos a este problema desarrollamos y utilizamos varios tipos de funciones de clasificación, diferentes argumentos de no terminación e introducimos un novedoso método de refinamiento de grafos de control que hace explícito en el grafo diferentes flujos importantes para la terminación y el coste. |
Pablo Cerro Cañizares | Testing y modelado de sistemas cloud utilizando testing metamórfico e ingeniería dirigida por modelos |
Durante las últimas décadas, los sistemas cloud han visto incrementada su influencia, tanto en el mundo industrial como en la comunidad científica, debido a su alta flexibilidad y capacidad para proporcionar infraestructuras de computación bajo demanda. Cabe destacar que empresas líderes en el sector IT, tales como IBM, Microsoft, Google y Amazon han invertido grandes cantidades de capital en Cloud Computing en los últimos años. Los sistemas cloud son considerados la solución más efectiva en términos de precio/coste para usuarios finales. Por ello, se debe asegurar la calidad de este tipo de sistemas, comprobando su correcto funcionamiento, así como asegurando aspectos claves como disponibilidad, accesibilidad y funcionalidad. Desafortunadamente, la corrección de sistemas cloud es una tarea compleja debido al alto número de recursos que lo componen, el alto número de usuarios que acceden concurrentemente y los mecanismos de virtualización utilizados para maximizar el uso de la plataforma. Sin embargo, no es factible la utilización de métodos convencionales de testing para su corrección. El objetivo de esta tesis es el estudio, investigación y desarrollo de técnicas de testing formal y modelado para comprobar la corrección de sistemas cloud. Para abordar estos objetivos se propone una metodología que integra técnicas de ingeniería dirigida por modelos, testing metamórfico y simulación. A su vez, la metodología está focalizada ayudar al usuario a modelar las partes software y hardware de los sistemas cloud, diseñar nuevos modelos y testearlos automáticamente. |
Cristina Alonso Fernández | Aplicaciones de ciencia de datos a analíticas de aprendizaje para juegos: revisión sistemática de la literatura | Las técnicas de ciencia de datos, cuya aplicación está ampliamente extendida en múltiples campos, pueden también aplicarse a la información obtenida de las interacciones de los estudiantes con juegos serios. El uso de estas técnicas puede mejorar la evaluación de los juegos, así como permitir a los profesores y a las instituciones tomar decisiones basadas en evidencias. Esto puede aumentar la confianza de ambos en el uso de juegos serios en educación, aumentando así su atractivo. En esta jornada, se presentarán los resultados de la revisión sistemática de la literatura realizada sobre las aplicaciones de ciencia de datos a datos de analíticas de aprendizaje para juegos. En esta revisión se han determinado: (1) los objetivos para los que la ciencia de datos se ha aplicado a analíticas de aprendizaje para juegos, (2) los algoritmos o técnicas de análisis utilizados, (3) los beneficiarios de la información obtenida, y (4) los resultados y conclusiones obtenidos de estas aplicaciones. En base a las categorías establecidas y los resultados de la revisión, se discuten limitaciones y recomendaciones para futuros trabajos en este campo. |
Alejandro Romero Hernández | Experiencias educativas basadas en artes escénicas | El objetivo de la conferencia es la presentación de las tres herramientas que actualmente estamos usando en el marco de mi tesis. Las dos primeras herramientas son videojuegos educativos que buscan la motivación de alumnos de colegios e institutos por las artes escénicas. Más en concreto, y por orden cronológico, presentaré La Cortesía de España, basado en una obra de teatro homónima de Lope de Vega (desarrollado para dispositivos fijos y móviles) y Bailando un Tesorobasado en el Ballet Nacional de España (desarrollado únicamente para dispositivos móviles). Posteriormente, la conferencia se centrará en como todo lo aprendido durante estos proyectos ha desembocado en un tercero, aún en fase de prototipado. Esta última tiene el objetivo de, usando técnicas de las artes escénicas antes mencionadas (actividades que se usan en la preparación de actores y bailarines), entrenar y hacer mejorar al usuario su comunicación no verbal. Esta última ha sido desarrollado usando realidad virtual y tecnologías de motion capture. |
Meriem El Yamri | Comunicación efectiva mediante realidad virtual y reconocimiento de emociones | La comunicación oral es una habilidad de la que hacemos uso de forma constante, tanto para nuestra vida profesional como para las tareas cotidianas: dar una conferencia, hablar en una reunión de vecinos, intervenir en clase o expresar nuestra opinión. Cuando nos comunicamos entran en juego dos mecanismos de comunicación: verbal y no verbal, y de estos dos mecanismos depende la efectividad de nuestra comunicación. Mi investigación se centra en el estudio y creación de una herramienta de entrenamiento de la habilidad de hablar en público mediante realidad virtual, que usa el reconocimiento de emociones presentes en distintas características del orador (voz, contenido, parámetros biométricos) para determinar la efectividad de su discurso, y proveerle de feedback en instantáneo como lo haría una audiencia real. |