- Portada
- Titulaciones
- Doctorado
- Conferencias de Posgrado
Conferencias de Posgrado

Años anteriores
-
New horizons of brain dynamics and art
Resumen de la conferencia
This talk will present the latest advances on neuroscience in terms of its relations with how the human brain processes art. The dynamics of how the brain works and how different stimuli are processed by the neurological system will be presented and discussed. The relation with the underlying phenomena involved in the creative process will also be explored.CV de Guiomar Niso
Dr. Niso is AXA Postdoctoral fellow at the Center for Biomedical Technology (CTB), Universidad Politécnica de Madrid (UPM). She received her PhD in Biomedical Engineering with European Mention at CTB, and has worked as a researcher in the Max-Planck-Institut für Hirnforschung (Max Planck Institute for Brain Research) in Frankfurt am Main (Germany) and the Netherlands Institute for Neuroscience in Amsterdam. She is currently working in finding early indications of Alzheimer. Dr. Niso has been awarded several grants and prizes. -
New approaches in music generation from tonal and modal perspectives
Resumen de la conferencia
In the literature, there are plenty of works centered on generating music from a classical perspective, reflecting through machine learning as well as bio-inspired paradigms, harmonic rules proposed by composers like Schonberg or Riemman. However, a new fewer works have addressed the generation of popular music. Such genres, transmitted orally from generation to generation, proposes new challenges in the music learning and generation process.CV de María Navarro Cáceres
PhD in computer engineering by the University of Salamanca, she began to work in the BISITE Research Group in 2012 under a collaboration scholarship. Later, she developed her doctorate through a predoctoral contract within the program of training of university personnel (FPU) promoted by the Ministry of Education and Culture (MECD). Currently, she is working in the University of Salamanca as an associate professor. Many of the activities carried out in all areas before and during pre-doctoral training have led to the creation of a coherent and well-defined line of research, covering the fields of computer science and music. In the field of research, she is currently developing an investigation focused on automatic musical composition and the analysis of musical characteristics from artificial intelligence. She has participated in projects of educational technology, and of musical construction (Project MUDEI), among others. Most of the outstanding publications highlight the transversality of music and the computer sciences. -
Structural and functional neural correlates of emotional responses to music
Resumen de la conferencia
The sophisticated signal processing techniques developed during last years for structural and functional imaging methods allow us to detect abnormalities of brain connectivity in brain disorders with unprecedented detail. Interestingly, recent works shed light on both functional and structural underpinnings of musical anhedonia (i.e., the individual's incapacity to enjoy listening to music). On the other hand, computational models based on brain simulation tools are being used more and more for mapping the functional consequences of structural abnormalities. The latter could help to better understand the mechanism that is impaired in people unable to derive pleasure from music, and formulate hypotheses on how music acquired reward value. The presentation gives an overview of today's studies and proposes a possible simulation pipeline to reproduce such scenario.CV de Gianluca Susi
Gianluca Susi received a PhD in Sensor and Learning Systems Engineering from the University of Rome "Tor Vergata" in 2012. Nowadays, he is doing research in the UCM-UPM Laboratory of Cognitive and Computational Neuroscience of CTB (Madrid). He is also adjunct professor of Electrical Circuits and coordinating member of the "Master programme in Audio Engineering" at the University of Rome "Tor Vergata". His research is currently aimed to the development of spiking/synaptic brain models in order to reproduce MEG connectivity in health and disease. -
Making the most out of Heterogeneous Chips with CPU, GPU and FPGA
Resumen de la conferencia
Heterogeneous computing is seen as a path forward to deliver the energy and performance improvements needed over the next decade. That way, heterogeneous systems feature GPUs (Graphics Processing Units) or FPGAs (Field Programmable Gate Arrays) that excel at accelerating complex tasks while consuming less energy. There are also heterogeneous architectures on-chip, like the processors developed for mobile devices (laptops, tablets and smartphones) comprised of multiple cores and a GPU. This talk covers hardware and software aspects of this kind of heterogeneous architectures. Regarding the HW, we briefly discuss the underlying architecture of some heterogeneous chips composed of multicores+GPU and multicores+FPGA, delving into the differences between both kind of accelerators and how to measure the energy they consume. We also address the different solutions to get a coherent view of the memory shared between the cores and the GPU or between the cores and the FPGA.CV de Rafael Asenjo Plaza
Rafael Asenjo obtained a PhD in Telecommunication Engineering from the U. of Malaga, Spain in 1997. From 2001 to 2017, he was an Associate Professor in the Computer Architecture Department, being a Full Professor since 2017. He collaborated on the IBM XL-UPC compiler and on the Cray's Chapel runtime. In the last five years, he has focused on productively exploiting heterogeneous chips. In 2013 and 2014 he visited UIUC to work on CPU+GPU chips. In 2015 and 2016 he also started to work on CPU+FPGA chips while visiting U. of Bristol. He has served as General Chair for ACM PPoPP'16 and as an Organization Committee member as well as a Program Committee member for several HPC related conferences (PACT’17, EuroPar’17, SC’15). His research interests include heterogeneous programming models and architectures, parallelization of irregular codes and energy consumption. He co-presented two TBB tutorials at both Europar’17 and SC17. -
Sistemas de optimización en la asignación de los recursos
Resumen de la conferencia
Los problemas de asignación de recursos aparecen en empresas logísticas, de transporte o producción, donde se plantea realizar la mejor asignación posible de recursos a actividades, lo que tiene un fuerte impacto en la cuenta de resultados de una compañía. El objetivo de la conferencia es que el asistente sea capaz de identificar este tipo de problemas en una compañía. Se comenzará por la definición y el estudio del problema del viajante, que es sencillo de entender, pero permite mostrar las características básicas de los problemas de optimización combinatoria. Después se definirá la metodología que propone la Investigación Operativa para resolver estos tipos de problemas, y se detallarán posibles arquitecturas de sistemas de información que implementan los citados problemas. Finalmente se formularán varios problemas de asignación de recursos de aplicación real, y se harán demostraciones que ayudarán a entender mejor la naturaleza de estos problemas. Se detallará el problema de asignación de contenedores en trenes, el problema de dimensionado de una plantilla de trabajadores, el problema de asignación de flotas de vehículos y un problema de planificación de producción.CV de Francisco Javier Diego Martín
Javier es ingeniero industrial por la Universidad de Valladolid y doctor por la Universidad Politécnica de Madrid. Su trayectoria profesional se mueve desde 1996 en la consultoría en tecnologías de la información. Ha participado en proyectos de asignación de recursos para las principales empresas logísticas y de transporte españolas, en el rol de investigador de operaciones, donde ha planteado modelos matemáticos y desarrollado algoritmos para la resolución de problemas de optimización combinatoria. Ha sido el director de más de 20 proyectos de I+D subvencionados en las convocatorias CENIT, AVANZA, INNPACTO, PROFIT e IMADE. También ha sido el jefe de desarrollo de una unidad .NET, y dispone de una dilatada experiencia como arquitecto de soluciones software y desarrollo de aplicaciones para diversos sectores productivos. Desde hace diez años, es profesor asociado en el Departamento de Ingeniería de Organización, Administración de Empresas y Estadística de la Universidad Politécnica de Madrid, donde imparte asignaturas relacionadas con métodos cuantitativos en producción y logística. -
Dealing with Constraints in Estimation of Distribution Algorithms
Resumen de la conferencia
Estimation of Distribution Algorithms (EDAs) constitute a powerful evolutionary algorithm for solving continuous and combinatorial optimization problems. Based on machine learning techniques, at each generation, EDAs estimate a joint probability distribution associated with the set of most promising individuals, trying to explicitly express the interrelations between the different variables of the problem. Based on this general framework, EDAs have proved to be very competitive for solving combinatorial and continuous optimization problems. In this talk, we propose developing EDAs by introducing probability models defined exclusively on the space of feasible solutions. In this sense, we give a first approach by taking the Graph Partitioning Problem (GPP) as a case of study, and present a probabilistic model defined exclusively on the feasible region of solutions: a square lattice probability model.CV de Josu Ceberio Uribe
Josu Cebeiro es profesor Adjunto del departamento de Ciencia de la Computación e Inteligencia Artificial en la Universidad del País Vasco. Ingeniero (2009) y Doctor (2014) en Informática por la misma Universidad. Desde el año 2010, forma parte del grupo de investigación Intelligent Systems Group, reconocido como grupo consolidado por el gobierno vasco (nivel A, el más alto). Durante este periodo, ha participado en más de 7 proyectos y contratos, ha publicado más de 20 artículos en revistas, y contribuciones en congresos nacionales e internacionales, habiendo recibido varios premios. También ha sido revisor externo de 13 revistas del ISI y de varios congresos del IEEE y ACM. Dentro de las líneas de investigación del grupo, su interés de centra en las áreas de optimización combinatoria tanto desde el enfoque metodológico como el aplicado. En optimización combinatoria, ha trabajado en el ámbito de los metaheurísticos, y principalmente en Algoritmos de Estimación de Distribuciones. Los Algoritmos de Estimación de Distribución pertenecen a la familia de los algoritmos evolutivos. -
Meditaciones a propósito de la cuestión Ética y la IA
Resumen de la conferencia
Una perspectiva platónica al diseño y uso de los sistemas inteligentes autónomos en la vida real y de las consecuencias económicas, legales y éticas a lo que ello puede dar lugar.CV de Ulises Cortés
Ulises Cortés is a Full-Professor and Researcher of the Universitat Poltècnica de Catalunya (UPC) since 1982. He got his PhD in 1984 (Facultat d’Informàtica de Barcelona, UPC). Tenured since 1988 and habilitated as Full-Professor since 2006. His current focus is on several areas of Artificial Intelligence (AI) in the Computer Science Department (formerly Software Department) including knowledge acquisition for and concept formation in knowledge-based systems, as well as on machine learning, fuzzy sets, and in autonomous intelligent agents. Many of his contributions have been applied in real life scenarios and industry. -
Redecentralizing the Web: IPFS and Filecoin
Resumen de la conferencia
The Web is broken. HTTP is inefficient and expensive, especially for large files. Webpages are being deleted constantly, with the average lifespan of a web being 100 days. The Web's centralization limits opportunity and innovation. And it causes problems in the developing world, with natural disasters or faulty connections. We can do better. In this talk, I'll explain IPFS, a project intended to replace HTTP and build a better web. IPFS is a peer-to-peer hypermedia protocol to make the web faster, safer, and more open. In addition, IPFS will use Filecoin as a reward mechanism. Filecoin aims to provide a decentralized network for digital storage through which users can effectively rent out their spare capacity, receiving filecoins as payment. Filecoin raised 200M$ last month, breaking all records in blockchain ICOs to date.CV de Nicola Greco
Nicola GrecoPhoto by Virginia Alonso is a Ph.D. student in the Decentralized Information Group at MIT. He is interested in designing and building decentralized infrastructure. He started writing code when he was very young. He was 14 when he started the petition “Linux in Italian Schools”, converting schools to use Open Source Software; 16, when he started the BuddyPress’ developers community - an open source platform for federated social networks; 17, when he made one of the first unofficial Twitter buttons (two years before they came out); 18, he wrote software for Social Network analysis used by Telecom Italia that awarded him two research grants. The latter was key for his exposure; all of a sudden he was traveling around Europe, gave a TEDx and appeared Italian Wired Top 10 under 25. At 21 left his undergraduate college one year before graduation to join MIT determined to work on re-decentralizing the Web after his experience in Mozilla. At 23 he participated in the design of Filecoin, which raised over 200M dollars. His work on Filecoin served him as his MIT Master Thesis. -
New horizons for electronic systems: Devices, design methods and application areas
Resumen de la conferencia
Prof. de Micheli will talk about his research work and will provide a broader view of today’s Electronic Systems. In that matter, he will show the current landscape of distributed computing and will cover the most recent technological innovations, part of them related to emerging nanotechnologies and devices. Prof. de Micheli will also present the available tools for design with emerging technologies, like physical and logic synthesis tools. Going deep in this topic, we will have the chance to revisit the majority paradigm in logic synthesis, for models, algorithms and tools.CV de Giovanni de Micheli
Giovanni De Micheli is Professor and Director of the Institute of Electrical Engineering and of the Integrated Systems Centre at EPF Lausanne, Switzerland. He is program leader of the Nano-Tera.ch program. Previously, he was Professor of Electrical Engineering at Stanford University.He holds a Nuclear Engineer degree (Politecnico di Milano, 1979), a M.S. and a Ph.D. degree in Electrical Engineering and Computer Science (University of California at Berkeley, 1980 and 1983). Prof. De Micheli is a Fellow of ACM and IEEE, a member of the Academia Europaea and a Foreign Honorary member of the American Academy of Arts and Sciences. His research interests include several aspects of design technologies for integrated circuits and systems, such as synthesis for emerging technologies, networks on chips and 3D integration. He is also interested in heterogeneous platform design including electrical components and biosensors, as well as in data processing of biomedical information. -
Resumen de la conferencia
La presentación se centrará en la reciente evolución de las arquitecturas de redes de datos, con la transición de paradigmas de control distribuído a control centralizado, con atención a sus causas, beneficios y desafíos. Junto con este cambio de paradigma, y como suplemento a la evolución en el control y gestión de redes de datos, se presentará la incorporación de elementos de optimización en la utilización de equipos físicos acaecida en entornos de infraestructuras de la información (virtualización) aplicada a los componentes de redes y servicios de datos y cómo esta combinación impulsa una transformación sin precedentes en la forma en la que redes y servicios de telecomunicación son concebidos, creados y gestionados. Conceptos relativos a redes definidas por software (SDN), virtualización de funciones de red (NFV), concatenación de servicios, propuestas de arquitectura, estandarización, proyectos de código abierto y la articulación de estas tecnologías en distintos casos de uso serán revisados en la presentación.CV de Rafael Jacinto Villanueva Micó
El Dr. Villanueva se incorporó a la Universitat Politècnica de Valéncia en noviembre de 1988. Defendió su tesis doctoral sobre resolución y estabilidad de ecuaciones diferenciales matriciales en enero de 1992. Más adelante trabajó en algoritmos de transmisión progresiva de imágenes médicas digitales tridimensionales. Posteriormente, pasó a colaborar con el servicio de Radiofísica del Hospital Clínico de Valencia para desarrollar algoritmos algebraicos de reconstrucción de imágenes TAC para el cálculo preciso de las dosis para los tratamientos de radioterapia de los pacientes de cáncer. Actualmente colabora con el Dr. Javier Díez, responsable del Área de Vacunas de FISABIO y uno de los responsables de Salud Pública de la Comunidad Valenciana, en la modelización matemática de la dinámica de transmisión de enfermedades infecciosas. -
Redes: de entes físicos a procesos software en entornos virtuales
Resumen de la conferencia
La presentación se centrará en la reciente evolución de las arquitecturas de redes de datos, con la transición de paradigmas de control distribuído a control centralizado, con atención a sus causas, beneficios y desafíos. Junto con este cambio de paradigma, y como suplemento a la evolución en el control y gestión de redes de datos, se presentará la incorporación de elementos de optimización en la utilización de equipos físicos acaecida en entornos de infraestructuras de la información (virtualización) aplicada a los componentes de redes y servicios de datos y cómo esta combinación impulsa una transformación sin precedentes en la forma en la que redes y servicios de telecomunicación son concebidos, creados y gestionados. Conceptos relativos a redes definidas por software (SDN), virtualización de funciones de red (NFV), concatenación de servicios, propuestas de arquitectura, estandarización, proyectos de código abierto y la articulación de estas tecnologías en distintos casos de uso serán revisados en la presentación.CV de José Soler
José Soler (1974), Ingeniero Superior de Telecomunicaciones por la Universidad de Zaragoza (1999) y Doctor en Ingeniería Eléctrica (Servicios de Telecomunicación) por la Universidad Técnica de Dinamarca (DTU)(2005), es actualmente Profesor Titular del Grupo de Tecnologías de Red y Plataformas de Servicio en DTU, donde es responsable de la línea de Software y Servicios del Máster de Telecomunicaciones de la DTU. Ha dirigido múltiples proyectos fin de carrera y tesis doctorales en las áreas de integración de redes heterogéneas de comunicación, software y servicios de telecomunicaciones. Actualmente está involucrado en diversos proyectos relacionados con SDN/NFV, sistemas de señalización ferroviaria y comunicación entre pares. Más Específicamente: 1 proyecto FP7 (“COSIGN”), dos proyectos H2020 Shift2Rails (Safe4Rails y X2Rail-1), un proyecto H2020 5G PPP (NGPaaS), un proyecto financiado por el Fondo de Innovación de Dinamarca y un proyecto con financiación propia de la DTU, además de ser miembro de las actividades de testeo en el proyecto GN4-2 JRA1 (SDxL3) de GEANT. Anteriormente ha trabajado en el Instituto Tecnológico de Aragón, en el Centro de Investigación en Electrónica y Telecomunicaciones de Corea del Sur y en GoIP International ApS. -
Los lenguajes de programación: pasado, presente y futuro
Resumen de la conferencia
El objetivo de esta conferencia es situar los avances en el diseño de lenguajes de programación en su contexto histórico, explicando el surgimiento de las principales innovaciones, qué lenguajes las implementaron por primera vez, y cómo impactaron en los lenguajes posteriores. También se pasa revista a los desarrollos más recientes y se indican algunas líneas en las que es previsible evolucionen los lenguajes en un futuro próximo.CV de Ricardo Peña Marí
Ricardo Peña Marí es Catedrático de Lenguajes y Sistemas Informáticos del Departamento de Sistemas Informáticos y Computación de la Universidad Complutense de Madrid. Entre 1984 y 1991 fue Profesor Titular del Departamento de Lenguajes y Sistemas Informáticos de la Universitat Politècnica de Catalunya. Antes de 1984, trabajó como Jefe de Proyecto en empresas privadas en las áreas de telefonía y diseño asistido. Es autor del libro de texto "Diseño de Programas" (Pearson, 2005) para estudiantes de Ingeniería Informática, y del libro de divulgación "De Euclides a Java: historia de los algoritmos y de los lenguajes de programación" (Nivola, 2006). Sus áreas de investigación son el análisis estático de programas, los métodos formales, y los lenguajes de programación funcional. Es coautor de mas de 60 publicaciones en revistas y congresos internacionales. -
Modelado y Análisis Formal del Protocolo de Comunicación de Sensores One Wire
Resumen de la conferencia
Actualmente, las comunicaciones de datos entre procesos y sistemas se han convertido en uno de los pilares fundamentales de nuestra sociedad. En este entorno las redes de sensores han cobrado un papel muy relevante. Estas redes de sensores utilizan protocolos de comunicación que determinan cómo se produce esta comunicación. En la mayoría de las ocasiones estos protocolos no han sido analizados formalmente con el fin de hacer un estudio exhaustivo y riguroso de los mismos para garantizar su coherencia. Por ello el uso de métodos formales que nos permitan hacer este análisis riguroso es un paso importante en el uso de estos protocolos. Las Redes de Petri Coloreadas Temporizadas (Timed Colored Petri Net (TCPNs)) son una extensión de las redes de Petri que nos permiten modelar variables y tiempos asociados a las mismas, por lo que es un método formal muy adecuado para el análisis de redes de comunicación de sensores. En esta charla se presenta el modelo y análisis del protocolo de comunicación de sensores One Wire usando TCPNs, presentando un estudio completo de dicho protocolo.CV de María Emilia Cambronero Piqueras
La trayectoria investigadora de Mª Emilia Cambronero comienza en Enero de 2002 y se extiende durante algo más de 14 años. Tiene reconocidos dos sexenios de investigación (desde 2004 hasta 2016). El principal campo de aplicación en el que ha trabajado ha sido en servicios web, contratos electrónicos y procesos de negocio, donde he trabajado en incluir/adaptar métodos formales, esencialmente en sistemas distribuidos en tiempo real, así como en el análisis de recursos en este tipo de sistemas. En la actualidad trabaja en métodos formales en verificación para sistemas distribuidos, con comunicaciones asíncronas y restricciones temporales, así como en la definición y análisis formal de comportamiento y uso de recursos en sistemas complejos. Ha realizado estancias en diversos centros de investigación internacionales: Centre for Embedded Software Systems (CISS) de la Universidad de Aalborg (Dinamarca), Cassiopeia: House of Computer Science, en la Universidad de Aalborg, Facultad de Informática de la Universidad Complutense de Madrid y Chalmers University of Technology (Goteborg, Suecia). -
La disciplina del diseño narrativo como el futuro de los videojuegos
Resumen de la conferencia
Es ya obvia la necesidad de contenidos narrativos interactivos variados, dada la facilidad de acceso que proporcionan las plataformas digitales, así como la rápida diseminación de las tecnologías para realidad aumentada y virtual. Los videojuegos llevan décadas generando historias participativas, abordando directamente los problemas que conlleva el integrar la interacción y la narrativa, mientras que los diseñadores de videojuegos aún están experimentando con diferentes modos de crear experiencias narrativas atrayentes en entornos digitales. La disciplina que surge de la tensión entre la historia y la participación se denomina diseño narrativo, y nos proporciona una serie de estrategias que desafían los supuestos principios de la narrativa tradicional y métodos comunes de diseño de juegos. Para facilitar la creación de este nuevo tipo de contenidos, hemos de descartar ciertas ideas preconcebidas sobre la naturaleza de los juegos y la narrativa, para luego concentrarnos en la creación de mundos, el diseño de sistemas narrativos, y la generación de espacios digitales de participación.CV de Clara Fernández Vara
Clara Fernández Vara es Associate Arts Professor en el Game Center de la New York University, donde imparte clases de teoría y narrativa en juegos. Como investigadora, su objetivo es construir puentes interdisciplinares para crear métodos de innovación y abrir camino en el campo del estudio y el desarrollo de videojuegos. Su trabajo se enfoca las estrategias para integrar la narrativa en entornos digitales a través del diseño de la interacción y el espacio, y embarca una variedad de ámbitos, desde las aventuras gráficas a la realidad aumentada y virtual. Clara se licenció en Filología Inglesa en la Universidad Autónoma de Madrid, donde también obtuvo el Diploma de Estudios Avanzados en Literatura Inglesa; posteriormente obtuvo el título de Masters en Comparative Media Studies en el Massachusetts Institute of Technology (MIT). Se doctoró en Digital Media en el Georgia Institute of Technology. Realizó sus estudios de post-doctorado en Singapore-MIT GAMBIT Game Lab, y continuó su trabajo como investigadora visitante en el laboratorio The Trope Tank, ambos en el MIT. Su primer libro, Introduction to Game Analysis, ha sido publicado por la editorial Routledge. -
La evolución de los sistemas software educativos: Los ecosistemas tecnológicos de aprendizaje
Resumen de la conferencia
Una innovación educativa es una suma sinérgica entre crear algo nuevo, el proceso en el que se aplica y la aportación de una mejora como resultado del proceso, y todo ello con una dependencia del contexto en el que se desarrolla y aplica la supuesta innovación. Las innovaciones educativas se pueden clasificar en cuatro categorías no disjuntas. Una de estas categorías hace referencia a la perspectiva institucional que contiene las tendencias más relacionadas con la toma de decisiones, planificación estratégica, gestión de la tecnología y gestión de la propia innovación. En esta categoría se puede destacar como tendencia en la gestión de la tecnología, y también del conocimiento, el concepto de ecosistema tecnológico como evolución de los sistemas software tradicionales. Esta conferencia profundiza en este concepto como soporte a un enfoque de innovación educativo alineado con la estrategia y el gobierno de la universidad, presentando la propuesta DEFINES como un framework para el desarrollo de ecosistemas digitales.CV de Francisco José García Peñalvo
Doctor en Ingeniería en Informática y profesor Titular de Universidad (acreditado a Catedrático de Universidad) del Departamento de Informática y Automática en la Universidad de Salamanca (España). Profesor Distinguido de la Escuela de Humanidades y Educación del Tecnológico de Monterrey (México). Desde 2006, director del Grupo de Investigación Reconocido por la USAL (y Grupo de Excelencia de Castilla y León) GRIAL (GRupo de investigación en InterAcción y eLearning). Director de la Unidad de Investigación Consolidada de la Junta de Castilla y León (UIC 81). Ha sido Vicedecano de Innovación y Nuevas Tecnologías de la Facultad de Ciencias de la USAL (2004 -2007) y Vicerrector de Innovación Tecnológica de esta Universidad (2007-2009). Editor de números especiales en múltiples revistas nacionales e internacionales indexadas en los principales índices de referencia y editor científico de Education in the Knowledge Society (EKS) journal y de Journal of Information Technology Research (JITR). Actualmente Coordinador del Programa de Doctorado en Formación en la Sociedad del Conocimiento de la USAL. ORC I D: orcid.org/ 0 0 0 0 - 0 0 0 1 - 9 9 8 7 - 5 5 8 4. Google Schol a r: http://goo.gl/sDwrr0. -
La Ingeniería Biomédica: de un desconocido comienzo a una madurez imprevista
Resumen de la conferencia
La Ingeniería Biomédica ha pasado de ser un campo poco reconocido a tener máximo interés. La necesidad de encontrar modelos de sistemas fisiológicos, de realizar búsquedas y clasificaciones entre la ingente cantidad de datos medidos en entornos clínico-hospitalarios, del control de procesos clínicos y de desarrollar sistemas la diagnosis han dado lugar a la Ingeniería Biomédica, donde las técnicas más novedosas nacidas de otras áreas aportan soluciones eficientes. En esta conferencia se presentará brevemente algunos logros de la Ingeniería Biomédica de los últimos años, y tres casos estudiados por el Grupo de Control Inteligente de la Universidad del País Vasco: la identificación y clasificación de eventos estresantes en las personas a través del análisis de señales fisiológicas no invasivas; técnicas de Inteligencia Computacional aplicadas a problemas de movilidad en miembros superiores; y finalmente una herramienta basada en Redes Neuronales para la mejora de los procesos de rehabilitación cardiovascular a través de cicloergómetrosCV de Eloy Irigoyen Gordo
El Dr. Eloy Irigoyen Gordo lleva impartiendo clases, simultaneándolo con investigación, en el área de Ingeniería de Sistemas y Automática, desde el año 1993. Ha trabajado en la Universidad Pública de Navarra, Universidad de Deusto y Universidad del País Vasco, donde desempeña actualmente su actividad desde el año 2001. Ha dirigido tres tesis doctorales, dos de ellas en el área de la Ingeniería Biomédica y actualmente dirige otras tres tesis más. En el ámbito de la investigación, el Dr. Eloy Irigoyen Gordo reúne más de 40 publicaciones en revistas de impacto, capítulos de libro, actas de conferencias e informes técnicos. En la actualidad lidera el Grupo de Investigación de Control Inteligente de la Universidad del País Vasco, donde desarrollan investigaciones en dos líneas: Control Inteligente a Ingeniería Biomédica. Además desarrolla parte de su actividad investigadora en diversas asociaciones y organismos como el Comité Español de la Automática, participa como organizador o dentro del comité técnico de diferentes congresos internacionales, realiza tareas de revisor en revistas internacionales con índice de impacto, además de otro tipo de acciones más puntuales. -
Barcelona Supercomputing Center, Generador de Riqueza
Resumen de la conferencia
El Barcelona Supercomputing Center (BSC) fue establecido en 2005 y alberga el MareNostrum, uno de los superordenadores más potentes de España. Somos el centro pionero de la supercomputación en España. Nuestra especialidad es la computación de altas prestaciones - también conocida como HPC o High Performance Computing- y nuestra misión es doble: ofrecer infraestructuras y servicio de supercomputación a los científicos españoles y europeos, y generar conocimiento y tecnología para transferirlos a la sociedad. Somos Centro de Excelencia Severo Ochoa, miembros de primer nivel de la infraestructura de investigación europea PRACE (Partnership for Advanced Computing in Europe), y gestionamos la Red Española de Supercomputación (RES). Como centro de investigación, contamos con más de 456 expertos de 45 países, organizados en cuatro grandes áreas de investigación: Ciencias de la computación, Ciencias de la vida, Ciencias de la tierra y aplicaciones computacionales en ciencia e ingeniería.CV de Mateo Valero
Desde 1983, es catedrático de la Universidad Politécnica de Cataluña (UPC). Ha publicado más de 700 artículos en el área de la arquitectura de los computadores de altas prestaciones. Director del Barcelona Supercomputing Center – Centro Nacional de Supercomputación. Entre sus premios, el premio Eckert-Mauchly 2007, otorgado por el IEEE-ACM; premio Seymour Cray 2015, otorgado por el IEEE; premio “Harry H. Goode” 2009 otorgado por el IEEE; premio ACM Distinguished Service Award 2013; dos premios nacionales de investigación que son: el "Julio Rey Pastor" en Informática y Matemáticas y el “Leonardo Torres Quevedo” en Ingeniería; premio Rey Jaime I de Investigación de la Generalitat Valenciana, “Hall of Fame” en el marco del ICT European Program, seleccionado como uno de los 25 investigadores europeos más influyentes en IT, Tecnologías de la Información. Fellow del IEEE, Fellow distinguido de Intel y Fellow del ACM. Es Doctor Honoris Causa de las Universidades de Chalmers, Belgrado, Las Palmas, Veracruz, Zaragoza, Complutense de Madrid, Cantabria,Granada y CINVESTAV México. -
Swiss-knife Security Kit for Implantable Medical Devices
Resumen de la conferencia
La nueva generación de dispositivos médicos implantables (IMDs) son una realidad, mientras que los problemas de seguridad ligados principalmente a la inclusión de conectividad inalámbrica parece que no han recibido la atención adecuada. La inclusión de mecanismos de seguridad tiene que garantizar un equilibrio entre la seguridad del paciente y la seguridad del propio dispositivo – o lo que es lo mismo, un balance entre el modo de funcionamiento normal y el modo de emergencia. Una vez presentadas las particularidades y riesgos de seguridad de estos dispositivos, se revisaran diferentes soluciones en el contexto de la identificación, establecimiento de claves, generación de números aleatorios, etc.CV de Pedro Peris López
PEDRO PERIS LÓPEZ es Ingeniero de Telecomunicación (2004) y Doctor en Ciencia y Tecnología Informática (2008) por la Universidad Carlos III de Madrid. Durante el periodo comprendido entre octubre del 2004 y diciembre del 2008 fue Profesor ayudante en la Universidad Carlos III de Madrid realizando tanto tareas docentes como de investigación. En enero de 2009 se incorporó, como investigador posdoctoral, a la Delft University of Technology, donde su actividad investigadora fue muy intensa y fortaleció su red de contactos internacionales. Entre septiembre del 2010 y septiembre de 2011 compaginó su actividad en la Universidad de Delft con la de profesor asociado en la Universidad Carlos III donde impartía un día a la semana cursos de grado y máster – en su mayoría en inglés. Desde septiembre de 2011 es profesor Visitante de la Universidad Carlos III de Madrid (COSEC Lab; Departamento de Informática) donde tanto la actividad docente como investigadora han sido muy intensas. En 2016 ha realizado una estancia de investigación, con una duración de 4 meses, en la prestigiosa Universidad de Aalto (Finlandia). Ha recibido el Wikes Award por la revista Computer Journal en 2014 y tres de sus publicaciones han sido galardonadas con el “Best Honorable Mention” en 2015, y el “Best paper Award” en 2014 y 2010, respectivamente. -
Managing Workflows in a Big Data world
Resumen de la conferencia
Big Data is a hot topic across firms these days. Large volumes of data are generated and processed on a daily basis having machine to machine communication as an expected “standard”. At the same time storage becomes less expensive and processing power is getting faster. In this hectic era managing Business Workflows can be a real challenge since algorithms are called to augment decision support on hundreds or thousands of business processes that run in parallel and may depend on each other. This talk will discuss challenges in modern business workflows using Big Data/Machine Learning techniques as well as present intelligent approaches in the context of a real life case study.CV de Stylianos (Stelios) Kapetanakis
Dr Stelios Kapetanakis is an Associate Professor in Business intelligence and Enterprise in the School of Computing, Engineering and Mathematics, University of Brighton. He has a PhD from the University of Greenwich and an MBA in Knowledge and Innovation Management. For the past 12 years Dr Kapetanakis is working closely with EU SMEs and large organisations, having an extended portfolio of Innovate UK funded projects, Research consultancies and EU funding. Dr Kapetanakis has also worked as an independent consultant for the EU Banking sector, the UK Railways, the US Healthcare, Clarksons and Airbus. His research interests include large scale Data Mining and Machine Learning, Case-based Reasoning and Spatial-Temporal reasoning. -
Modelos de Desarrollo Seguro de Software
Resumen de la conferencia
La poca importancia que tradicionalmente se da a la seguridad hace que todas las tareas relacionadas con pruebas de seguridad se releguen a las fases finales del desarrollo del software. Precisamente una gran parte de las vulnerabilidades podrían solucionarse considerando un ciclo de vida del software seguro, donde la seguridad se integre plenamente en todo el proceso de ingeniería del software. Así podrían corregirse errores en los procesos de análisis, diseño y desarrollo de software, evitando que se transformen en errores de implementación en el producto final y, por ende, en vulnerabilidades. Nuestras investigaciones se centran en proponer una metodología propia de desarrollo seguro, adaptada a una Factoría de Software actual (ViewNext en nuestro caso). Para ello, se ha realizado un análisis de metodologías enfocadas al desarrollo de software seguro, identificando las actividades de seguridad fundamentales para cualquier proceso de construcción de software seguro. Junto a estas actividades, se incorporan otras actividades necesarias, conformando así la metodología propia.CV de Andrés Caro Lindo
Andrés Caro, Doctor e Ingeniero en Informática, es Profesor Titular de Universidad en el Departamento de Ingeniería de Sistemas Informáticos y Telemáticos de la Universidad de Extremadura (área de Lenguajes y Sistemas Informáticos). Desde el año 2000 imparte docencia en la Escuela Politécnica (Cáceres), siempre en las titulaciones de Ingeniería e Ingeniería Técnica en Informática. En la actualidad, su docencia se desarrolla en los Grados de Ingeniería Informática (Ingeniería del Software / Ingeniería de Computadores) y en el Máster de Ingeniería Informática, en asignaturas de programación de bases de datos, calidad de procesos y de productos software, auditoría y legislación informática, protección de datos, análisis forense y peritaje informático, hacking ético... Ha participado en la organización de varios cursos de formación del Colegio de Ingenieros en Informática de Extremadura, sobre Auditoría de Sistemas Informáticos, Seguridad Informática, LOPD, Esquema Nacional de Seguridad... Autor de diversos artículos, ponencias e informes periciales, ha sido recientemente premiado (septiembre-2015, en las Jornadas Nacionales de Investigación en Ciberseguridad) por el Instituto Nacional de Ciberseguridad (INCIBE) por uno de sus trabajos, relacionado precisamente con la Informática Forense. -
Resumen de la conferencia
From last four decades of research it is well-established that all electrophysiological signals are nonlinear, irregular and aperiodic. Since those signals are used in everyday clinical practice as diagnostic tools (EMG, ECG, EEG), a huge progress in using it in making diagnostic more precise and even personally oriented medicine, could be made. One of the obstacles is deeply rooted application of linear methods of analysis which are present even in all the machine software for recording of mentioned signals. Health practitioners are used to it. But they are not used to nonlinear methods of analysis of electrophysiological data, although it is proved many times that in comparison to widely accepted FFT. One of examples is very highly accurate method for classification of recurrent depressive disorder by employing nonlinear characterization of EEG and several machine learning methods in order to detect not only patients from controls but also differences between those who suffer from depressive disorders. Clinicians are aware of close to impossible task for present diagnostic tools to make distinction between exacerbation and remission, which is very dangerous deficiency.CV de Milena Cukic
Electroingeneer of biomedical electronics and measurements, she got her PhD from the field of Biophysics and Neuroscience on University of Belgrade. She is Post-Doctoral Fellow on University of Belgrade, and her main interest is the application ofo knowledge from biomedical engineering and nonlinear analysis of electrophysiological data in clinical settings. In her entire education and research several different fields’ interests merged into original ideas of application of knowledge from physics,electrodynamics and theory of complex systems in medical practice. Additionally methods taken from machine learning could be applied with very high accuracy on solving several different medical problems, like depressive disorders detection and classification and movement disorders early prediction and detection. Those methods are not only cost-effective but also computationally fast and easy to implement. Currently she is working on several different project with colleagues form Italy, Serbia, UK, Netherlands and Spain in order to outline a multidisciplinary setting for implementing present knowledge in much more effective clinical diagnostics in psychiatry and neurology. -
Inteligencia Artificial para frenar el ciber espionaje y la ciber delincuencia
Resumen de la conferencia
En los últimos años, se han repetido ciberataques a grandes organizaciones, ya sea con fines lucrativos como los ataques a grandes multinacionales como Visa, MasterCard o Yahoo! que resultaron en el robo de información de sus usuarios, o con motivaciones políticas como los ataques rusos dirigidos a interferir en las últimas elecciones americanas. El daño causado por estos ataques varía, pero puede ser crítico para el correcto funcionamiento de las organizaciones atacadas e incluso para su supervivencia a largo plazo. Es por esto que la seguridad de la información se ha convertido en un área crítica para toda organización. Mediante ejemplos reales, se explicarán conceptos básicos de defensa de la información, así como el concepto de las amenazas persistentes avanzadas (APT). Introduciremos las mayores dificultades a la hora de combatir ciber ataques, así como las tendencias actuales y futuras de la prácticas de ciber seguridad con especial hincapié en las técnicas basadas en inteligencia artificial. Por último, el ponente compartirá su visión personal de las oportunidades actuales de formación, investigación, y de recorrido profesional en el ámbito de la ciber seguridad.CV de Ignacio Arnaldo Lucas
Ignacio Arnaldo es Chief Data Scientist en PatternEx (https://www.patternex.com/), una startup de Silicon Valley que ha desarrollado una herramienta basada en inteligencia artificial para la detección y mitigación de ciber ataques. Anteriormente trabajó como Postdoc en el laboratorio de informática e inteligencia artificial del MIT (CSAIL), donde desarrolló sistemas de software diseñados para optimizar procesos de ciencias de datos. Su investigación ha sido publicada tanto en revistas técnicas de alto impacto como en prensa general (Wired, CBS News). Ignacio es doctor en Informática por la Universidad Complutense de Madrid. -
Resumen de la conferencia
Adaptarse a las nuevas formas de crear y compartir contenidos digitales constituye un reto para la preparación de profesionales en los perfiles emergentes de disciplinas ajenas a la informática y la computación. Los lenguajes y las herramientas de creación digital no están muchas veces pensados para su utilización por parte de usuarios de estos campos. Un reto en el campo de la computación creativa es la posibilidad de incorporar capacidades interactivas multimodales, junto con realidad virtual y realidad aumentada, en las herramientas de autoría con las que se elaboran los materiales y diseños de aprendizaje. El objetivo general de la charla es motivar la investigación sobre la computación creativa, así como mostrar desarrollos diversos alrededor de un marco de trabajo que aspira a fomentar las habilidades de diseño, creación y despliegue de experiencias educativas con capacidades analíticas para el aprendizaje y la evaluación en un contexto multidisciplinar.CV de Juan Manuel Dodero Beardo
Licenciado en Informática por la UPM y doctor en Ingeniería Informática por la UC3M. Profesor Titular del Departamento de Ingeniería Informática de la UCA. Su campo principal de investigación es la ciencia y las tecnologías del software, con especial interés en las tecnologías de mejora del aprendizaje y el diseño de procesos de aprendizaje. En estos campos ha participado y coordinado proyectos nacionales y europeos y generado numerosas publicaciones de impacto y contribuciones a congresos internacionales. En su universidad actual ha sido director de la Oficina de Software Libre y Conocimiento Abierto y coordinador del Máster en Ingeniería Informática. Tiene reconocidos dos periodos de investigación y tres de docencia. -
Bioinformática aplicada al estudio del control de la expresión de genes en el cerebro humano
Resumen de la conferencia
UKBEC (United Kingdom Brain Expression Consortium) has the aim of studying the mechanisms of gene expression regulation in human brain. For that, it works on the creation of regulation models based on (1) expression quantitative trait loci, (2) allele specific expression and (3) co-expression networks. During the first data release from the consortium, braineac.org was created to facilitate sharing results with the research community. Braineac is a database of gene expression and its regulation for 10 brain regions based on samples collected by the Medical Research Council (MRC) Sudden Death Brain and Tissue Bank, Edinburgh, UK from 134 neuro-pathologically normal individuals. Gene expression profiling were based on Affymetrix Human Exon 1.0 ST Arrays. Genotyping were performed with Illumina Infinium Omni1-Quad BeadChip and on Immunochip. We will introduce this resource, currently hosted at Universidad de Murcia, and explain how it can help researchers working on brain diseases. On a second part of the talk, we will focus on the creation of the second release of the Braineac resource, based on RNA-seq technology that allows a genome-wide study of regulation mechanisms.CV de Juan Botía Blaya
Juan A. Botía is Profesor Titular in Universidad de Murcia, Spain. Currently, he enjoys a a research stay as Invited Researcher at Middlesex University, London. His research areas are Machine Learning and Agents and Multi-agent systems. He developed a general framework for meta-learning in this Ph.D. dissertation. He has focused his research to the application of Artificial Intelligence techniques to real world engineering problems. He has applied a number of intelligent techniques (e.g. Neural Networks, Decision Rule Learning, Hidden Markov models, Genetic Algorithms, Fuzzy and Neuro-fuzzy Systems) to the following domains: agriculture, robotics, entertainment, TV broadcasting, telecommunications, home care of elderly people and intelligent buildings. Regarding agents and multi-agent systems, he is centered on the simulation of large agent societies and its application to different issues as human behavior simulation. He has authored and co-authored more than a hundred publications including international journals with high impact, conferences, books and book chapters. -
Competencias del Director de Proyectos en la Cuarta Revolución Tecnológica
Resumen de la conferencia
Estamos asistiendo a una cuarta revolución tecnológica, caracterizada por la proliferación masiva de los sistemas ciberfísicos. La integraciónn de tecnologías como Internet de las Cosas, Cloud Computing, Bid Data, Inteligencia Artificial, Robótica, Impresión 3D, etc., va a cambiar la forma en que se desarrolla nuestra vida, los modelos de negocio y la sociedad en su conjunto. La implementación de esta revolución se desplegará a través de miles de proyectos, que debe ser gestionados eficientemente para conseguir su éxito. En esta conferencia, abordamos cuáles son las competencias profesionales y personales que debe tener un director/a de proyectos para poder abordar la complejidad de este tipo de proyectos, en los que confluyen diferentes tecnologías y profesionales de distintos ámbitos.CV de Javier Pajares
Profesor Titular de la Universidad de Valladolid. Doctor Ingeniero Industrial por la Universidad del País Vasco e Ingeniero Industrial por la Universidad de Valladolid. Realiza su actividad investigadora INSISOC (Social Systems Engineering Centre), grupo de investigación dedicado al modelado, análisis y gestión de sistemas socio-tecnológicos complejos. Sus áreas de especialización son Dirección de Proyectos, Gestión de la I+D+i y Gestión de la Complejidad. Autor de numerosos artículos en revistas científico técnicas, participa y ha participado en diferentes proyectos de I+D+i europeos, nacionales y regionales, así como en proyectos de I+D de financiación privada. Certificado como Director de Proyectos nivel C por la International Project Management Association (IPMA), es evaluador de IPMA-AEIPRO de competencias profesionales en Dirección de Proyectos y vocal de la Asociación Española de Dirección e Ingeniería de Proyectos (AEIPRO). -
Resumen de la conferencia
En esta charla presentaremos las ultimas propuestas del Barcelona Supercomputing Center (BSC) al modelo de programación paralela OpenMP relacionadas con el modelo de tareas. Nos centraremos en las oportunidades que presentan dichas extensiones al runtime que da soporte a la ejecución paralela y al co-diseño de arquitecturas runtime-aware. En la ultima parte de la charla se presentará como dicho modelo basado en tareas forma el eje central de las dos asignaturas de paralelismo en la Facultad de Informatica de Barcelona (FIB) de la Universitat Politècnica de Catalunya (UPC).CV de Eduard Ayguadé
Eduard Ayguadé received the Engineering degree in Telecommunications in 1986 and the Ph.D. degree in Computer Science in 1989, both from the Universitat Politècnica de Catalunya (UPC), Spain. Currently, and since 1997, he is full professor of the Computer Architecture Department at UPC. Prof. Ayguadé is also involved in the Computer Architecture and Technology PhD Program at UPC, where he has (co-)advised more than 20 PhD thesis, in topics related with his research interests: multicore architectures, parallel programming models and their architectural support and compilers for HPC architectures. In these research topics, Prof. Ayguadé has published more than 350 papers and participated in several research projects in the framework of the European Union and research collaborations with companies related with HPC technologies (IBM, Intel, Samsung, Nvidia and Microsoft). Currently Prof. Ayguadé is associated director for research on the Computer Sciences Department at the Barcelona Supercomputing Center (BSC-CNS), the National Center for Supercomputing in Spain located in Barcelona. -
Autonomy for Robotic Planetary Exploration Missions: Perception and Navigation for Autonomous Rovers
Resumen de la conferencia
Robotic space missions are a complex field of study, usually undertaken by national space agencies like NASA, ESA or international consortia. They involve multiple disciplines such as mechanical design, electronics, astronomy, propulsion technology, robotics, artificial intelligence, critical software and Communications. A growing and fundamental requirement in this type of missions is autonomy, understood as the ability of a vehicle to make its own decisions, minimizing the dependence of ground operators. This talk presents an overview of space exploration using robots, focused mainly on their autonomous navigation abilities, which allow vehicles to move from one location on the surface of the planet to another avoiding obstacles and dangers, discussing also the necessary elements to develop and validate this technologyCV de Raúl Correal Tezanos
Raúl Correal obtuvo su tesis doctoral en Ingeniería Informática por la Universidad Complutense de Madrid en al ámbito de la percepción en robótica basada en la aplicación de técnicas de visión estereoscópica para reconstrucción de la estructura tridimensional de la escena. Previamente se graduó en robotics and computer science en la University of Southern California. Actualmente desarrolla su actividad profesional en la empresa IXION basada en la aplicación de temas de robótica, exploración planetaria, visión por computador y vehículos autónomos en diferentes proyectos de I+D+i con una clara transferencia tecnológica. Compatibiliza la actividad profesional con su actividad docente en la Facultad de Informática de la Universidad Politécnica de Madrid. -
Conditional Entropy and Failed Error Propagation in Software Testing
Resumen de la conferencia
In failed error propagation (FEP), an erroneous program state (that occurs in testing) does not lead to an observed failure. FEP is known to hamper software testing, yet it remains poorly understood. If we could, for example, assess where FEP is likely to occur then we might be able to produce more effective notions of test coverage that would incorporate an element of semantics. This talk will describe an information theoretic formulation of FEP that is based on conditional entropy. This formulation considers the situation in which we are interested in the potential for an incorrect program state at statement s to fail to propagate to incorrect output. The talk will explore the underlying idea, metrics that have been defined to try to estimate the probability of FEP, and experimental evaluation.CV de Robert M. Hierons
Rob Hierons received a BA in Mathematics (Trinity College, Cambridge), and a Ph.D. in Computer Science (Brunel University). He then joined the Department of Mathematical and Computing Sciences at Goldsmiths College, University of London, before returning to Brunel University in 2000. He was promoted to full Professor in 2003. Rob Hierons’ main research largely concerns the automated generation of efficient, systematic test suites on the basis of program code, models or specifications. He also has a significant interest in program analysis and automated transformation techniques such as program slicing. He is joint Editor of the Journal of Software Testing, Verification, and Reliability (STVR). He has organised or been on the steering committee of several international conferences and workshops. He has published over 150 papers in international workshops, conferences and journals including in top journals such as SIAM Journal of Computing, IEEE Transactions on Computers, IEEE Transactions on Software Engineering, and ACM Transactions on Software Engineering and Methodology -
Just Enough is More: Achieving Sustainable Performance in Thermally-Constrained Mobile Devices
Resumen de la conferencia
Mobile processors integrate low-power and power-hungry cores together to combine energy efficiency with high performance. While running computationally demanding applications, current system management techniques greedily maximize quality-of-service (QoS) within thermal constraints using power-hungry cores. This talk first shows that such an approach delivers short bursts of high QoS, but also causes severe QoS loss over time due to thermal throttling. To provide mobile users with sustainable QoS over extended durations, we have designed "QScale" at PeacLab. QScale is a novel thermally-e fficient QoS management framework for mobile devices with (heterogeneous) multi-core CPUs. QScale leverages thread heterogeneity and on-chip thermal coupling information during runtime thread allocation. QScale coordinates closed-loop frequency control with its thermally-efficient allocation to deliver the desired QoS with minimal exhaustion of processor thermal headroom. Experiments on state-of-the-art mobile platforms show that QScale meets target QoS levels while minimizing heating, achieving up to 8x longer durations of sustainable QoS.CV de Ayse Kivilcim Coskun
Ayse K. Coskun is an associate professor in the Electrical and Computer Engineering Department at Boston University. She received her MS and PhD degrees in Computer Science and Engineering from University of California, San Diego. Coskun’s research interests include energy-efficient computing, novel computer architectures including using 3D stacking, embedded systems, emerging cooling methods, and intelligent management of data centers. Prof. Coskun has worked at Sun Microsystems (now Oracle), San Diego prior to her current position at BU. Coskun is a recipient of the NSF CAREER award and currently serves as an associate editor for IEEE Transactions on CAD. She also authors a bimonthly column on green computing in the Circuit Cellar magazine. -
Design and Validation of cloud storage systems using Maude
Resumen de la conferencia
To deal with large amounts of data while offering high availability and throughput and low latency, cloud computing systems rely on distributed, partitioned, and replicated data stores. Such cloud storage systems are complex software artifacts that are very hard to design and analyze. We argue that formal specification and model checking should be beneficial during their design and validation. In particular, we propose rewriting logic and its accompanying Maude tools as a suitable framework for formally specifying and analyzing both the correctness and the performance of cloud storage systems. This talk gives an overview of the use of rewriting logic at the University of Illinois' Assured Cloud Computing center on industrial data stores such as Google's Megastore and Facebook/Apache's Cassandra. We also briefly summarize the experiences of the use of a different formal method for similar purposes by engineers at Amazon Web ServicesCV de Peter Csaba Ölveczky
Peter Ölveczky received his PhD in computer science from the University of Bergen, Norway, in 2000, having performed his thesis research at SRI International. He was assistant and then associate professor at the University of Oslo 2001-2008, and has been a full professor there since 2008. He was also a post-doctoral researcher at the University of Illinois at Urbana-Champaign (UIUC) 2002-2004, and has been a visiting researcher at UIUC since 2008. Ölveczky's research focuses on formal methods, in particular for real-time systems. He is the developer of the Real-Time Maude tool, which has been used to formally model and analyze a large range of advanced systems, including scheduling protocols, distributed data stores, wireless sensor network algorithms, the human thermoregulatory system, mobile ad hoc networks, avionics systems, and so on. Ölveczky has organized 10 international scientific workshops/conferences, and has edited a number of scientific books and journal issues. -
Procesamiento de eventos complejos aplicado al ámbito de las smart cities
Resumen de la conferencia
El procesamiento de eventos complejos (CEP) es una tecnología emergente que permite procesar, analizar y correlacionar ingentes volúmenes de datos con el fin de detectar en tiempo real situaciones críticas o relevantes para un dominio en particular. Los lenguajes de procesamiento de eventos (EPL) permiten implementar los patrones de eventos a registrar en motores CEP para detectar dichas situaciones. Para llevar a cabo esta tarea, el usuario debe tener un alto grado de experiencia en estos lenguajes. Sin embargo, los usuarios suelen tener un vasto conocimiento en el dominio para el que se necesitan definir ciertos patrones, pero que son inexpertos tanto en EPL como en el lenguaje requerido para implementar las acciones a ejecutar tras la detección de los eventos en sus sistemas de información. En esta charla, se introducirán los fundamentos de esta tecnología y se presentarán varios casos prácticos en el ámbito de las smart cities haciendo uso de MEdit4CEP, una solución dirigida por modelos para CEP en arquitecturas orientadas a servicios y dirigidas por eventos.CV de Juan Boubeta-Puig
Juan Boubeta-Puig es Doctor en Ingeniería y Arquitectura por la Universidad de Cádiz (UCA, 2014). En 2009, se incorporó como profesor al Departamento de Ingeniería Informática de la UCA, donde continúa actualmente su labor docente e investigadora. Además, es miembro del grupo de investigación UCASE (Software Engineering Research Group), donde desarrolla su labor investigadora centrándose en el procesamiento de eventos complejos en arquitecturas orientadas a servicios y dirigidas por eventos (SOA 2.0), el Internet de las cosas y el desarrollo dirigido por modelos de interfaces de usuario avanzados. Cuenta con numerosas publicaciones en foros y revistas internacionales de reconocido prestigio. Ha recibido el Premio Extraordinario de Doctorado en el Área de Ingeniería y Arquitectura de dicha Universidad, y el Premio Nacional a la Mejor Tesis Doctoral 2016 en el ámbito de la Sociedad de Ingeniería de Software y Tecnologías de Desarrollo Software (SISTEDES).
-
Parallel programming for resiliency and energy efficiency in HPC
Resumen de la conferencia
The quest for higher energy-efficiency in future HPC systems is strongly connected with the need for enhanced resilience as resilience techniques have a non-trivial energy cost. In addition, ongoing efforts to further improve the energy-efficiency at the device level (such as operating hardware below its nominal margins or replacing DDR technology with non-volatile memory technologies) may compromise hardware reliability, asking for solutions in the software. In this talk we will review the interactions between reliability and energy efficiency in HPC linear algebra libraries, by discussing a collection of techniques such as software fault tolerance, approximate computing, asymmetry-aware scheduling, and thread-level malleability.CV de Enrique S. Quintana-Ortí
Enrique S. Quintana Orti received his Ph.D. degree from the UPV, in Valencia, Spain, in 1996. Currently, he is full professor in Computer Architecture at Universidad Jaime I of Castellon, Spain. His research is focused in high performance computing, having published 300+ research papers. He has also served on the program committees for 50+ international Conferences in the field of high performance computing, and is currently Subject Area Editor for Parallel Computing. In the last 5 years, he has also participated in two H2020 EU projects, on Energy Efficiency for Numerical Libraries and Approximate Computing. Enrique received the 2008 NVIDIA Professor Partnership Award as well as two Awards from NASA (National Aeronautics and Space Administration) for his technical contributions in the area of resilient linear algebra libraries. -
Modeling and machine learning for estimation, simulation, and optimization
Resumen de la conferencia
Currently, we observe a certain hype around big data technologies. The exponential amounts of data generated and stored globally offer huge potentials for new products and services and have reignited interest in machine learning and artificial intelligence. However, many jump onto the machine learning bandwagon without a clear understanding of the underlying concepts and believe that given enough data, ML can be used to solve all kinds of problems automatically. In this talk I’ll give an introduction to the fundamentals of data-based modeling, simulation and optimization with examples of real-world applications in engineering. I’ll describe alternative approaches for systems optimization to highlight situations where data-based modeling and simulation are especially effective and I’ll describe methods for data-based modeling briefly. Practical examples will be demonstrated using HeuristicLab – an open source software environment for heuristic optimization (http://dev.heuristiclab.com).CV de Gabriel Kromberger
Dr. Gabriel Kronberger has studied informatics and technical sciences at the Johannes Kepler University in Linz and has worked as a research assistant in the Heuristic and Evolutionary Algorithms Laboratory (HEAL) at the University of Applied Sciences Upper Austria where he also completed his dissertation on Symbolic Regression for Knowledge Discovery. Currently, he is professor for data engineering and business intelligence at the School for Informatics, Communication and Media at the University of Applied Sciences Upper Austria. His main topic of research are algorithms for identification and optimization of empirical models, especially identification of symbolic regression models using genetic programming. He is in active collaboration with several international companies using symbolic regression techniques for modeling and optimization. -
Aplicaciones HPC para planeamiento rural y visualización masiva de datos
Resumen de la conferencia
La computación de altas prestaciones (HPC) proporciona la posibilidad de realizar simulaciones sobre conjuntos masivos de datos en múltiples ámbitos científicos, dando lugar además a experiencias de trabajo multidisciplinares que amplían de forma sustancial el potencial de impacto a nivel social de las tecnología HPC. En esta charla se presentan algunas de estas aplicaciones y su despliegue sobre recursos HPC desarrolladas dentro del Grupo de investigación en Arquitectura de Computadores de la Univ. de A Coruña, haciendo énfasis en aquellas centradas en el planeamiento rural y la visualización de datos LiDAR ((Light Detection and Ranging).CV de Ramón Doallo
Arquitectura de Computadores desde 1994. Posee 28 años de experiencia investigadora en las áreas de arquitectura de computadores, supercomputación, computación paralela y distribuida, cloud computing, procesamiento Big Data, y sistemas de información geográfica. Ha publicado en estos campos más de 200 artículos en revistas y congresos internacionales, y ha dirigido 10 tesis doctorales. Sus publicaciones incluyen 80 artículos en revistas JCR , 42 de ellas publicadas en los últimos cinco años, así como numerosos trabajos en congresos de gran prestigio en su área . A fecha 06/04/2016 sus publicaciones han recibido un total de 5193 citas en Google Scholar. Ha participado en 118 acciones de I+D públicas y privadas (proyectos, contratos, redes…), en 78 de ellas como Investigador Principal. De estas acciones, 61 se corresponden con contratos con empresas y administraciones públicas. -
Resumen de la conferencia
The soul is defined as a “distinguishing mark of living things, responsible for planning and practical thinking”. Logic has been present in the origin and many important developments in Computer Science. Hilbert’s quest for effective methods to mechanically prove theorems stimulated some of the brightest minds of the 20th century to prove it unfeasible. Eigthy years ago, Church and Turing advanced the thesis that lambda calculus and a-machines formalize the notion of effective method, and displayed sentences which could not be proved or disproved. This was the end of Hilbert’s dream and the birth of Computer Science. The Universal Turing Machine became the abstract model of our current notion of computer. Since then, we can find logic wired into the electronic devices that make computers alive; providing a communication language with the computer; guiding verification methods to prove programs correct; and providing the basis for the semantic web. We’ll review these epiphanies so you’ll be hopefully ready to agree that Logic is the Soul of Computer Science.CV de Salvador Lucas Alba
Salvador Lucas es Catedrático de Lenguajes y Sistemas Informáticos de la Universidad Politécnica de Valencia. Ha publicado más de 100 trabajos en revistas y conferencias internacionales, y ha participado en varios comités científicos y editoriales de ámbito internacional. Su actividad investigadora se centra en el desarrollo de técnicas para mejorar la fiabilidad y eficiencia del software; el empleo de métodos rigurosos, con una sólida base matemática, ha sido fundamental en la metodología utilizada para abordar dicho objetivo. El estudio de procesos automáticos para mejorar la eficiencia y garantizar las buenas propiedades de los sistemas software también ha sido una constante en su trabajo. Su investigación ha intentado siempre que los resultados teóricos se vieran reflejados en herramientas que cualquier usuario interesado en el tipo de problemas abordados pudiera utilizar con facilidad. Las más recientes están disponibles como aplicaciones web, siendo a menudo el resultado de un esfuerzo conjunto de estudiantes e investigadores a lo largo de muchos años. -
Languages, ontologies and automatic grammar generation
Resumen de la conferencia
In this talk I intend to review some basic and high-level concepts like formal languages, grammars and ontologies. Languages to transmit knowledge from a sender to a receiver; grammars to formally specify languages; ontologies as formals specifications of specific knowledge domains. After this introductory revision, enhancing the role of each of those elements in the context of computer-based problem solving (programming), I will talk about a project aimed at automatically infer and generate a Grammar for a Domain Specific Language (DSL) from a given ontology that describes this specific domain. The transformation rules will be presented and the system, Onto2Gra, that fully implements that "Ontological approach for DSL development" will be introduced.CV de Pedro Rangel Henriques
Pedro Rangel Henriques got a degree in "Electronics Engineering", at FEUP (Porto University), and finished a Ph.D. thesis in "Formal Languages and Attribute Grammars" at Minho University. In 1981 he joined the Computer Science Department of University of Minho, where he is a teacher/researcher. Since 1995 he is the coordinator of the "Language Processing group" at "Algoritmi Research Center". He teaches different courses in the broader area of programming: Programming Languages and Paradigms; Compilers; Language Engineering; etc. Grammar Engineering and Software Analysis and Transformation; etc. Pedro Rangel Henriques has supervised 13 Ph.D. thesis, and more than 30 M.Sc. thesis, and many graduating trainingships/projects, in the areas of: language processing (textual and visual), and structured document processing; code analysis, program visualization/animation and program comprehension; knowledge discovery from databases, data-mining, and data-cleaning. He is co-author of the "XML & XSL: da teoria a prática " book, publish by FCA in 2002, has published 6 chapters in books, and 26 journal papers, and has been enrolled in 28 R&D projects -
Analyzing large multimedia collections in an urban context
Resumen de la conferencia
In this talk I will consider the analysis of social media data in an urban context, in particular we look at textual data, visual data and all their metadata to understand social and business phenomena. Analyzing such complex and diverse data poses major challenges for the analyst as the insight of interest is a result of an intricate interplay between the different modalities, their metadata and the evolving knowledge the analyst has about the problem. Our multimedia analytics solutions brings together automatic multimedia analysis and information visualization to give the analyst the optimal opportunities to get insight in complex datasets and use them in applications such as recommending venues to tourists, measuring the effect of city marketing campaigns, or seeing how social multimedia redefines urban borders.CV de Marcel Worring
Marcel Worring is a professor in Data Science for Business Analytics at the University of Amsterdam. He has affiliations with both the Amsterdam Business School and the Informatics Institute. In addition to this he is one of the associate directors of Amsterdam Data Science an organization bringing together researchers from four research institutes in Amsterdam (Amsterdam University of Applied Sciences, Center for Mathematics and Computer Science, VU University Amsterdam, University of Amsterdam). He is an active research in the area of multimedia with over 200 publications in the field. His research interests are in multimedia analytics bringing together visual analytics and multimedia analysis and realizing the highest synergy between the two. Among other activities he is one of the general chairs of the ACM Multimedia 2016 in Amsterdam, the leading conference on the topic. -
Sin dejarse atrás términos lambda-valor resolubles
Resumen de la conferencia
El cálculo lambda es bien conocido por su importancia en la teoría de la computabilidad así como en el estudio de los lenguajes de programación y sistemas de demostración asistida. Un concepto fundamental del cálculo lambda puro es la de término resoluble. Un término resoluble es aquel cuya reducción o bien termina (tiene forma normal) o bien aunque la reducción del mismo no termina, su aplicación a argumentos termina (es decir, el término es operacionalmente relevante al usarse como función). Los términos irresolubles son operacionalmente irrelevantes y pueden igualarse manteniendo la consistencia de la teorías lógicas de reducción y conversión del cálculo (lo que no ocurre con los términos sin forma normal). El cálculo lambda-valor fue introducido para dar fundamento teórico a los lenguajes funcionales con paso de parámetro por valor. Existe una definición de resolubilidad para dicho cálculo que es problemática entre otras cosas porque hay términos en forma normal que son irresolubles, y las teorías lógicas resultantes no son "del todo" consistentes. En esta charla dirigida a no expertos introduciré el cálculo lambda, la resolubilidad, el cálculo lambda-valor, y la definición de resolubilidad existente para este último. Después mostraré una definición alternativa de resolubilidad para lambda-valor que, entre otros resultados, permite dar una teoría lógica consistente igualando los irresolubles según un orden. El trabajo aparecerá publicado en la revista Logical Methods in Computer Science.CV de Pablo Nogueira Iglesias
Pablo Nogueira es doctor en informática por la Universidad de Nottingham (Reino Unido) y ha sido Profesor Ayudante Doctor en la ETSI Informáticos de la UPM hasta su incorporación como investigador en el Instituto IMDEA Software. Es también miembro del grupo de investigación Babel de la UPM. Pablo Nogueira ha publicado trabajos en diferentes subareas del campo de los lenguajes de programación tales como la programación genérica funcional, tipos abstractos, depuración guiada por demostraciones, algebra relacional y unificación, verificación y optimización mediante transformación de programas, semántica operacional y cálculo lambda. -
Towards dynamic updates in service composition
Resumen de la conferencia
We present adaptable processes as a way of overcoming the limitations that process calculi have for describing patterns of dynamic process evolution. Such patterns rely on direct ways of controlling the behavior and location of running processes, and so they are at the heart of the adaptation capabilities present in many modern concurrent systems. Adaptable processes have named scopes and are sensible to actions of dynamic update at runtime; this allows us to express dynamic and static topologies of adaptable processes as well as different evolvability patterns for concurrent processes. We then consider distributed adaptability, where a process can update part of a protocol by performing dynamic distributed updates over a set of protocol participants. Dynamic updates in this context are presented as an extension of our work on choreographies and behavioural contracts in multiparty interactions. We show how update mechanisms considered for adaptable processes can be used to extend the theory of choreography and orchestration/contracts, allowing them to be modified at run-time by internal (selfadaptation) or external intervention.CV de Mario Bravetti
Mario Bravetti is an Associate Professor (with national Full Professor habilitation) at the Computer Science and Engineering Department of University of Bologna. He is also member of the FOCUS (FOundations of Component-based Ubiquitous Systems) team which is part of the INRIA Sophia Antipolis - Méditerranée research center. He he is cofounder and member of the steering committee of the international workshop on Web Services and Formal Methods (WS-FM). He has been organizer/program committee chair of several international conferences and events, such as the 11th International Conference on Software Engineering and Formal Methods (SEFM 2013), the 20th International conference on Concurrency Theory (CONCUR 2009), and the meeting on the 25th anniversary of Process Algebra. His current research interests include behavioural contracts for service composition. -
Desarrollo de robots sociales con RoboComp
Resumen de la conferencia
El diseño, construcción y desarrollo de robots sociales que convivan con los humanos facilitándoles sus condiciones de vida es uno de los retos tecnológicos más importantes de la actualidad. En esta presentación describiremos el camino seguido en esta línea desde RoboLab a través de un framework de desarrollo para robótica basado en componentes llamado RoboComp, de fuentes abiertas y creado durante los últimos 10 años en colaboración con varias universidades del país. Se presentarán brevemente los diferentes tipos de robots sociales que construidos en RoboLab, su uso y evolución con el tiempo. Todos ellos se han desarrollado sobre RoboComp que proporciona un conjunto de herramientas para asistir en el ciclo de vida de los componentes software. Entre éstas, se cuenta con un generador de código que usa varios lenguajes específicos de dominio para definir la conectividad y parte de la funcionalidad de los componentes. Finalmente, se describirá el estado actual de la nueva arquitectura cognitiva CORTEX, desarrollada sobre RoboComp y que, en colaboración con varios grupos de robótica, está siendo implementada y probada en varios proyectos y nuevos robots.CV de Pablo Bustos García de Castro
El Dr. Pablo Bustos es Ingeniero en Informática por la Universidad Politécnica de Madrid (1992) y doctor en Informática por la misma Universidad (1998). Desde 1989 a 1999 trabajó en el Instituto de Automática Industrial del Consejo Superior de Investigaciones Científicas, realizando allí la tesis doctoral durante la cual construyó su primer robot autónomo. Durante ese periodo realizó varias estancias de investigación en centros como la Universidad Heriot-Watt de Edimburgo con el profesor Robert L. Heuben, en el IMPAQT Center de la Universidad de Drexel, Philadelphia EEUU con el profesor Alex Meystel y en el Active Vision Laboratory de la Universidad de Oxford con el profesor Ian Reid, todas ellas financiadas en convocatorias públicas competitivas. Actualmente es profesor titular del área de Arquitectura y Tecnología de Computadores en la Universidad de Extremadura donde imparte clases de Robótica en la Escuela Politécnica de Cáceres y donde también codirige el Laboratorio de Robótica y Visión Artificial, RoboLab. Ha dirigido 4 tesis doctorales y cuenta con más de 100 publicaciones, de las cuales 22 son revistas internacionales y 7 capítulos de libro. Ha participado en más de 30 proyectos europeos y nacionales, dirigido 10 proyectos de investigación nacional, donde caben destacar cuatro proyectos financiados por el Plan Nacional de Investigación, un proyecto en la convocatoria INNPACTO y uno en el Plan Avanza I+D. También ha dirigido varios proyectos financiados por la Universidad y ocho proyectos de transferencia con empresas. Es revisor habitual de revistas y de congresos internacionales. Cabe destacar también la organización de diversos eventos tanto científicos como docentes en áreas como la introducción de la Robótica en la enseñanza primaria y secundaria, el desarrollo de la agro-tecnología en la Comunidad de Extremadura o el proyecto institucional SmartPoliTech, actualmente en desarrollo en la Escuela Politécnica de la Uex. Ha organizado el Workshop de Agentes Físicos en 2009. Ha sido miembro del comité de programa de varios congresos nacionales y es editor asociado de la revista JOPHA. -
Ingeniería informática, automática y robótica claves de la agricultura del futuro
Resumen de la conferencia
La población mundial, alrededor de 7.300 millones de personas, aumenta en 3 nuevos individuos cada segundo, lo que supone un total de 240.000 personas más por día. A este ritmo en 2050 la población mundial será de aproximadamente 9.600 millones de personas; 1.000 millones más de bocas que alimentar en los próximos 12 años. Las predicciones apuntan a la necesidad de incrementar en un 70% la producción de alimentos con el fin de responder al ritmo de crecimiento de la población. Esta producción masiva, reduciendo a la vez el consumo de agua y pesticidas, es un reto excepcional en el que el desarrollo y uso de la alta tecnología será esencial.CV de Ángela Ribeiro Seijas
Ángela Ribeiro ha desarrollado su carrera de investigación en el CSIC desde 1990. En 2010 se integró en el Centro de Automática y Robótica (CSIC-UPM) donde es coordinadora de la Unidad de Investigación en Percepción Artificial. Desde 2007 es el líder del Grupo de Percepción Artificial. Sus intereses de investigación incluyen la percepción artificial, el reconocimiento de patrones, la visión artificial, la computación evolutiva, la representación del conocimiento espacial, el razonamiento espacial para los sistemas de apoyo a la toma de decisión, los sistemas distribuidos, la inteligencia colectiva, la robótica colectiva, y los sistemas multi-robot. Es autora de más de un centenar de publicaciones en revistas y actas, y varios capítulos de libro. Ha impartido diversos cursos de máster y doctorado en diferentes universidades nacionales e internacionales. Ha dirigido numerosos proyectos de investigación relacionados con la aplicación de las técnicas anteriores a la Agricultura de Precisión. Ha sido la Directora Científica y Técnica del proyecto europeo RHEA (Robot Fleets for Highly Effective Agriculture and Forestry Management - http: //www.rhea- project.eu). Actualmente es coeditora jefe de la revista “Computers and Electronics in Agriculture”. -
Investigación en Ingeniería Neural y Cognitiva
Resumen de la conferencia
En esta conferencia se describirán los trabajos de investigación más recientes en el área de la ingeniería neural y cognitiva en este grupo del CSIC en los que se abordan métodos y tecnologías para la rehabilitación física y cognitiva, interfaces hombre-máquina, modelado computacional y tratamiento de información neurofisiológica desde una perspectiva integral y orientada al reto social de salud y bienestar del ser humano.CV de María Dolores del Castillo Sobrino
M.ª Dolores del Castillo, Dra. en Ciencias Físicas e investigadora del CSIC, ha centrado sus trabajos de investigación y desarrollo en el campo del aprendizaje automático y su aplicación en el descubrimiento de conocimiento, en arquitecturas cognitivas para aprendizaje multiestratégico, en el tratamiento inteligente de la información digital, en modelos computacionales de procesos cognitivos como la toma de decisiones o el lenguaje y en el análisis de datos neurofisiológicos para construir modelos de comportamiento. En todo ello ha buscado siempre, a través de los distintos proyectos que han sustentado sus trabajos y de las publicaciones generadas, la transferencia de conocimiento y su aplicación práctica en distintos sectores de la sociedad. -
Métodos computacionales para el estudio de modelos epidemiológicos con incertidumbre
Resumen de la conferencia
La introducción de la incertidumbre en modelos epidemiológicos es un área de incipiente actividad en la actualidad. En la mayor parte de los enfoques adoptados se asume un comportamiento gaussiano en la formulación de dichos modelos a través de la perturbación de los parámetros vía el proceso de Wiener o movimiento browiniano u otro proceso discretizado equivalente. En esta conferencia se expone un método alternativo de introducir la incertidumbre en modelos de tipo epidemiológico que permite considerar patrones no necesariamente normales o gaussianos. Con el enfoque adoptado se determinará en contextos epidemiológicos que tienen un gran número de aplicaciones, la primera función de densidad de probabilidad del proceso estocástico solución. Esto permite la determinación exacta de la respuesta media y su variabilidad, así como la construcción de predicciones probabilísticas con intervalos de confianza sin necesidad de recurrir a aproximaciones asintóticas, a veces de difícil legitimación. El enfoque adoptado también permite determinar la distribución probabilística de parámetros que tienen gran importancia para los epidemiólogos, incluyendo la distribución del tiempo hasta que un cierto número de infectados permanecen en la población, lo cual, por ejemplo, permite tener información probabilística para declarar el estado de epidemia o pandemia de una determinada enfermedad. Finalmente, se expondrá algunos de los retos computacionales inmediatos a los que se enfrenta la técnica expuesta.CV de Juan Carlos Cortés López
Juan Carlos Cortés López es catedrático de universidad en el área de Matemática Aplicada y su principal línea de investigación son las ecuaciones diferenciales con incertidumbre y su aplicación a la modelización, prestando especial atención al desarrollo de métodos computacionales. Actualmente ocupa la subdirección del Instituto Universitario de Matemática Multidisciplinar de la Universitat Politécnica de València. Es autor de más de 80 artículos de investigación publicados en revistas internacionales, 70 de los cuales están indexados en revistas del JCR (Journal Citation Report). Ha sido organizador de 6 congresos internacionales y ha formado parte del comité científico en 12 congresos internacionales. Ha sido editor invitado de diferentes revistas internacionales indexadas en JCR (Journal of Computational and Applied Mathematics, Mathematical and Computer Modelling, etc.). Ha sido Investigador Principal de diferentes proyectos de investigación, siendo en la actualidad co-Investigador Principal del Proyecto “Ecuaciones Diferenciales Aleatorias: Teoría y Aplicaciones” (MTM2013-41765-P). -
¿Pueden los androides aprender lo que es una oveja mecánica?
Resumen de la conferencia
Los diferentes métodos de aprendizaje automático se pueden clasificar de varias maneras. Una de ellas distingue entre métodos discriminativos y generativos. En esta charla daremos una visión global de ambos, repasando sus ventajas, inconvenientes y aplicaciones más frecuentes; aunque nos detendremos un poco más en los métodos generativos, mostrando las técnicas más usuales y algunas novedades. El recorrido nos llevará por métodos como Máquinas de Vectores Soporte, Redes Neuronales, Modelos ocultos de Markov o Redes bayesianas; y aplicaciones como reconocimiento del habla, reconocimiento facial, secuenciación genética, detección de fraude en comercio electrónico o vigilancia de pacientes en la UCI. Al final de la charla reflexionaremos brevemente sobre hasta qué punto es acertado decir que la máquina está aprendiendo.CV de Alfredo Cuesta Infante
Alfredo Cuesta es Profesor Visitante en el Departamento de Informática y Estadística de la Universidad Rey Juan Carlos. Su investigación actual está centrada en modelos generativos, con aplicaciones en predicción, clasificación y agrupamiento. Ha publicado en artículos en revistas indexadas (JCR) y congresos de reconocido prestigio (Core A y A*). Ha participado en diferentes proyectos de investigación con aplicaciones en control bajo incertidumbre, estimación de recursos eólicos, ciberseguridad y visión artificial; colaborando con grupos tanto de España como de EEUU. Cabe destacar que tiene reconocida una patente en España y otra en EEUU en la última fase de evaluación. -
Like Alice in Wonderland: Unraveling reasoning and cognition using analogies and concept blending
Resumen de la conferencia
Analogy is one of the most studied representatives of a family of non-classical forms of reasoning working across different domains, usually taken to play a crucial role in creative thought and problem-solving. In the first part of the talk, I will shortly introduce general principles of computational analogy models (relying on a generalization-based approach to analogy-making). We will then have a closer look at Heuristic-Driven Theory Projection (HDTP) as an example for a theoretical framework and implemented system: HDTP computes analogical relations and inferences for domains which are represented using many-sorted first-order logic languages, applying a restricted form of higher-order anti-unification for finding shared structural elements common to both domains. The presentation of the framework will be followed by a few reflections on the "cognitive plausibility" of the approach motivated by theoretical complexity and tractability considerations. In the second part of the talk I will discuss an application of HDTP to modeling essential parts of concept blending processes as current "hot topic" in Cognitive Science. Here, I will sketch an analogy-inspired formal account of concept blending —developed in the European FP7-funded Concept Invention Theory (COINVENT) project— combining HDTP with mechanisms from Case-Based Reasoning.CV de Tarek Besold
Tarek R. Besold (https://sites.google.com/site/tarekbesold/) is a PostDoc in the KRDB Research Centre at the Faculty of Computer Science of the Free University of BozenBolzano (South Tyrol, Italy). Before that, he was a member of the AI Research Group at the Institute of Cognitive Science of the University of Osnabrück (Germany), and an academic visitor at the Centre for Intelligent Systems and their Applications (CISA) within the School of Informatics at the University of Edinburgh (Scotland, UK). Among his main fields of scientific interest are cognitively-inspired forms of non-classical reasoning, human-level Artificial Intelligence, neural-symbolic integration, and computational creativity. -
A transformational approach to resource analysis with typed-norms
Resumen de la conferencia
In order to automatically infer the resource consumption of programs, analyzers track how data sizes change along a program’s execution. Typically, analyzers measure the sizes of data by applying norms which are mappings from data to natural numbers that represent the sizes of the corresponding data. When norms are defined by taking type information into account, they are named typed-norms. We define a transformational approach to resource analysis with typed-norms. The analysis is based on a transformation of the program into an intermediate abstract program in which each variable is abstracted with respect to all considered norms which are valid for its type. We also sketch a simple analysis that can be used to automatically infer the required, useful, typed-norms from programs.CV de Raúl Gutiérrez
Raúl Gutiérrez Gil es doctor en informática desde 2010 por la Universitat Politècnica de València en el programa "Programación declarativa e ingeniería de la programación", cuya tesis fue dirigida por el catedrático Salvador Lucas. Durante su tesis llevó a cabo varias estancias largas en la RWTH Aachen con el catedrático Jürgen Giesl, trabajando en la adaptación del marco de pares de dependencia a la reescritura sensible al contexto. Además, durante su tesis colaboró con el profesor Xavier Urbain, de la Université Paris-Sud, en la modularidad de la terminación de la reescritura sensible al contexto. Una vez acabada su tesis, fue contratado por el catedrático de universidad José Meseguer en la University de Illinois at Urbana-Champaing, donde estuvo algo más de dos años trabajando en la construcción de un nuevo demostrador de teoremas para Maude basado en resolución. Durante ese periodo, colaboró con Mark E. Stickel en la definición de la estructura del nuevo demostrador de teoremas. En 2013, al acabar su estancia en Urbana-Champaign, es contratado por el grupo de la profesora Elvira Albert de la Universidad Complutense de Madrid, en la que trabaja en la definición de un nuevo tipo de normas para medir la complejidad de programas concurrentes. En 2014, obtiene una beca Juan de la Cierva del Ministerio de Economía y Competitividad con el grupo de investigación del catedrático Salvador Lucas en la Universitat Politècnica de València, donde la investigación se centra en el desarrollo de técnicas para la automatización de la terminación operacional de programas Maude y la resolución de restricciones usando dominios convexos. -
Cognitive computers: the next wave of computing innovation
Resumen de la conferencia
The computing ecosystem is at the verge of an important transformation. After the pioneer large computer systems, a first revolution was sparked by the personal computer by making computing accessible to every single person not only at work but also at home for personal uses. These personal computers have evolved to more powerful and smaller systems and have expanded into a variety of form factors such as ultrabooks, tablets and smartphones. These personal devices, or evolutions of them, will keep being important systems for the end-user in the future, but at the same time, a new generation of computing devices are emerging. We envision a world where computing will expand from business and personal uses to be present everywhere: in our cars, in the lighting system of a city, in our shoes, and in the clothes we wear just to name a few. These devices will be interconnected and interoperable, will have the capability of understanding the world around them and provide real time responses in complex situations, emulating human perception and problem solving. In this talk we will discuss this trend and some of the research areas that will be key to make this vision a reality.CV de Antonio González
Antonio González received his Ph.D. degree from the UPC, in Barcelona, Spain, in 1989. He joined the faculty of the Computer Architecture Department of UPC in 1986 and became a Full Professor in 2002. He was the founding director of the Intel Barcelona Research Center from 2002 to 2014. His research has focused on computer architecture. In this area, Antonio holds over 40 patents, has published over 300 research papers and has given over 100 invited talks. He has also made multiple contributions to the design of the architecture of several Intel processors. Antonio has been program chair for ICS 2003, ISPASS 2003, MICRO 2004, HPCA 2008 and ISCA 2011, and general chair for MICRO 2008 and HPCA 2016 among other symposia. He has served on the program committees for over 100 international symposia in the field of computer architecture, and as an Associate Editor of the IEEE Transactions on Computers, IEEE Transactions on Parallel and Distributed Systems, IEEE Computer Architecture Letters, ACM Transactions on Architecture and Code Optimization, ACM Transactions on Parallel Computing, and Journal of Embedded Computing. Antonio’s awards include the award to the best student in computer engineering in Spain graduating in 1986, the 2001 Rosina Ribalta award as the advisor of the best PhD project in Information Technology and Communications, the 2008 Duran Farrell award for research in technology, the 2009 Aritmel National Award of Informatics to the Computer Engineer of the Year, the 2013 King James I award for his contributions in research on new technologies, and the 2014 ICREA Academia Award. He is an IEEE Fellow. -
Generación automática de contenidos para videojuegos mediante programación genética
Resumen de la conferencia
La pujante industria del videojuego requiere de amplios equipos de diseño y programación capaces de crear todos los contenidos necesarios para que los productos de calidad tengan éxito en el mercado: gráficos, sonido, mundos virtuales, argumento, guiones... Cada vez más se hace necesaria la utilización de métodos que permitan generar los contenidos de forma semiautomática, liberando así a los equipos de diseño y desarrollo de tareas que puedan ser mecanizables, y reduciendo por tanto los costes de desarrollo. En esta conferencia revisaremos la aplicación de técnicas evolutivas a la generación de contenidos. En particular hablaremos de Programación Genética y sus aplicaciones para crear familias de terrenos.CV de Francisco Fernández de Vega
Profesor Titular de la Uex en el área ATC de la Universidad de Extremadura. Licenciado en Informática por la Universidad de Sevilla en 1993, y Doctorado Europeo y premio extraordinario de Doctorado por la Universidad de Extremadura en 2001. Su investigación se centra en el estudio de modelos de cómputo paralelo y distribuido para la mejora de Algoritmos Bioinspirados, con aplicaciones en el mundo del Arte y la Música. Ha publicado más de 200 artículos científicos en revistas y congresos de impacto, y a editado números especiales en las revistas Soft Computing, Parallel Computing, Journal of Parall Journal of Parallel and Distributed, Natural Computing y ha editado los libros Parallel and Distributed Computational Intelligence and Parallel Architectures and Bioinspired Algorithms, con Springer. Actualmente es co-chair de la Task Force on Creative Intelligence, IEEE Computational Intelligence Society, y co-chair of EvoPar, parte de EvoApplications, la más relevante conferencia europea sobre aplicaciones de los algorithmos evolutivos. Su trabajo en el mundo de la creatividad, arte y videojuegos fue premiado con el 2013 ACM GECCO Art, Design and Creativity Competition. Dirigió el desarrollo del videojuego Chapas, primer videojuego 3D realizado en Extremadura con Software Libre. -
Tendencias de uso y diseño de redes de interconexión en computadores paralelos
Resumen de la conferencia
Los computadores actuales, desde los sistemas on-chip de los móviles hasta los más potentes supercomputadores, son paralelos. La escala va desde los 8 cores de un móvil hasta los millones desplegados por los grandes superomputadores. La necesidad de hacer visible la memoria del sistema a cada uno de sus cores se resuelve, independientemente de la escala, interconectando todos los cores con el rendimiento adecuado a unos costes acotados. En los sistemas de menor escala (MPSoCs), la memoria se comparte usando redes on-chip que transportan líneas de cache y comandos de coherencia. Unos pocos MPSoCs se interconectan formando servidores que usan mecanismos para extender la coherencia y compartir memoria usando una arquitectura CC-NUMA. Decenas de estos servidores se apilan en un rack y un número de racks (hasta centenares) constituyen un datacenter o un supercomputador. La memoria global resultante no puede ser compartida, pero sus contenidos son transferibles mediante el envío de mensajes a través de la red de sistema. Por ello, las redes son sistemas críticos y básicos en las arquitecturas de memoria de los computadores de cualquier gama. En esta charla se ofrecerá una visión argumentada de las elecciones que hacen diferentes fabricantes para el despliegue de las redes on-chip y de sistema que interconectan los computadores actuales.CV de Ramón Beivide
Ramón Beivide es doctor en Informática por la Universidad Politécnica de Cataluña (en 1.985) y catedrático de Arquitectura y Tecnología de Computadores de la Universidad de Cantabria (desde 1.991). Ha sido previamente profesor en las Universidades Autónoma de Barcelona, Politécnica de Cataluña y del País Vasco. Coordina, desde 1.991, el grupo de investigación de Arquitectura y Tecnología de Computadores de la Universidad de Cantabria que trabaja en temas relacionados con la arquitectura e ingeniería de computadores y con las comunicaciones de alto rendimiento. Ha dirigido más de 30 proyectos de investigación de ámbito nacional e internacional. Ha publicado más de 100 artículos en revistas y congresos internacionales y ha sido director de 11 tesis doctorales. -
Ciencia social computacional: Interacción entre personas y sistemas complejos socio-tecnológicos
Resumen de la conferencia
Se presenta el planteamiento de la ciencia social computacional actual como algo que va más allá del análisis de big data para enfocarse en desarrollar modelos del individuo y a través de ellos de la sociedad, en el espíritu de la física de sistemas complejos. Esta investigación involucra una combinación de experimentos, análisis de datos (machine learning) y modelos y simulaciones basadas en agentes. La presentación se centra en la clave del proyecto que es entender como interaccionamos unas personas con otras. Para ello se introducen ejemplos, desarrollados en nuestro grupo, de experimentos que tienen que ver con reputación en interacciones sociales en red, con clasificación de las personas, o con nuestro comportamiento comparado con los primates no humanos, incluyendo algún modelo construido a partir de las reglas deducidas de los resultados experimentales. Finalmente, se discuten perspectivas relevantes, como por ejemplo la diferencia entre experimentos y sistemas de pequeña escala con la gran escala característica de nuestras interacciones hoy en día, que es objeto de investigación del proyecto FET Open de H2020 IBSEN. Esta charla también se enmarca dentro de las actividades de difusión del proyecto MOSIAGIL (S2013/ICE-3019), financiado por la CAM y fondos FEDER.CV de Ángel (Anxo) Sánchez
El profesor Anxo Sánchez se doctoró en Física Teórica y Física Matemática con premio extraordinario en la Universidad Complutense de Madrid, en 1991. Fue becario Fulbright postdoctoral en el Los Alamos National Laboratory (USA) entre 1993 y 1994. Hoy en día es catedrático de Matemática Aplicada en la Universidad Carlos III de Madrid, en la que fundó el Grupo Interdisciplinar de Sistemas Complejos (GISC, www.gisc.es) en 1996. Es también investigador senior y miembro del Comité Científico del Instituto UC3M-Banco Santander de Big Data Financiero, e investigador asociado del Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza. Es autor de más de 150 artículos en revistas internacionales de prestigio, habiendo recibido más de 3500 citas (h=34), y ha sido conferenciante invitado en unas 50 conferencias nacionales e internacionales. Ha dirigido 18 proyectos de investigación, financiados por el Gobierno de España, la Comunidad de Madrid, la OTAN, la European Science Foundation y los programas Marco 7 y H2020 de la Unión Europea. Actualmente coordina el proyecto FET Open de la Unión Europea IBSEN (www.ibsen-h2020.eu). Es miembro del Consejo Editorial de las revistas Scientific Reports, PLOS ONE y Journal of Statistical Mechanics: Theory and Experiment. Su investigación se centra en las aplicaciones de la física de sistemas complejos a las ciencias sociales, y ha contribuido al avance científico en campos muy diversos, que van de la economía a la física de la materia condensada pasando por la ecología y la informática teórica. -
Aprendizaje automático en bases de datos de fusión nuclear
Resumen de la conferencia
Para hacer realidad la energía de fusión como una fuente energética limpia, inagotable, segura y económica, las bases de datos de los dispositivos actuales (tokamaks y stellarators) deben analizarse en su totalidad (actualmente el 90% de los datos permanece sin procesar). Estos análisis completos permitirán una óptima planificación de la operación de ITER, cuyos resultados, a su vez, serán básicos en el diseño de DEMO. Para efectuar el análisis masivo de datos, la alternativa que se propone es el uso rutinario de técnicas de aprendizaje automático. A partir de la utilización de estas técnicas se han podido resolver problemas reales y de gran importancia en la operación de los dispositivos experimentales de fusión actuales. El nucleo central de la conferencia versará en la presentación de problemas prácticos y la solución aportada a cada uno de ellos.CV de Sebastián Dormido Canto
Sebastián Dormido-Canto received the M.S. degree in Electronic Engineering from Madrid Pontificia de Comillas University, Madrid, Spain, in 1994 and the Ph.D. degree in Sciences from UNED, Madrid, in 2001. He is Associate Professor in the UNED Department of Computer Sciences and Automatic Control since 2003. His current research interests are the analysis and design of control systems via the Internet, automatic learning with big data and high performance interconnection networks for cluster of workstations. -
Panorámica de los procedimientos metaheurísticos
Resumen de la conferencia
La charla está enfocada a dar una panorámica genérica e histórica a los procedimientos metaheurísticos, término fue acuñado por Fred Glover en 1986 refiriéndose a una estrategia maestra que guía y modifica otras heurísticas subordinadas para producir soluciones más allá de los que normalmente se obtienen medio de optimizaciones locales. Las metaheurísticas son una de las técnicas más importantes y exitosas que se han utilizado para resolver una gran cantidad de problemas complejos y computacionalmente difíciles. Constituyen una familia muy diversa de algoritmos de optimización, incluyendo métodos tales como el recocido simulado, Búsqueda Tabú, Búsqueda Local Iterada, Búsqueda de Vecindad Variable, GRASP, Algoritmos genéticos, Algoritmos Meméticos, Colonias de hormigas o Búsqueda Dispersa.CV de Abraham Duarte Muñoz
Abraham Duarte es Profesor Titular de Universidad (acreditado a Catedrático de Universidad) en el Departamento de Informática y Estadística de la Universidad Rey Juan Carlos. Su investigación está centrada en la optimización exacta (Branch & Bound) y aproximada (metaheurísticas) de problemas de optimización con aplicaciones prácticas en ciencia e ingeniería. Ha publicado 41 artículos en revistas indexadas (JCR), 17 capítulos de libros, 9 artículos en revistas no indexadas y más de 80 publicaciones en actas de congresos nacionales, internacionales y charlas invitadas. Ha sido investigador principal en 5 proyectos competitivos y ha dirigido 3 tesis doctorales. Cabe destacar que tiene reconocida una patente y tiene solicitada otras dos que se encuentra en proceso de evaluación. -
Secuencias, un número detrás de otro
Resumen de la conferencia
Las secuencias de elementos son utilizadas en diversas áreas con diferentes usos. Son fundamentales para la aproximación numérica de integrales, en criptografía, para la localización de objetos en radar.... Dada la multitud de usos, muchas veces se requieren propiedades muy diversas e incluso contradictorias. Por ello, existen múltiples construcciones, adaptadas a resolver cada uno de los diferentes problemas. El objetivo de esta charla es dar una visión general de los usos de las secuencias. Esta charla estará dividida en tres bloques: En el primer bloque, se introducirá el estudio de secuencias desde el punto de vista de sus propiedades pseudo aleatorias con aplicaciones a la seguridad de la información. Esto incluye la generación de claves seguras eficientemente. Se discutirá la definición de pseudo aleatoriedad en múltiples dimensiones y la generación eficiente. En el segundo bloque se hablará de las secuencias para la aproximación numérica, utilizando muestreo automático. Esto es de especial aplicación en métodos quasiMonte Carlo con aplicación a la matemática financiera y en la predicción de varianza de estimadores sistemáticos. En el último bloque se hablará de las secuencias utilizadas en la localización de objetos mediante la técnica radar.CV de Domingo Gómez Pérez
Domingo Gómez Pérez es profesor contratado doctor en el departamento de Matemáticas, Estadística y Computación en la Universidad de Cantabria. Estudió en la Universidad de Cantabria, donde recibió su doctorado con calificación Cum Laude y mención de “Doctorado Europeo” en el año 2006. Trabajó como investigador Postdoctoral en el centro Johann Radon Institute for Computational and Applied Mathematics en Austria. Posteriormente, ha realizado estancias en diversos centros de investigación entre los que destacan Philips Research Eindhoven (2011-2012), Macquarie University (2013) y University of New South Wales (2014). Entre sus intereses se encuentran el estudio de secuencias con aplicaciones en seguridad informática, radar y sonar, medidas de pseudo aleatoriedad, métodos Monte Carlo y quasi-Monte Carlo y teoría de cuerpos finitos. Ha participado en varios proyectos de investigación a nivel nacional e internacional. Colaboró con la empresa Philips Research en el diseño y desarrollo del protocolo HIMMO destinado al intercambio seguro de claves en redes de sensores. Cuenta con más de 50 publicaciones científicas en diversas áreas y también ha formado parte del comité organizador de diversas conferencias de matemática discreta y criptografía. Durante este último año ha estado involucrado en la realización del HIMMO Challenge, en el desarrollo del Software CountEm para la estimación de manifestantes en fotografías aeréas y en la organización del Workshop on Mathematics in Communications 2016. -
Systems theory approach to video streaming
Resumen de la conferencia
A cornerstone of our digital society stems from the explosive growth of multimedia traffic in general and video in particular. Video already accounts for over 50% of the internet traffic today and mobile video traffic is expected to grow by a factor of more than 20 in the next five years. This massive volume of data has resulted in a strong demand for implementing highly efficient approaches for video transmission. Error correcting codes for reliable communication have been studied for several decades. However, ideal coding techniques for video streaming are fundamentally different from the classical error correction codes. In order to be optimized they must operate under lowlatency, sequential encoding and decoding constrains, and as such they must inherently have a convolutional structure. Such unique constrains lead to fascinating new open problems in the design of error correction codes. In this talk we aim to look from a system theoretical perspective at these problems. In particular we propose the use of convolutional codes.CV de Diego Napp Avelli
Diego Napp carried out his PhD at the University of Groningen (The Netherlands, 2008). His research interests lie in the intersection of the broad areas of Systems & control theory, Algebra and Coding theory. After a post-doc in Portugal and a Juan de la Cierva fellowship in Valladolid, he is currently holding a "FCT researcher" position (analogous to Ramon y Cajal) at the University of Aveiro in Portugal. In the last few years he has focused on convolutional codes which are basicaly linear systems over finite fields. In 2012, he was a visiting researcher in the Department of Mathematics of the Universities of Notre Dame (US) and Melbourne (Australia). He has giving invited talks at the he Departments of Mathematics of the Universities of British Columbia (Canada), Zurich (Switzerland), Notre Dame (US), Melbourne (Australia), Javeriana de Cali (Colombia) among many others. He has over 20 high quality publications in the different areas of applied mathematics, electrical engineer and coding theory. -
Resumen de la conferencia
La manera ideal de enseñar computación cuántica sería construir entre todos un ordenador cuántico. Dado que eso está fuera de nuestro alcance, intentaremos hacer lo segundo mejor: construir entre todos un simulador clásico de un ordenador cuántico. Es decir, un programa breve, que corra en un ordenador portátil y nos permita simular el comportamiento que creemos que tendrán los ordenadores cuánticos reales, cuando sean construidos. Utilizaremos el enfoque más prometedor en la actualidad, la computación cuántica adiabática (AQC), empleada, entre muchos otros, por D-Wave. En el seminario no asumiremos ningún conocimiento de mecánica cuántica, tan sólo conocimientos moderados de programación y de álgebra lineal. Tras la charla habilitaremos una página web de la que descargar el código descrito durante la misma.CV de Javier Rodríguez Laguna
Javier Rodríguez Laguna se doctoró en física teórica en la Universidad Complutense de Madrid en 2002, con una tesis sobre métodos numéricos para sistemas cuánticos de muchos cuerpos. Ha trabajado como investigador postdoctoral en la SISSA (Trieste), ICFO (Barcelona) y la Universidad Carlos III de Madrid, entre otros lugares, y actualmente trabaja en la UNED, en Madrid. Sus intereses abarcan la interacción entre computación y física, tanto cuántica como clásica, la computación y los simuladores cuánticos, los modelos de crecimiento fuera de equilibrio, la geometría aleatoria y los sistemas desordenados. -
Towards an algebra of contracts
Resumen de la conferencia
The formalisation of legal contracts has proved to be a particularly challenging domain in computer science. In particular when considering the interrelation of deontic operators in contracts between interacting parties, most work focusses on only one of the parties involved. In this talk, I will be presenting a formalism for the description and analysis of evolving contracts regulating the behaviour between interacting parties, and show how this can be used to build an algebra of contracts. Furthermore, I will be showing how such a formalism can be used to monitor and support automated contract analysis.CV de Gordon J. Pace
Gordon Pace is a Professor and Head of Department of Computer Science of the University of Malta where he has been a faculty member since 2002. He completed his DPhil in Oxford in 1998, and has also worked at Chalmers University in Gothenburg, Sweden, Laboratoire Verimag in Grenoble, France, INRIA Rhone-Alpes, France and Universidad de Buenos Aires, Argentina. His research interests lie in the field of formal methods, currently mostly working on runtime verification, contract analysis and domainspecific languages. He has collaborated with various colleagues on various other areas related to computer science, including functional programming, natural language processing, automated music analysis and bioinformatics. He is the author of Discrete Mathematics for Computer Science, an undergraduate textbook in mathematics of discrete structures, and various journal and conference papers. He enjoys far too many things beyond computer science to include in the last sentence of his bio. -
¿Estamos preparados para hacer frente a la ciberdelincuencia?
Resumen de la conferencia
La ciberdelincuencia plantea retos técnicos y humanos en la metodología de la investigación que difieren de la investigación tradicional que hemos conocido hasta el momento. La metodología investigativa del cibercrimen presenta unas peculiaridades técnico- jurídicas y procesales que requieren la puesta en marcha de medidas determinadas en las que la gestión del tiempo determina el éxito y la identificación de los propios autores. Durante la presentación, se tratarán aspectos básicos de la ciberinvestigación. El conocimiento de unos hechos presuntamente delictivos, la salvaguarda y preservación de las pruebas digitales y posibles indicios, el proceso de obtención de datos objetivos, cuestiones legales y procesales y las medidas judiciales disponibles para facilitar la operativa policial.CV de Silvia Barrera Ibáñez
Inspectora de la Policía Nacional, Jefa de la Sección de Tratamiento de Evidencias Digitales de la Unidad de Investigación Tecnológica. Representante por España en EUROPOL en materia de Ciberataques. Miembro del Grupo Mundial de Expertos en Cibercrimen de Interpol y del grupo (E.C.T.E.G) European Cybercrime Training and Education Group coordinado por EUROPOL. Participa como Conferenciante en Universidades, eventos sobre ciberseguridad y otras Instituciones en materia de Cibercrimen. Profesora colaboradora en el Grado de Criminología en la Universidad Complutense de Madrid y en el Máster de Derecho Tecnológico e Informática Forense de la Universidad de Extremadura. Escritora colaboradora para publicaciones oficiales del Ministerio del Interior, libros y artículos divulgativos sobre Ciberseguridad y para el grupo Atresmedia en la página web Tecnoxplora.com con su sección "Internet, Ciudad con Ley". -
Reconocimiento biométrico de firma manuscrita: fundamentos, avances y aplicaciones
Resumen de la conferencia
La conferencia comenzará con una breve introducción a los sistemas biométricos de reconocimiento y autenticación de personas, para después concentrarse en los sistemas biométricos basados en firma manuscrita. A partir de ahí se desarrollarán los fundamentos del reconocimiento automático de firmas manuscritas dinámicas capturadas con tabletas digitalizadoras y otro tipo de terminales táctiles, y el reconocimiento de imágenes de firmas escaneadas y otro tipo de información escrita. Finalmente se resumirán algunas aplicaciones industriales de este tipo de tecnologías que viene desarrollando el Grupo de Reconocimiento Biométrico ATVS de la Universidad Autónoma de Madrid, en concreto: 1) el sistema Biografo 2.0 de identificación de escritor desarrollado para el Servicio de Criminalística de la Dirección General de la Guardia Civil, y 2) el proyecto e-BioFirma, desarrollado con el patrocinio de Cecabank, que actualmente está incorporando funcionalidades de comparación automática de firmas manuscritas para más del 50% del sector bancario español.CV de Julián Fiérrez Aguilar
Julián Fiérrez es Doctor Ingeniero de Telecomunicación por la Univ. Politécnica de Madrid (2006), y ha estado vinculado al Grupo de Reconocimiento Biométrico ATVS desde 2002, primero en la UPM y desde 2004 en la Univ. Autónoma de Madrid, donde es Prof. Titular de Univ. desde 2010. Su investigación se centra en sistemas biométricos, con especial énfasis en huella, cara, firma, fusión, seguridad y evaluación de sistemas. Ha realizado varias estancias internacionales de investigación (incluyendo un postdoc Marie Curie en Michigan State University de 2 años), dirigido tres proyectos europeos del ámbito (TABULA RASA, BBfor2, y BEAT), actuado como Program Chair en varios de los eventos científicos más importantes del ámbito (p.ej., IAPR Intl. Conf. on Biometrics 2013 y 2016) y recibido numerosas distinciones por su investigación, incluyendo: 4 premios a mejor artículo en congresos internacionales, premio EBF de la industria biométrica europea en 2006, medalla a joven investigador de la Real Academia de Ingeniería en 2015, y recientemente el premio Miguel Catalán 2015 como mejor investigador de menos de 40 años en el área de ciencias de la Comunidad de Madrid. -
Term rewriting applied to cryptographic protocol analysis: the Maude-NPA tool
Resumen de la conferencia
Maude-NRL Protocol Analyzer (Maude-NPA) is a tool for the symbolic analysis of cryptographic protocols. It searches backwards from a pattern defining secrecy, authentication, or indistinguishability properties of a protocol and it is able to find an attack or prove the absence of any attack. Maude-NPA is designed to take account of the algebraic properties of the crypto systems involved (e.g., exclusive-or, Diffie-Hellman, etc.) in order to give a more complete representation of both the protocol and the attackers capabilities. During the development of the tool we have also defined new theoretical and practical frameworks such as variant-based unification, logical model checking, asymmetric unification, or state-space optimizations that will be presented during the course.CV de Santiago Escobar
Santiago Escobar is associate professor at the Universitat Politècnica de València (UPV), Spain. His research interests include formal methods, security, verification, model checking, rewriting, narrowing, and evaluation strategies. His works on narrowing have become essential for narrowing-based applications such as equational unification, model checking, or protocol analysis. In the security area, he has developed the Maude-NPA cryptographic protocol analyzer in collaboration with Catherine Meadows from the Naval Research Laboratory of Washington D.C. and Jose Meseguer from the University of Illinois at Urbana-Champaign. This is the state-of-the-art tool for verification of protocols with advanced cryptographic properties. He has published more than 60 papers on conferences and journals on formal methods, verification, and security. He has been program chair of specialized workshops on unification (UNIF 2015 & 2012), rewriting logic and applications (WRLA 2014), reduction strategies (WRS 2011), functional and (constraint) logic programming (WFLP 2009), automated specification and verification of web systems (WWV'07&08), and security and rewriting (SecReT'08). Dr. Escobar received a M.Sc. in 1998 and a Ph.D. in Computer Science in 2003 at the Universitat Politècnica de Valencia. For further details: http://www.dsic.upv.es/~sescobar
-
Smart health: improving health services within smart cities
Resumen de la conferencia
The new era of mobile health ushered in by the wide adoption of ubiquitous computing and mobile communications has brought opportunities for governments and companies to rethink their concept of healthcare. Simultaneously, the worldwide urbanization process represents a formidable challenge and attracts attention toward cities that are expected to gather higher populations and provide citizens with services in an efficient and human manner. These two trends have led to the appearance of mobile health and smart cities. In this talk we introduce the new concept of smart health, which is the context-aware complement of mobile health within smart cities. We provide an overview of the main fields of knowledge that are involved in the process of building this new concept. Additionally, we discuss the main challenges and opportunities that s-Health would imply and provide a common ground for further research.CV de Agustí Solanas
Agustí Solanas (Tarragona, Catalonia, Spain, 1980) is the Head of the Smart Health Research Group and Associate Professor in the Department of Computer Engineering and Mathematics at the Rovira i Virgili University (URV) of Tarragona, Catalonia, Spain. He is also with the UNESCO Chair in Data Privacy. He obtained his M.Sc. degree in Computer Engineering from URV in 2004 with honours (Outstanding Graduation Award). He received a Ph.D. in Telematics Engineering from the Technical University of Catalonia in 2007 with honours (A cum laude). In 2008, he worked as post-doctoral researcher in the CRISES Research Group. In 2012, he was a visiting researcher in the Department of Mathematics and Physics of the University of Rome Tre (Italy). In 2013, he was visiting researcher in the Department of Mathematics of the University of Padua (Italy). His fields of activity are mobile health, smart health, cognitive health, data privacy, ubiquitous computing, and artificial intelligence specifically: clustering, pattern recognition and evolutionary computation. He has participated in several European-, Spanish-, and Catalan-funded research projects. Currently he is the principal investigator in the URV of the EU Project SUAC3I, he is member of the Management Committee of the European CRYTACUS COST Action and the Spanish project SIMPATIC. He has authored over 100 publications and he has delivered several invited talks worldwide. -
Fundamentos de la evolución gramatical
Resumen de la conferencia
La Evolución Gramatical (expresión proveniente del inglés Grammatical Evolution), es una técnica de computación evolutiva cuya principal característica es la aplicación de una gramática en el proceso de decodificación de los individuos. El objetivo de esta conferencia es proporcionar una visión clara y detallada de las características fundamentales de esta técnica, mostrando además casos prácticos de aplicación donde se analizarán ventajas e inconvenientes en su uso.CV de José Manuel Colmenar Verdugo
José Manuel Colmenar es Ingeniero en Informática y Doctor por la Universidad Complutense de Madrid desde 2008. En el ámbito investigador, comienza sus pasos colaborando con el Departamento de Arquitectura de Computadores de la UCM, donde desarrolla su tesis doctoral, relacionada con el diseño y simulación de circuitos asíncronos. Tras la tesis, se interesa por los algoritmos evolutivos y bioinspirados, así como por su aplicación a problemas reales que van desde la optimización en el diseño de circuitos, hasta las aplicaciones biomédicas. Más recientemente, su interés por la optimización le ha llevado a realizar investigación en el campo de las metaheurísticas. Su experiencia docente en carreras y grados relacionados con la Informática comienza en el año 2001 y continua hasta la actualidad, mezclándose también con investigación en el ámbito de las tecnologías de la información aplicadas a la docencia. En su haber constan más de doce publicaciones indexadas en la base de datos JCR, así como decenas de publicaciones en congresos y revistas internacionales. Ha participado en el comité de programa de congresos como GECCO y EvoPar, y ha sido revisor en revistas como Soft Computing y Journal of Heuristics. -
Seguimiento de objetos en secuencias de imágenes
Resumen de la conferencia
El seguimiento en secuencias de imágenes consiste en localizar uno o varios objetos en el tiempo, utilizando para ello información visual procedente de una cámara. Esta área de investigación ha experimentado un desarrollo muy significativo durante los últimos años, debido al incremento en la capacidad de cómputo de los ordenadores de consumo y a la gran variedad de aplicaciones que posee. Los algoritmos de seguimiento se pueden encontrar formando parte de sistemas de videovigilancia inteligente, de evaluación de la motricidad humana (p. ej. Vicon), de deporte (p. ej., ojo de halcón), interfaces de usuario orientadas al entretenimiento (p. ej. Kinect), etc. El objetivo de esta charla consiste en presentar una visión de conjunto de este área de investigación, prestando atención a las aplicaciones, los problemas y las estrategias algorítmicas más extendidas para abordarlos (camshift, filtro de Kalman, filtros de partículas, métodos de optimización, enfoques híbridos).CV de Juan José Pantrigo Fernández
Juan José Pantrigo es Profesor Titular de Universidad en el Departamento de Ciencias de la Computación, Arquitectura de Computadores, Lenguajes y Sistemas Informáticos y Estadística e Investigación Operativa en la Universidad Rey Juan Carlos desde julio de 2011. Trabaja en temas de investigación diversos, relacionados con el área de Ciencia de la Computación e Inteligencia Artificial. Como resultado de su labor investigadora, ha publicado 21 artículos en revistas indexadas (JCR), 18 capítulos de libro (incluyendo LNCS), 5 artículos en revistas no indexadas y más de 60 publicaciones en actas de congresos nacionales e internacionales y charlas invitadas. Ha dirigido 1 proyecto de la URJC-CAM, 4 proyectos Art. 83 y un proyecto del Plan Nacional de I+D+I. Además, ha codirigido 3 tesis doctorales. -
Pruebas en el desarrollo de software dirigido por modelos
Resumen de la conferencia
El Desarrollo de Software Dirigido por Modelos (MDE, de las siglas en inglés) es un paradigma de Ingeniería del Software basado en el uso activo de modelos durante todas las fases del desarrollo, reduciendo o eliminando la necesidad de programar. De esta manera, los modelos dejan de ser únicamente documentación pasiva, y se utilizan para describir, simular, probar y generar código para la aplicación a construir. Los modelos que se utilizan en MDE pueden estar descritos con lenguajes de modelado de propósito general, como UML, o mediante Lenguajes de Dominio Específico (DSLs, del inglés Domain-Specific Languages) que ofrecen primitivas más adecuadas y potentes para un dominio de aplicación concreto (normalmente descritas mediante un metamodelo). Para el éxito de los proyectos basados en tecnologías MDE, se ha de garantizar la calidad de los distintos artefactos utilizados. Esto incluye por una parte los meta-modelos usados, y por otra las operaciones definidas sobre los modelos (simuladores, generadores de código, transformaciones). En esta charla se presentarán los prinicipios básicos del MDE, los retos actuales en cuanto a la validación y verificación en MDE, así como algunos enfoques para las pruebas de meta-modelos y transformaciones.CV de Juan de Lara Jaramillo
Juan de Lara es profesor Titular de Universidad en el departamento de Ingeniería Informática de la Universidad Autónoma de Madrid, donde dirige el grupo de investigación miso (Modelado e Ingeniería del Software, http://miso.es) Sus áreas de investigación se centran en el desarrollo de software dirigido por modelos, en particular en los lenguajes de dominio específico, las transformaciones de modelos y el modelado multi-nivel. Ha publicado más de 100 artículos en conferencias y workshops internacionales, así como más de 40 artículos en revistas con índice de impacto. Ha sido presidente del comité de programa de FASE'12 (ETAPS) e ICMT'12 (STAF). Ha realizado estancias de investigación en la U. de McGill (Canadá), TU Berlín (Alemania), Sapienza de Roma (Italia), y la U. de York (UK). Es miembro del comité editorial de la revista Software and Systems Modelling (Springer). -
Aprendizaje estadístico: fundamentos y aplicaciones
Resumen de la conferencia
En los últimos años los avances de la tecnología han facilitado la integración de grandes volúmenes de datos en formato digital. Esto ha despertado un gran interés en las técnicas estadísticas y de inteligencia artificial para extraer la información y para desarrollar sistemas de aprendizaje basados en los datos generados de forma dinámica. En esta charla se ilustrarán los aspectos fundamentales del aprendizaje estadístico, haciendo hincapié en los diferentes tipos de problemas que puede abordar. Se discutirán las propiedades de las herramientas existentes y los aspectos a considerar en su aplicación práctica.CV de Pedro Zufiria
Pedro J. Zufiria es Doctor Ingeniero de Telecomunicación por el Ministerio de Educación y Ciencia (MEC, 1991), Ingeniero de Telecomunicación por la Universidad Politécnica de Madrid (UPM, 1986), y Licenciado en Ciencias Matemáticas por la Universidad Complutense de Madrid (UCM, 1997). Asimismo, es Master of Science (Mech. Engineering), Master of Science (Elect. Engineering) y Doctor of Philosophy (Mech. Engineering) por la University of Southern California (USC, 1989). Es profesor en el departamento de Matemática Aplicada a las Tecnologías de la Información de la Universidad Politécnica de Madrid. Desde 1991 hasta 2005 fue fundador y responsable científico del Grupo de Redes Neuronales (GRN), y desde 2005 lo es del Grupo de Sistemas Dinámicos, Aprendizaje y Control (SISDAC). Sus intereses se centran en el modelado matemático, control y diagnóstico de fallos en sistemas dinámicos no lineales, el tratamiento de señal, el aprendizaje en máquinas y las redes complejas. Ha dirigido más de una docena de proyectos de investigación financiados por el Plan Nacional, la CAM y la UPM, y es autor de más de un centenar de publicaciones internacionales en dichos campos. -
Resumen de la conferencia
Desde 2008 la Guardia Civil participa en calidad de coordinador/socio/observador en varios proyectos de Investigación, Desarrollo e Innovación (I+D+i) financiados por el Séptimo Programa Marco y el Programa Horizonte 2020 de la Comisión Europea. Conscientes de la importancia que tiene para España el impulso de su actividad empresarial, la Guardia Civil participa activamente en calidad de usuario final desde hace años en determinados proyectos presentados en las convocatorias de financiación de los mismos por parte de la UE, y cuyo ámbito principal es el impulso de la I+D+i en materia de seguridad pública a nivel nacional y europeo. Evolucionando con ello, desde la figura de observador a socio de pleno derecho, a finalmente ser coordinador de un proyecto, gracias a lo cual la Guardia Civil ha adquirido visibilidad y relevancia a nivel europeo. Asimismo, la Guardia Civil, viendo la necesidad de continuar con este impulso transformador, se haya actualmente inmersa en la preparación, negociación y ejecución de numerosos proyectos tecnológicos dentro del escenario de H2020.CV de Nathalie Páez Jiménez
La Teniente Nathalie Páez Jiménez cursó estudios superiores en la Academia de Oficiales de la Guardia Civil y está en posesión del Curso de Policía Judicial y el Curso de Especialistas en Información. Actualmente es la responsable del Área de Innovación Tecnológica del Servicio de Innovación Tecnológica y Seguridad de la Información de la Guardia Civil. Asimismo, ha pasado recientemente a integrar la delegación española en el Comité de Gestión del programa Sociedades Seguras perteneciente al Programa Marco de la Unión Europea – Horizonte 2020. La Teniente Nathalie se incorporó al Servicio de Innovación en el año 2013. Desde entonces ha participado en la preparación de propuestas y gestión de proyectos pertenecientes tanto al Séptimo Progrma Marco como al nuevo Horizonte 2020, así como al estudio y análisis de las nuevas tecnologías en el ámbito de la investigación, desarrollo e innovación, susceptibles de ser utilizadas por el Cuerpo de la Guardia Civil. -
Crowdsourced research: collective intelligence for collective problems
Resumen de la conferencia
Crowdsourced research is becoming one of the most important topics on the scientific field. Why? Because when humans and computers work together they can take wiser decisions than them alone, leading to new discoveries, citizen participation and a more critical thinking in our society. In this conference I'll introduce the grassroots movement, citizen science, through real examples where professionals and amateurs have done an amazing work through the open science movement.CV de Daniel Lombraña González
A computer engineer by training, Daniel holds a PhD in parallel genetic programming. He has almost 10 years experience of citizen science projects and crowdsourcing technologies in the scientific field. Daniel is the co-founder and project lead of the Crowdcrafting platform and of PyBossa software. -
Resumen de la conferencia
It is well-known that today's computing platforms for the IoT big data server and network router infrastructure is highly energy-consuming. And scaling this to the exascale sizes and Tbps bandwidth handling, which are required for the future, looks implausible with incremental innovations. The exploding energy consumption in today's solutions is largely due to the requirement for maintaining a strong platform flexibility and programmability across a wide range of different tasks and services. But still, also some clear opportunities are emerging to reduce this energy compared to the state-of-the-art reference platforms of today. In the literature many proposals have been launched to better customize the computing nodes themselves. But also the importance of the memory organization for the typically data-intensive application loads has been identified. In this talk, the challenges to tackle this data memory organisation and some emerging opportunities are highlighted.CV de Francky Catthoor
Prof. Francky Catthoor is a fellow at IMEC, Heverlee, Belgium. He received the Eng. degree and a Ph.D. in El. Eng. from the K.U.Leuven, Belgium in 1982 and 1987 respectively. Since 1987, he has headed research domains in the area of architectural and system-level synthesis methodologies, within the DESICS (formerly VSDM) division at IMEC. His current research activities belong to the field of architecture design methods and system-level exploration for power and memory footprint within real-time constraints, oriented towards data storage management, global data transfer optimization and concurrency exploitation. Platforms that contain both customizable/configurable architectures and (parallel) programmable instruction-set processors are targeted. -
Estudio de la robustez del control inteligente frente a errores inducidos por radiación
Resumen de la conferencia
En la actualidad, la miniaturización de los circuitos integrados hace que éstos sean cada vez más sensibles a radiación, incluso a aquélla que se encuentra de manera natural a nivel del mar (por ejemplo, neutrones atmosféricos). En esta charla se abordarán la lógica fuzzy y las redes neuronales como técnicas que proporcionan robustez intrínseca a errores inducidos por radiación, difíciles de abordar a través de metodologías clásicas. Su implantación puede hacerlas buenas candidatas para aplicaciones espaciales.CV de Raoul Velazco
Dr. Raoul VELAZCO nació en Montevideo (Uruguay) en 1952. Recibió los diplomas de Ingeniero, PhD y Doctor ès Ciencias, respectivamente en 1979, 1982 y 1990, en el Instituto Nacional Politécnico de Grenoble (INPG, Grenoble- France). Desde 1984 es investigador del CNRS (Agencia francesa de investigación científica). Desde 1996 Dr. Velazco es coresponsable del grupo ARIS (Arquitecturas Robustas de circuitos Integrados y Sistemas) del laboratorio TIMA (Techniques de l’Informatique et de la Microélectronique pour l’Architecture de circuits et systèmes integrés. Univ. Des Alpes - Grenoble). Sus trabajos de investigación conciernen el test y diagnóstico de fallos de circuitos integrados complejos de tipo procesador, las metodologías y útiles para evaluar la sensibilidad de circuitos y sistemas integrados a los efectos de radiaciones y estudiar las soluciones potenciales para hacer frente a esa problemática y evaluarlas vía ensayos en aceleradores de partículas, y experimentos en el entorno real en que funcionará la aplicación estudiada (satélites científicos, balones estratosféricos, aviones, alta montaña...). Raoul Velazco fue el presidente general o presidente de programa de varias conferencias relacionadas con sus áreas de investigación. La más significativa es RADECS (RADiations and its Effects on integrated Circuits and Systems) de la cual fue presidente en 2001 y presidente del programa en 2012. Es también el fundador y co-presidente de la escuela internacional SERESSA (School on the Effects of Radiation in Embedded Systems for Space Applications). La edición 2015 de SERESSA tendrá lugar en Puebla (México) en Diciembre 2015. -
The application of grammar inference to software language engineering
Resumen de la conferencia
There are many problems whose solutions take the form of patterns that may be expressed using grammars (e.g., speech recognition, text processing, genetic sequencing, programming language development, etc.). Construction of these grammars is usually carried out by computer scientists working with domain experts. Grammar inference (GI) is the process of learning a grammar from examples, either positive (i.e., the pattern should be recognized by the grammar) and/or negative (i.e., the pattern should not be recognized by the grammar). and/or negative (i.e., the pattern should not be recognized by the grammar). This talk will present the application of grammar inference to software language engineering, including recovery of domain-specific language (DSL) specifications from example DSL programs and recovery of a meta model from instance models which have evolved independently of the original meta model. Recent advances in semantic inference will be presented as well.CV de Marjan Mernik
Marjan Mernik received the M.Sc. and Ph.D. degrees in computer science from the University of Maribor in 1994 and 1998, respectively. He is currently Professor of Computer Science at the University of Maribor, Slovenia. He is also Visiting Professor of Computer and Information Sciences at the University of Alabama at Birmingham, and at the University of Novi Sad, Faculty of Technical Sciences, Serbia. His research interests include programming languages, compilers, domain-specific (modeling) languages, grammar-based systems, grammatical inference, and evolutionary computations. He is a member of the IEEE, ACM, EAPLS, and the Editor-In-Chief of Computer Languages, Systems and Structures journal, as well as the Associate Editor of Applied Soft Computing journal. -
Towards energy-efficient computing: adaptive management strategies from software to systems
Resumen de la conferencia
Energy efficiency is a central issue in all computing domains. In data centers, operational and cooling costs impose significant sustainability challenges. In tandem, computing systems increasingly run complex, highly performance demanding workloads, making the well-studied energy management policies inadequate. High power densities also increase the chip temperatures and thermal variations, which degrade system reliability, add to the system design complexity, and increase monetary cost of cooling. Achieving the target exascale computing performance, and also, designing a sustainable cloud computing future require the design of dynamic and intelligent techniques that recognize the hardware-software characteristics and optimize the interplay among performance, energy, and temperature in an application-aware manner. This talk will discuss how to design adaptive workload management and power modulation methods in a servers and various types of data centers to help achieve a sustainable computing future.CV de Ayse K. Coskun
Ayse K. Coskun is an assistant professor in the Electrical and Computer Engineering Department at Boston University. She received her MS and PhD degrees in Computer Science and Engineering from University of California, San Diego. Coskun’s research interests are energy-efficient computing, 3D-stacked architectures, embedded systems, and intelligent management of data centers. Prof. Coskun worked at Sun Microsystems (now Oracle), San Diego prior to her current position at BU. Coskun received the best paper award at IFIP/IEEE VLSI-SoC Conference in 2009 and at High Performance Embedded Computing (HPEC) Workshop in 2011, and she is a recipient of the NSF CAREER award. She currently serves as an associate editor for IEEE Embedded Systems Letters and writes a bi-weekly column on green computing at the Circuit Cellar magazine. -
The role of ontologies in machine-machine communication
Resumen de la conferencia
In this talk I will analyse how the use of ontologies have evolved during the last two decades, moving from the notion of a shared understanding of a particular domain being used to communicate humans with computers towards a key modelling component that allows machine-machine communication and negotiation across different domains and spoken languages.CV de Asunción Gómez Pérez
Prof. Dr. Asunción Gómez-Pérez is Full Professor at the Univ. Politécnica de Madrid. She is the Director of the Artificial Intelligence Department (2008) and Director or the OEG at UPM (1995). Her main research areas are: Ontological Engineering, Semantic Web and Knowledge Management. She led at UPM the following EU projects: Ontoweb, Esperonto, Knowledge Web, NeOn, SEEMP, OntoGrid, ADMIRE, DynaLearn, SemSorGrid4Env, SEALS and MONNET. She coordinated OntoGrid and now she is coordinating SemSorGrid4Env and SEALS. She is also leading at UPM projects funded by Spanish agencies. The most relevants are: España Vitual, WEBn+1, GeoBuddies and the Spanish network on Semantic Web. She has published more than 150 papers and she is author of one book on Ontological Engineering and co-author of a book on Knowledge Engineering. She has been co-director of the summer school on Ontological Engineering and the Semantic Web since 2003 up to now. She was program chair of ASWC'09, ESWC'05 and EKAW'02 and co-organiser of many workshops on ontologies. -
Introducción a la plataforma Dafny de verificación de programas
Resumen de la conferencia
Dafny es una plataforma desarrollada por el grupo de Rustan Leino (Microsoft Research, Redmond) para asistir en la verificación de programas. Consta de un lenguaje de programación orientado a objetos, un lenguaje de asertos y un resolutor SMT (SAT Modulo Theories) para demostrar teoremas en lógica de predicados. El usuario suministra el programa, su especificación y los invariantes de los bucles, y la plataforma realiza las demostraciones oportunas que garantizan que el programa satisface dichos asertos. La conferencia introduce la teoría necesaria y los elementos de dicha plataforma e ilustra el proceso de verificación con ejemplos de programas.CV de Francisca Lucio
Profesora Titular. Docencia en: Métodos Formales de Desarrollo de Software (Grado en Ingeniería Informática) Razonamiento Automático (Máster en Ingeniería Informática) Areas de especialización en investigación: • Lógica • Epecificación, Transformacion y Verificación de Programas • Lenguajes declaractivos • Resolución de restricciones • Transformación de grafos • Razonamiento automático • Lógica Temporal • Métodos Formales en Programación Co-autora de unas 30 publicaciones en revistas y congresos de prestigio con revisión por pares -
Una introducción a la computación cuántica: ordenadores analógicos y gatos de Schrödinger
Resumen de la conferencia
Javier Rodriguez Laguna obtained a PhD in theoretical physics from Universidad Complutense de Madrid in 2002, with a thesis on numerical methods for quantum many-body systems. He has worked as a postdoc researcher at SISSA (Trieste), ICFO (Barcelona) and Universidad Carlos III de Madrid, among others, and currently works at UNED, in Madrid. His research interests span the interplay between computation and physics, both quantum and classical, quantum computation and simulators, non-equilibrium growth models, random geometry and disordered systems.CV de Javier Rodríguez Laguna
If the claims of D-Wave are correct, the first general purpose quantum computers are already here. How do they work? In this talk we will follow a pedestrian approach to quantum computation. We will travel back in time, to revisit the old fashioned analog computers, such as the spaghetti-sort or the soapy solution to the Steiner tree problem. Quantum adiabatic computation, the basic principle of the D-Wave device, is just an analog computer, but it profits from a spooky property of quantum mechanics called entanglement. In the last part of the talk we will address the (unanswered yet) question: what will be the real power of quantum computers, compared to classical ones? -
¿Cómo proteger las buenas ideas? Propiedad Industrial
Resumen de la conferencia
En esta conferencia se abordará la importancia de la protección de las invenciones por propiedad industrial como fuente de progreso de una sociedad y como fuente de ingresos para las investigaciones futuras. Se tratará con especial interés la gestión de los Algoritmos matemáticos y software en las patentes.CV de Pablo Estebaranz Ruiz
Ingeniero Electrónico por la Facultad de Ciencias Físicas de la UCM (2006). − Consultor Informático en Delaware Consultoría para Amena-Orange (julio 2006 julio 2007). − Consultor de Patentes especializado en patentes de software, en Ungria Patentes y Marcas, S.A. (julio 2007 – noviembre 2012). − Coordinador de Electro-Mecánica del Dpto. de Patentes Exterior de Ungria Patentes y Marcas, S.A. (noviembre 2012 - actualidad). − Curso de Derecho Europeo (septiembre 2011 - julio 2013). -
Resumen de la conferencia
Las disrupciones en dispositivos tokamak son eventos muy peligrosos para la integridad de los propios dispositivos de fusión. Su extremada complejidad y su dependencia de fenómenos altamente no lineales, ha impedido hasta la fecha el desarrollo de una teoría satisfactoria. Por tanto, se utilizan métodos de aprendizaje automático para predecir la ocurrencia de una disrupción y poder aplicar medidas de mitigación. Los dispositivos de fusión de siguiente generación (como ITER o DEMO) no podrán soportar muchas disrupciones. Por lo tanto, es necesario desarrollar predictores fiables que, con muy pocas muestras de entrenamiento, alcancen una alta tasa de aprendizaje. Se van a describir algunos de estos predictores que actualmente se encuentran funcionando en la red de tiempo real del JET (el mayor dispositivo de fusión del mundo que se encuentra situado en Culham, UK). El diseño, desarrollo y puesta en marcha de los predictores ha sido coordinado por la Unidad de Adquisición de Datos del Laboratorio Nacional de Fusión del CIEMAT.CV de Jesús Vega Sánchez
Jesús Vega es investigador en el Centro de Investigaciones Energéticas Medioambientales y Tecnológicas (CIEMAT) desde 1983. Recibió su grado de doctor por la Universidad Nacional de Educación a Distancia en 1997. Ha desarrollado y desarrolla importantes tareas de investigación y coordinación en métodos y dispositivos de fusión nuclear tanto a nivel nacional como internacional. Una gran parte de su actividad se ha centrado en la investigación en métodos de aprendizaje automático para el tratamiento masivo de datos (big data) generados por los reactores de fusión nuclear JET (Joint European Torus) y TJ-II, éste último instalado en el CIEMAT. Ha dirigido diversos proyectos nacionales e internacionales en el ámbito de la fusión nuclear, participando en consorcios europeos de reconocido prestigio en fusión nuclear, así como en diversos comités internacionales. Además, es autor de diversas publicaciones basadas en el desarrollo de técnicas de aprendizaje automático para la identificación de eventos producidos durante los procesos de fusión. -
Steganalysis of OpenPuff through atomic concatenation of MP4 flags
Resumen de la conferencia
OpenPuff is recognised as one of the leading tools in video steganography for its capability to securely hide information. This is in contrast to a number of video steganography tools that apply outdated and highly insecure techniques such as EOF data injection. However, even OpenPuff has subtle vulnerabilities that can be easily exploited. In this talk we propose a method to detect the presence of OpenPuff video steganography across MP4 files. By exploiting modifications to a files’ metadata, we successfully identify the existence of hidden content.CV de Julio César Hernández Castro
Julio C. Hernandez-Castro received the B.Sc. degree in mathematics from the Universidad Complutense de Madrid, Madrid, Spain, in 1995, the M.Sc. degree in coding theory and network security from the Universidad de Valladolid in 1999, and the Ph.D. degree in computer science from Carlos III University of Madrid in 2003. Currently, is a Lecturer in Computer Security at the School of Computing, University of Kent. His interests include Cryptology, Steganography & Steganalysis, Computer & Network Security, Computer Forensics, CAPTCHAs, RFID Security, and the application of NonStandard techniques to Cryptology. He is also associated with Kent Cyber Security Center. -
FairCoop y el uso social de las criptodivisas
Resumen de la conferencia
La aparición de las tecnologías criptográficas detrás de Bitcoin y otras criptomonedas, permite el surgimiento de un nuevo paradigma de enorme potencial. FairCoop es un ambicioso proyecto que, apoyado por estos avances, pretende abordar múltiples problemáticas y desarrollar innovaciones con impacto económico y socio-político. En este marco, tanto la criptomoneda como la identidad pueden operar de forma completamente distribuida (sin autoridad central), pero a la vez sin estar completamente desregulado (como en Bitcoin). Así, se propone una organización cooperativa de ámbito global con lógicas económicas distintas a las tradicionales, aportando herramientas y servicios financieros diseñados para la creación y reparto de riqueza común.CV de Pablo Gómez Prieto
Bioinformático postcapitalista, ha realizado investigaciones en CSIC, UCM, UPM, Centro de Astrobiología y Cooperativa Integral Catalana. Actualmente realiza experimentación en biohacking, e investiga las propiedades democráticas de la criptografía, la cadena de bloques y sus implicaciones socio-políticas, en el marco del proyecto FairCoop. -
Modelado basado en agentes para simular el pasado. Cooperación social en Tierra del Fuego
Resumen de la conferencia
La conferencia se enmarca en el proyecto Consolider SimulPast que tiene como objetivo simular el pasado (sociedades antiguas) para entender el comportamiento humano. El caso de estudio está centrado en el comportamiento cooperativo de una sociedad cazadora-recolectorapescadora de la parte sur de Tierra del Fuego (Argentina-Chile), los Yámana. En el trabajo se utilizan fuentes etnográficas y evidencia arqueológica para construir un modelo computacional basado en agentes que explica los fenómenos de agregación de la sociedad en torno a varamientos de ballena. El modelo analiza y explica la dinámica social cooperativa que emerge mediante sistemas de aviso con señales de humo y mecanismos basados en reciprocidad indirectaCV de José Manuel Galán Ordax
José Manuel Galán Ordax es Ingeniero Industrial por la Universidad de Valladolid y realizó su doctorado en la Universidad de Burgos, trabajando dentro del grupo de investigación INSISOC, Ingeniería de los Sistemas Sociales. Ha sido investigador visitante en el Macaulay Institute (Escocia) y en el Center for Social Complexity del Krasnow Institute for Advanced Studies de la George Mason University (USA). Actualmente es Profesor Titular en la Universidad de Burgos donde enseña Economía y Sistemas Complejos. Es autor de más de 40 trabajos en las áreas de sistemas complejos, modelado basado en agentes, teoría de juegos, redes sociales y el uso de modelos en general. -
From small sensors to big data: how the sensor web is changing our world
Resumen de la conferencia
In our increasingly digitized world almost everything we do creates a record that is stored somewhere, whether we are purchasing a book, calling a friend, ordering a meal, or renting a movie. And in the world of the sensor web this no longer limited to our online activities: exercising in the park, shopping for groceries, falling asleep, or even having a shower, are just some of our everyday activities that are likely to generate data. The world of the sensor web is all about understanding how we can (and whether we should) use this information to enable better decisions. Better decisions for where we might live or where to send our kids to school. Better decisions about the food we eat and the exercise we should take. Better decisions by our governments and policy makers when it comes to managing education, energy, infrastructure, and healthcare. And better decisions for business and enterprise when it comes to understanding customer needs and demands. In this talk we will discuss the origins of the sensor web and the attendant big data revolution. We will explore how these ideas suggest new ways of thinking about some of modern society's toughest challenges and how the resulting technologies will impact on our everyday lives in the future.CV de Barry Smyth
Barry holds the DIGITAL Chair of Computer Science at University College Dublin and is a member of the Royal Irish Academy. He is a Director of the Insight Centre for Data Analytics, a €100m research centre funded by Science Foundation Ireland and Industry. Barry’s own research interests include information discovery, personalisation and recommender systems. He has published more than 400 scientific papers and founded a number of companies to commercialise the outputs of his research. -
Desarrollo y evaluación de sistemas de inteligencia ambiental con UbikSim
Resumen de la conferencia
"Ambient Intelligence" (AmI) stems from the convergence of ubiquitous computing, ubiquitous communication and intelligent user-friendly interfaces and creates environments that will be characterized by their ubiquity, transparency and intelligence. AmI is of great interest to society because in a near future it can help us to do our work, improve our health, do house chore, and so on. However, the research on AmI presents new scientific challenges. Traditional usability engineering methods and tools fail in the development of the AmI. Established organizations such as the Usability Professional's Organization have recognized the need for new approaches to usability testing. When the AmI is applied to a large number of users, there is a point where the real tests aren't feasible. UbikSim try to provide solutions to these situations. Multi-agent based simulation, MABS, permits modelers to handle different levels of representation (e.g., "individuals'' and "groups'', for instance) within an unified conceptual framework. The versatility makes MABS one of the most favorite and interesting support for the simulation of complex systems. MABS is used in more and more scientific domains: sociology, biology, physics, chemistry, ecology, economy, etc. UbikSim is the use of MABS in AmI. Specifically, complex AmI applications with a large numbers of users will be treated. The testing of the social behavior of the users groups is interesting in these applications. That is, we are interested in the macro-social perspective. Therefore, the overall aim of our research is to increase the usability of this type of complex a AmI applications. UbikSim is an infrastructure to study complex AmI applications which involve a large number of users.CV de Emilio Serrano
El Dr. Emilio Serrano es un investigador postdoctoral en la Universidad Politécnica de Madrid (UPM). Obtuvo la Ingeniería en Informática por la Universidad de Murcia (UMU) con una Mención honorifica a la Excelencia Académica en 2006. Fue galardonado con la beca FPU del Ministerio de Ciencia e Innovación en el año 2008. Después de una estancia como investigador asociado en la Universidad de Edimburgo durante un año; recibió el doctorado con mención europea de la UMU en 2011. Su tesis recibió el premio extraordinario de doctorado en 2012. El Dr. Serrano ha participado en más de 40 publicaciones en congresos y revistas internacionales, destacando 15 artículos en el JCR (10 de ellos en Q1). También ha participado en varios programas de financiación tanto europea como nacional; tales como los proyectos del séptimo programa marco: smartopendata, eurosentiment y omelette. En cuanto a la docencia, ha asistido a más de 20 cursos en Ciencias de la Educación, impartido 8 asignaturas diferentes en la UMU y la UPM, y dado seminarios para estudiantes de postgrado en varias universidades. Su investigación está centrada en la inteligencia artificial y más concretamente: aprendizaje computacional, simulación social, análisis de redes sociales, tecnologías BigData, e inteligencia ambiental. -
Diabetes: Patrones ocultos en series temporales
Resumen de la conferencia
La diabetes mellitus es uno de los problemas más importantes de salud. Ha triplicado su prevalencia en los últimos 20 años y para el año 2025 se espera que existan casi 300 millones de personas con diabetes. Este hecho, junto con la morbimortalidad asociada a sus complicaciones vasculares, convierte a la diabetes en una carga para los sistemas sanitarios, sus recursos económicos y sus profesionales. No existe cura a esta enfermedad, de modo que el objetivo terapéutico del tratamiento de la diabetes se centra en la normalización de la glucemia intentando minimizar los eventos de hiperglucemia e hipoglucemia y evitar la aparición de complicaciones vasculares. El objetivo del trabajo presentado consiste en la mejora de la calidad y precisión de los modelos predictivos de los pacientes diabéticos para ser capaces de predecir la glucemia partiendo únicamente de la información suministrada por un dispositivo de medición continua con la precisión y anticipación necesaria para tener validez clínica. En este trabajo se identifican patrones que nos permitan conocer en qué perfil de día se encuentra el paciente para cada conjunto de datos. De la misma manera que las canciones de un mismo estilo de música comparten características comunes, las series de valores de glucosa de un paciente comparten patrones que son invisibles a análisis habituales. Los patrones compartidos por dos series temporales de glucosa pertenecen a situaciones del paciente similares o del mismo “Tipo de Día”, que se traducirán en comportamientos con un alto grado de similitud. Aplicar este procedimiento a datos de pacientes reales nos permitirá obtener conjuntos de días con la suficiente significancia para precisar de diferentes controladores.CV de Iván Contreras Fernández-Dávila
Doctor con Mención Europea en Ingeniería Informática. Conocimientos avanzados en sistemas de optimización (arquitecturas paralelas, heurísticas, algoritmos multiobjetivo) y análisis de series temporales (clustering, grafos, teoría de la información, estadística). Especializado en la aplicación de estas técnicas en los campos de la bolsa de valores y la diabetes mellitus. Desarrollo de Sistemas de Trading para bolsa y predicción de diabetes. Investigador por cinco años con múltiples colaboraciones en universidades nacionales e internacionales con más de 12 publicaciones. -
Model-driven engineering: a first glance at a ¿new? way of conceiving software development
Resumen de la conferencia
El lanzamiento de la iniciativa MDA (Model-Driven Architecture) en noviembre del 2000 supuso probablemente el nacimiento de la Ingeniería Dirigida por Modelos, un nuevo paso en el camino hacia la verdadera industrialización de la producción de software. El uso sistemático de modelos en las diferentes etapas del ciclo de vida se ha convertido en la base de un conjunto de paradigmas de desarrollo de software que permiten elevar el nivel de abstracción y potenciar el nivel de automatización en cualquier actividad relacionada con la Ingeniería del Software. La presente charla tiene por objeto proporcionar una primera introducción a los principios de la Ingeniería Dirigida por Modelos y ofrecer una vista general de las técnicas y herramientas que comprende.CV de Juan M. Vara
Juan M. Vara is an Associate Professor at the University Rey Juan Carlos of Madrid where he received his PhD in 2009. Head of the MSc in Information Systems Engineering, he is a member of the Kybele R&D group and his current research interests focus on Model-Driven Engineering, Service Science and human aspects of Software Engineering. He has been a doctoral researcher at the University of Nantes and a post-doctoral researcher at the European Research Institute in Service Science at the University of Tilburg. -
Ciencia Gestión e Ingeniería de Servicios - Service Science, Management and Engineering
Resumen de la conferencia
La charla proporcionará una introducción a la Ciencia Gestión e Ingeniería de Servicios, una disciplina emergente que integra aspectos de la gestión de empresas y negocios, tecnologías e ingeniería de la información y de las comunicaciones, y las ciencias sociales y psicología con el objetivo de ayudar a las organizaciones basadas en servicios a mejorar su productividad e innovación a través del uso de habilidades que no poseen las personas que trabajan en cada una de éstas disciplinas por separado.CV de Esperanza Marcos Martínez
Esperanza Marcos is a full Professor at the University Rey Juan Carlos of Madrid, where she is the Director of the Degree Programme in Service Science, Management and Engineering and she leads the Kybele R&D. She received her Ph.D. from the Technical University of Madrid in 1997 and her current research interests are focused on Service Science Management and Engineering and human aspects of Software Engineering. -
Estudio de la robustez frente a SEUs de algoritmos auto-convergentes
Resumen de la conferencia
La "self-convergence" es una propiedad de los sistemas distribuidos, que en caso de que sean perturbados o mal inicializados les permite recuperar una operación correcta en un numero finito de etapas de cálculo. Estos algoritmos son supuestos inmunes a todo tipo de error en las variables, pero no han sido precedentemente estudiados respecto a errores de tipo SEU (Single Event Upsets) en diversas zonas sensibles del sistema que los ejecutará. A través de inyección de fallos a diferentes niveles, hardware, software, RTL, se presentarán las ventajas y potenciales "talones de Aquiles" de una versión "benchmark" de un algoritmo auto-convergente.CV de Raoul Velazco
Dr. Raoul VELAZCO nació en Montevideo (Uruguay) en 1952. Recibió los diplomas de Ingeniero, PhD y Doctor ès Ciencias, respectivamente en 1979, 1982 y 1990, en el Instituto Nacional Politécnico de Grenoble (INPG, Grenoble- France). Desde 1984 es investigador del CNRS (Agencia francesa de investigación científica). Desde 1996 Dr. Velazco es co-responsable del grupo ARIS (Arquitecturas Robustas de circuitos Integrados y Sistemas) del laboratorio TIMA (Techniques de l’Informatique et de la Microélectronique pour l’Architecture de circuits et systèmes integrés) Univ. Des Alpes - Grenoble). Sus trabajos de investigación conciernen el test y diagnóstico de fallos de circuitos integrados complejos de tipo procesador, las metodologías y útiles para evaluar la sensibilidad de circuitos y sistemas integrados a los efectos de radiaciones y estudiar las soluciones potenciales para hacer frente a esa problemática y evaluarlas vía ensayos en aceleradores de partículas, y experimentos en el entorno real en que funcionará la aplicación estudiada (satélites científicos, balones estratosféricos, aviones, alta montaña...). Raoul Velazco fue el presidente general o presidente de programa de varias conferencias relacionadas con sus áreas de investigación. La más significativa es RADECS (RADiations and its Effects on integrated Circuits and Systems) de la cual fué presidente en 2001 y presidente del programa en 2012. Es también el fundador y co-presidente de la escuela internacional SERESSA (School on the Effects of Radiation in Embedded Systems for Space Applications). La edición 2014 de SERESSA tuvo lugar en Bariloche (Argentina) en Diciembre 2014. -
Managing dynamic concurrent tasks on low-power heterogeneous platforms
Resumen de la conferencia
The merging of computers, consumer and communication disciplines gives rise to very fast growing markets for personal communication, multi-media and broadband networks. Technology advances lead to heterogeneous platforms with enormous processing capacity that are however not matched with the increasing demand on energy efficiency combined with the required increase in handling system design productivity. One of the most critical bottlenecks is the very dynamic concurrent behaviour of many of these new applications. The main issue is that fully design-time based solutions as proposed earlier cannot solve the problem, and run-time solutions are too inefficient in terms of cost optimisation and are also not adapted for the real-time constraints. In order to deal with these dynamic issues, a "task concurrency management" (TCM) problem formulation will be proposed, where power/energy consumption while meeting performance requirements is one of the main objectives. The concept of Pareto curve based exploration is crucial in these formulations and their solutions.CV de Francky Catthoor
Prof. Francky Catthoor is a fellow at IMEC, Heverlee, Belgium. He received the Eng. degree and a Ph.D. in El. Eng. from the K.U.Leuven, Belgium in 1982 and 1987 respectively. Since 1987, he has headed research domains in the area of architectural and system-level synthesis methodologies, within the DESICS (formerly VSDM) division at IMEC. His current research activities belong to the field of architecture design methods and system-level exploration for power and memory footprint within real-time constraints, oriented towards data storage management, global data transfer optimization and concurrency exploitation. Platforms that contain both customizable/configurable architectures and (parallel) programmable instruction-set processors are targeted.