- Portada
- Titulaciones
- Doctorado
- Conferencias de Posgrado
Conferencias de Posgrado
-
Una Visión Computacional de las Redes Neuronales
Resumen de la conferencia
La multiplicación de matrices (GEMM) es un núcleo computacional clave, omnipresente en numerosos ámbitos. Por un lado, muchas aplicaciones científicas y por otro lado, las redes neuronales convolucionales para tareas de procesamiento de señales y visión por computador, así como los modelos utilizados en herramientas de aprendizaje profundo como ChatGPT. En esta charla, en primer lugar expondremos los problemas de las instancias actuales de GEMM en bibliotecas para arquitecturas multinúcleo convencionales: rendimiento subóptimo y falta de soporte para tipos de datos orientados a aprendizaje profundo. Partiendo de ese punto, demostraremos cómo pueden superarse estos problemas mediante herramientas para la generación automática de código, junto con un modelo analítico de la configuración de la jerarquía de caché del procesador. Además, ilustraremos que este enfoque se puede aplicar también a arquitecturas más "exóticas", desde aceleradores vectoriales de gama alta y el diseño AIE de Xilinx hasta dispositivos de bajo consumo como procesadores RISC-V y microcontroladores basados en ARM (Arduino).CV de Enrique S. Quintana Ortí
Enrique S. Quintana-Orti se licenció y doctoró en Informática por la Universidad Politécnica de Valencia (UPV), España, en 1992 y 1996, respectivamente. Tras más de 20 años en la Universidad Jaime I de Castellón, España, regresó a la UPV en 2019, donde actualmente es catedrático de Arquitectura de Computadores. Por su investigación, Enrique ha recibido el NVIDIA 2008 Professor Partnership Award, dos premios de la Agencia Espacial Nacional de Estados Unidos (NASA) y el premio a la trayectoria investigadora por la conferencia Euro-Par en 2023. Ha publicado más de 400 artículos en revistas y conferencias internacionales. Actualmente participa en los proyectos de la UE APROPOS (computación aproximada), RED-SEA (redes informáticas a exaescala), eFLOWS4HPC (flujos de trabajo para HPC e IA), Nimble AI (chip neuromórfico para detección y procesamiento) y Metamorpha (micromecanizado a medida con rayos láser). Sus intereses de investigación incluyen la programación paralela, el consumo de energía, la computación con precisión adaptativa, el aprendizaje profundo y el álgebra lineal, así como arquitecturas avanzadas y aceleradores de hardware. -
Agnostic Programming: “Less is More”
Resumen de la conferencia
In the Exa-scale and extreme heterogeneity era, programming is becoming an extremely expensive task. Current portable programming techniques, such as the directive-based programming model, or more recently, the C++ template libraries, have been positioned as potential solutions with other approaches such as task-based runtimes or domain-specific languages (DSLs). However, there is still a long way to walk towards a fully agnostic programming solution, where application developers don't have to worry about hardware/software constraints. In this talk, I will explore some current efforts that face such a challenge, providing some examples where less complicated programs are often more performing. Examples, of such efforts are the use and integration of performance models into the languages, as well as the exploitation of prescriptive approaches instead of descriptive ones. Future directions, such as the integration of AI-accelerated and -assisted techniques into programming solutions will be discussed and presented too.CV de Pedro Valero Lara
Pedro Valero-Lara (PhD) is a Computer Scientist in the Programming Systems Group in the Advanced Computing Systems Research Section and Computer Science and Mathematics Division of Oak Ridge National Laboratory. The experience of Pedro is focused on high-performance, parallel, and scientific computing/programming applied to numerous problems of research and industrial interest. His work is part of several reference software packages for scientific computing: Kokkos, IRIS, Cray/HPE LibSci-Acc, PLASMA, and NVIDIA cuSparse, among others. Pedro was awarded the IEEE-CS Early Career Researcher Award for Excellence in HPC in 2020, the Juan de la Cierva Fellowship in 2018, the FPI-CIEMAT scholarship in 2011, and the Microsoft Imagine Cup in 2009. Previously, he held different leading positions in industry, as Sr Research Engineer at Cray, and academia, as founder and lead of the Linear Algebra and Math Libraries unit at Barcelona Supercomputing Center. He has participated in numerous important projects, such as the Exascale Computing Project, CORAL-2, and Human Brain Project, among many others. . -
Visión Evolutiva, perspectivas de investigación de frontera.
Resumen de la conferencia
Hablar del fenómeno de visión y percepción de la realidad a través de los sentidos en los seres vivos ha planteado diferentes paradigmas de cómo representar la información visual o perceptible por parte del sujeto que la percibe y de quien la atestigua. Desde la informática y el cómputo digital se han propuesto alternativas de representación de la imágen, el color y los formatos de almacenamiento, para posteriormente tener diferentes aplicaciones desde el reconocimiento de patrones, pero ante el reto de mejorar la precisión de reconocimiento y/o clasificación de una cantidad mayor de información, tanto en número de muestras como de representaciones del conocimiento, las metodologías clásicas del aprendizaje automático se han reformulado, y ahora estamos ante nuevas formas de entender la información a partir reformular la visión por computadora desde un enfoque evolutivo artificial. En esta plática se presentarán las líneas de investigación y aplicaciones en visión por computadora, el reconocimiento de patrones y los algoritmos evolutivos.CV de Juan Villegas Cortez
Matemático por la Universidad Autónoma Metropolitana (UAM), Unidad Iztapalapa, y Maestro en Ciencias de la Computación por la UAM unidad Azcapotzalco. Doctorado en Ciencias de la Computación en diciembre 2009, en el Centro de Investigación en Computación (CIC), del Instituto Politécnico Nacional (IPN), en la Cd. de México. Desde Febrero de 2010 ejerce como Profesor-Investigador en la Universidad Autónoma Metropolitana, Unidad Azcapotzalco, Ciudad de México, México. -
El problema de la ubicación de los comercios desde la perspectiva de las redes complejas
Resumen de la conferencia
En esta conferencia, empleamos la teoría de redes para llevar a cabo un análisis empírico de las interacciones espaciales de comercios en diversas ciudades españolas. Proponemos la creación de diferentes redes de interacción como parte de nuestra metodología, que servirá como herramienta de preprocesamiento para capturar características que formalicen la dimensión relacional en sistemas de recomendación de ubicaciones comerciales. Los resultados de nuestro estudio revelan la estructura comercial de distintas áreas urbanas y permiten realizar comparaciones significativas tanto entre ciudades como entre las metodologías utilizadas. Además, mediante técnicas de consenso, identificamos un núcleo sólido de relaciones comerciales, independiente de las particularidades de cada ciudad, lo que contribuye a destacar el conocimiento transferible entre ciudades. Además, exploramos la capacidad predictiva de diferentes índices comerciales en seis ciudades españolas. Los resultados muestran que la combinación de estos índices mediante modelos de aprendizaje automático mejora de manera significativa la precisión predictiva.CV de José Manuel Galán Ordax
Ingeniero Industrial por la Universidad de Valladolid en 2002, José Manuel Galán ha mantenido una prolífica carrera en el ámbito académico e investigador, iniciando como asistente de investigación en el grupo INSISOC y trabajando en el proyecto FIRMA del V Programa Marco de la UE. Posteriormente, su trayectoria le llevó a colaborar con la Oficina SEI de Oxford, aunque tras un año se trasladó a la Universidad de Burgos como profesor ayudante. Desde entonces, ha ocupado diversas posiciones académicas en la misma, desde asistente hasta alcanzar el rango de Catedrático de Universidad en 2019. A lo largo de los años, ha disfrutado de períodos de estancia en centros como el Krasnow Institute for Advanced Study de la George Mason University o el Macaulay Institute. José Manuel se ha enfocado en la modelización y simulación computacional, especialmente en la modelización basada en agentes, usando teoría de redes y aprendizaje estadístico. Su predilección por los proyectos interdisciplinares se refleja en sus dominios de investigación principales: gestión de proyectos, teoría de juegos evolutivos, y modelización predictiva y de calidad en ingeniería industrial y gestión. -
Detecting Network Beaconing with Convolutional Networks and Zeek Logs
Resumen de la conferencia
We will introduce a robust approach to detect network beaconing across DNS, SSL, and HTTP using Zeek logs. We will start by analyzing patterns exhibited by C2 frameworks such as Meterpreter, Empire, Sliver, or Caldera. The wide range of observed behaviors will motivate a machine learning approach that consists in a) generating synthetic data that accounts for different beaconing frequencies, jittering, and latencies, and b) training a Convolutional Neural Network that analyzes the intervals between activities. Finally, we will showcase real-world detections and equip the audience with all the tools needed to apply the approach to their data.CV de Ignacio Arnaldo Lucas
I am lucky to work as a principal data scientist at Corelight with the creators and maintainers of Zeek (https://zeek.org/), the open source network security monitoring tool. My focus is to use machine learning to solve network security challenges (and there are quite a few!). I am interested in building systems that can put machine learning to use, threat detection and pentesting. Before Corelight, I worked at PatternEx, an early stage AI startup focused on threat detection. In another life, I was a researcher at CSAIL, MIT and received my PhD in computer science from Universidad Complutense in 2013. -
Resumen de la conferencia
La implantación de un estimulador cerebral profundo (DBS) se ha mostrado de gran ayuda para la mejora de la calidad de vida de los pacientes que sufren la enfermedad de Parkinson. La cirugía necesaria para su implantación requiere de un meticuloso proceso de planificación previa, y sobre todo, de la adecuada colocación del electrodo de estimulación en el hipotálamo, para una correcta inhibición de los temblores asociados al Parkinson. Los sistemas computacionales de IA permiten analizar la señal cerebral durante el trayecto de inserción para proporcionar información sobre la posición más adecuada de fijación del electrodo estimulador. Esta herramienta, junto con herramientas de imagen, ofrecen al cirujano una valiosa información para llevar a cabo con éxito la cirugía. Con el uso de este procedimiento, se ha mejorado la tasa de éxito de las operaciones y la satisfacción de los pacientes en la inhibición de temblores. Detallaremos el procedimiento quirúrgico y los algoritmos empleados para esta aplicación de la IA.CV de Alfredo Rosado Muñoz
Doctor en ciencias físicas, especialidad de electricidad, electrónica e informática. Catedrático de Universidad y director del grupo de investigación de diseño y procesado digital. Ha realizado investigación en los campos del diseño de algoritmos y sus sistemas digitales de soporte computacional principalmente en las áreas de ingeniería biomédica y automatización industrial. Ha colaborado e impartido cursos en numerosas instituciones europeas y latinoamericanas. Los principales campos actuales de investigación se centran en sistemas computacionales de IA para detección de calidad en líneas de fabricación a través del análisis de imágenes e IA para detección de patologías en ingeniería biomédica. En ambos casos, además del desarrollo computacional, se desarrollan plataformas computacionales de altas prestaciones para el aumento de la velocidad de producción, y reducción de consumo energético, utilizando principalmente computación en el origen (edge computing) y sistemas de internet de las cosas (IoT). -
Resumen de la conferencia
In this conference, Roger Espasa (CEO & Founder of Semidynamics) will explain Semidynamics RISC-V Cores; Atrevido Out-of-Order core and Avipado In-Order core. Also he will present the two main own technologies, Semidynamics Out-of-Order Vector Unit and the advantages of Gazzillion Misses.CV de Roger Espasa
Roger Espasa is the founder and CEO of Semidynamics, an IP supplier of two RISC-V cores, Avispado (in-order) and Atrevido (out-of-order) supporting the RISC-V vector extension and GazzillionTM misses, both targeted at HPC and Machine Learning. Prior to Semidynamics, Roger was at Broadcom working on an ARMV8 wide out-of-order core. (2014-2016). Previously, Roger worked at Intel (2002-2014) developing a vector extension for the x86 ISA, initially deployed in XeonPhi (Larrabee) which then became AVX-512. Roger also led the texture sampling unit for Larrabee. Roger then worked on Knight's Landing (14nm) and led the core for Knights Hill (10nm). Between 1999 and 2001 Roger worked for the Alpha Microprocessor Group on a vector extension to the Alpha architecture known as Tarantula. Roger got his PhD from UPC in 1997, has published over 40 peer-reviewed papers on Vector Architectures, Graphics/3D Architecture, Binary translation and optimization, Branch Prediction, and Media ISA Extensions and holds 9 patents with 41 international filings. -
Zero-knowledge and programmable cryptography for verifiable computation
Resumen de la conferencia
In this talk, we will explain the basic concepts of zero knowledge and verifiable computation. In order to illustrate the concepts, we will develop a basic example using circom, a widely used domain-specific language for defining arithmetic circuits that can be used to generate zero-knowledge proofs. An overview of the state of the art of programmable cryptography, where languages like circom play a centric role, will be given.CV de Jordi Baylina
Jordi Baylina is a Co-Founder of Polygon, and the Technical Lead and Co-Founder of Polygon zkEVM. He oversees the development and implementation of Polygon zkEVM, a leading zk-rollup. As one of the most widely recognized Ethereum developers, he has made several high-impact contributions to the Ethereum community, including the languages circom and PIL, free and open-source projects that demonstrate his commitment to Web3 values. He has a long history in the Ethereum community, including co-founding the WhiteHat Group to save funds during The DAO hack early in the network’s history. He has spent years as a sought-after auditor, leading the teams that poured over the contracts of MakerDAO and Aragon. Before Hermez, he co-founded a number of projects, including the donation platform Giveth, DAppNode, and Iden3. -
A Configurable Open-Source RISC-V Processor
Resumen de la conferencia
Wally is an open-source RISC-V processor that is configurable, runs Linux, and is accompanied by detailed microarchitectural descriptions and figures in a forthcoming textbook: RISC-V System-on-Chip Design. These features make Wally ideal for both the classroom and research. Because its configurations range from a small rv32e embedded core up to a high-performance rv64gc core, Wally can be used in small, low-power systems or for performance-sensitive applications. Also, because Wally is accompanied by detailed descriptions of microarchitectural design choices, users may also expand or swap in other algorithms or design choices to optimize for power, performance, or area. We developed Wally to provide in-depth coverage on how to design and optimize microprocessors and use them in a system-on-chip, applying contemporary design and verification tools. The forthcoming book describes detailed designs and tradeoffs for the functional blocks in and around a processor. Presently, no textbook on the market describes microarchitecture in sufficient detail to fully implement a non-toy system. This talk will give an overview of the Wally processor and SoC and its key features.CV de Sarah Harris
Sarah L. Harris is a Professor of Electrical and Computer Engineering at the University of Nevada, Las Vegas. She completed her M.S. and Ph.D. at Stanford University. Before joining UNLV in 2014, she was a faculty member at Harvey Mudd College for ten years. She has also worked at Hewlett Packard, Nvidia, and the Technical University of Darmstadt and has collaborated with other companies including Southwest Research Institute, Intel, and Imagination Technologies. She is the co-author of three popular textbooks, her most recent being Digital Design and Computer Architecture: RISC-V Edition (2021, Morgan Kaufmann). She is currently the principal or co-principal investigator on three NSF grants. Her research interests include computer architecture and applications of embedded systems and machine learning to biomedical engineering and robotics. -
El extraño problema de la información cuántica y el comportamiento de agentes
Resumen de la conferencia
En 2021 se ha demostrado que la física cuántica obedece al teorema del acuerdo de Aumann [1]. Este es un teorema fundamental para el correcto desarrollo de la economía y de la teoría de las decisiones. Sin ello, se crearían situaciones paradojales cuando agentes racionales analizan un sistema. En esta charla se discutirá el resultado original, los trabajos en curso que derivan de ello, y sus consecuencias en ámbitos económicos e informáticos. [1] Contreras-Tejada, P., Scarpa, G., Kubicki, A.M. et al. Observers of quantum systems cannot agree to disagree. Nat Commun 12, 7021 (2021). https://doi.org/10.1038/s41467-021-27134-6CV de Giannicola Scarpa
Giannicola Scarpa trabaja en información cuántica. En particular, sobre la teoría del entrelazamiento y sus aplicaciones en la complejidad computacional, la teoría de la información, la seguridad, la economía y los fundamentos de la física. Se graduó en Ciencias de la Computación en 2009 en Salerno, Italia y obtuvo su doctorado en 2013 en CWI Amsterdam. Trabajó en la UAB (física) y la UCM (matemáticas), y ahora es profesor contratado doctor en la UPM (sistemas informáticos). Sus trabajos han sido publicados en Nature Communications, Physical Review Letters, Theory of Computing e IEEE Transactions on Information Theory. Ha dado charlas en conferencias de prestigio, como ICALP, QIP, y CCC. -
La informática en la Ingeniería biomédica, el presente y futuro
Resumen de la conferencia
El propósito de la conferencia es mostrar la interrelación de la evolución de la ingeniería biomédica con la informática. La plática inicia con una descripción de lo que se entiende de la bioelectrónica y su relación con la ingeniería biomédica, en el grupo donde se originó el término en el año de 1971, se describe la evolución de ambos conceptos, hasta los años presentes, en donde la ingeniería biomédica se entiende de manera universal como un área multidisciplinar del conocimiento. Con la descripción evolutiva, se hace un paralelismo de como la informática ha venido interactuando y evolucionando, junto con en el desarrollo de la tecnología biomédica en el tiempo. Se describen ejemplos de las aplicaciones de la informática en la medicina preventiva y correctiva, así como en las áreas de la Ingeniera Hospitalaria, ingeniería Clínica, Diseño instrumental biomédico tanto en rehabilitación como en el diagnóstico médico. Al final de la conferencia se hace una propuesta del futuro de las aplicaciones biomédicas acompañadas de la informática.CV de Lorenzo Leija Salas
Dr. Lorenzo Leija tiene las especialidades de Ingeniería en Electrónica, I.T. San Luis Potosí, México; Maestría en Ciencias en Bioelectrónica, Centro de Investigación y de Estudios Avanzados del IPN (Cinvestav), México; Doctor en Ciencias en Bioingeniería, Universidad de Nancy, Francia, y especialización en Administración de Ciencia y Tecnología, Cinvestav. Desde 1978 trabaja en el diseño y desarrollo de instrumentación biomédica en el grupo de Bioelectrónica del Cinvestav en México. Su experiencia profesional incluye el diseño de instrumentación relacionada con UCI, procesamiento de bioseñales, cardiología, diabetes, prótesis, y bioinstrumentación en general. Sus actuales líneas de trabajo son aplicaciones médicas de tecnologías ultrasónicas y radiofrecuencia, y procesamiento de señales biomédicas para la rehabilitación. Con más de 40 proyectos nacionales e internacionales, colaboraciones con más de 40 laboratorios de América y Europa, ha supervisado decenas de estudiantes de posgrado. Ha publicado más de 100 artículos en revistas indexadas, más de 300 en congresos internacionales, 3 libros, 21 capítulos en libros comerciales y tiene 10 títulos de propiedad intelectual. -
Análisis del consumo energético de los Algoritmos Evolutivos.
Resumen de la conferencia
La importancia del consumo energético en las tecnologías de la información es cada día más relevante. En esta charla mostraremos los último resultados publicados en el ámbito de los algoritmo genéticos y de la programación genética, y plantearemos líneas de trabajo que permitan desarrollar algoritmos evolutivos más eficientes.CV de Francisco Fernández de Vega
FFV es Catedrático de Arquitectura y Tecnología de Computadores en la Universidad de Extremadura. Fue premio extraordinario de doctorado en 2002, y ha recibido varios premios y distinciones nacionales e internacionales, incluyendo el ACM GECCO evolutionary art and design competition en 2013, y el premio a la mejor aplicación de inteligencia artificial, otorgado por la CAPEIA en 2021. Ha sido CIO en la Universidad de Extremadura y Subdirector de Investigación en el Centro Universitario de Mérida. Es coordinador del grupo de investigación GEA de la Uex desde el año 2005. -
¿Por qué debemos seguir trabajando en álgebra lineal?
Resumen de la conferencia
El álgebra lineal es una herramienta fundamental en muchos campos de la ciencia y la tecnología. Es particularmente importante en la física, la ingeniería, la informática y la estadística. La capacidad de manipular eficientemente grandes cantidades de datos y matrices complejas es esencial en estas áreas para la resolución de problemas y la toma de decisiones. A priori, puede dar la sensación de que estamos muy lejos del uso del álgebra lineal en nuestro día a día. Sin embargo, algunas técnicas como la descomposición en valores singulares y la regresión lineal para entrenar modelos y hacer predicciones precisas están detrás de la inteligencia artificial y el aprendizaje automático. ¿Te suena ChatGPT? Puede no parecerlo, pero el álgebra lineal también está detrás en algunos de sus procesos. Por este motivo, debemos seguir trabajando en este campo, ya que su importancia seguirá creciendo a medida que se generen y analicen grandes cantidades de datos en el mundo actual. -
Clasificación de ciberataques mediante un modelo de ensemble learning
Resumen de la conferencia
Los sistemas TI usan algoritmos de inteligencia artificial (IA) para procesar datos. La IA se utiliza generalmente para extraer conocimiento de información almacenada y, dependiendo de la naturaleza de los datos, puede ser necesario aplicar diferentes algoritmos. En esta conferencia se presenta el uso de IA orientada a ciberseguridad a través del estudio del tráfico de red. Se presentará la construcción de un modelo de clasificación de ciberataques en dos etapas, que permite separar el tráfico legítimo e ilegítimo (fase 1) al mismo tiempo que identifica el tipo de tráfico ilegítimo (fase 2). De esta forma, el sistema permite una completa clasificación multiclase del tráfico de red. La estimación del rendimiento global se realiza utilizando un conjunto de datos evaluado mediante dos enfoques. Se mostrarán los resultados del modelo desarrollado, que alcanza un F1 de 0.912 para la detección de ciberataques (fase 1) y 0,7754 para la clasificación de los ciberataques (fase 2). -
El papel de la IA en la monitorización de la seguridad en red
Resumen de la conferencia
Preservar la ciberseguridad de los sistemas en red requiere del uso de sistemas de monitorización de la seguridad, que operan en base a alertas. Estas deben ser supervisadas por un operador para determinar qué está ocurriendo en la red y descartar falsas alarmas. El volumen de datos que se deben inspeccionar para la toma de decisiones suele ser ingente e implicar múltiples fuentes de información, lo que complica enormemente el trabajo del operador. En esta conferencia nos planteamos las posibles aportaciones del uso de IA en este proceso, analizando las limitaciones, fortalezas y debilidades. La cuestión es: ¿puede la IA reemplazar al operador? -
Algoritmos evolutivos para optimización con múltiples objetivos
Resumen de la conferencia
La conference incluye una revisión histórica general de los algoritmos multiobjetivo, describiendo el área de investigación donde estos se ubican y una explicación sobre el funcionamiento de los mismos. Seguidamente, se formalizan los principios de optimización con objetivos múltiples y el modelo general del proceso de solución utilizado con problemas de optimización multi-objetivo. Además, se analiza la influencia que tiene en el desempeño de los algoritmos evolutivos considerar muchos objetivos de manera simultánea. Se presenta además algunos de los algoritmos evolutivos más relevantes tanto para la optimización muti- como many-objective. En este punto se presentarán con mayor detalle los algoritmos evolutivos para MaOP, los avances y las posibilidades de investigación que derivan de ellos. -
DRAC: Designing RISC-V-based Accelerators for next generation Computers
Resumen de la conferencia
Designing RISC-V-based Accelerators for next generation Computers (DRAC) is a 3-year project (2019-2022) funded by the ERDF Operational Program of Catalonia 2014-2020. DRAC will design, verify, implement and fabricate a high performance general purpose processor that will incorporate different accelerators based on the RISC-V technology, with specific applications in the field of post-quantum security, genomics and autonomous navigation. In this talk, we will provide an overview of the main achievements in the DRAC project, including the fabrication of Lagarto, the first RISC-V processor developed in Spain. -
TECNOPOLÍTICA Y ACTIVISMO DE DATOS: EL MAPEO COMO FORMA DE RESILIENCIA ANTE LAS CRISIS SOCIALES
Resumen de la conferencia
La pandemia de COVID-19 ha supuesto una proliferación de mapas y contramapas. Por ello, organizaciones de la sociedad civil y movimientos sociales han generado sus propias interpretaciones y representaciones de los datos sobre la crisis. Estos también han contribuido a visibilizar aspectos, sujetos y temas que han sido desatendidos o infrarrepresentados en las visualizaciones hegemónicas y dominantes. En este contexto, la presente ponencia se centra en el análisis de los imaginarios sociales relacionados con la elaboración de mapas durante la pandemia. Es decir, trata de indagar en la importancia de los mapas para el activismo digital, las potencialidades que se extraen de esta tecnología y los valores asociados a las visualizaciones creadas con ellos. El objetivo último es reflexionar sobre la vía emergente del activismo de datos, así como sobre la intersección entre los imaginarios sociales y la geografía digital.
-
uElectronics ongoing activities at ESA
Resumen de la conferencia
This talk will begin introducing the uElectronics section of ESA at ESTEC and the general activities the group is responsible for. Then, it will go through some of the R+D on-going activities that the group is involved with, hand in hand with universities and/or companies. One of the major ones is related to the European rad-hard FPGAs that have been partially founded by ESA for several years and that will be playing a major role in the sector in the upcoming years. It´s also worth talking about the RTL soft IPs that are currently under development and that will allow us to keep on providing the European ecosystem with some key capabilities. The latter will be an overview of RISC-V space hardened on-going activities that might be replacing the current SPARC based processors available for our missions.CV de Alberto Urbón Aguado
Alberto graduated as a Computer Science Engineer in 2008 by the Univ. Complutense de Madrid (Spain) , after being granted to study in Uppsala Univ. (Sweden) for one academic year, and in Univ. de Bordeaux I (France) for another one. He then specialised in reconfigurable HW by means of a MSc. in Research on HW Engineering also by Univ. Complutense de Madrid, writing the final thesis in the field of evolvable HW on digital reconfigurable devices. He then joined the Digitizing HW department of Indra Sistemas, where he had the chance of designing digital electronics and u-electronics in the fields of signal processing and control systems, above all for Electronic Warfare products on different platforms Six years later, he moved into the space sector when signed with the u-electronics section of Airbus Crisa, where he has been designing flight FPGA devices for different clients, among which some were ESA missions. In his last stage he has been doing system level tasks related to the TTE network node of a power subsystem of Gateway. After another six years, he has joined the uElectronics (TEC-EDM) section of ESA on behalf of Telespazio, as a FPGA specialist. -
Formalizing Mathematics in Lean
Resumen de la conferencia
Formal verification has been used by computer scientists for decades to prevent software bugs. However, with a few exceptions, it has not been used by researchers working in most areas of mathematics (geometry, algebra, analysis, etc.). In this talk, we will discuss how this has changed in the past few years, and the possible implications to the future of mathematical research, teaching and communication. We will focus on the theorem prover Lean and its mathematical library mathlib, since this is currently the system most widely used by mathematicians. Lean is a functional programming language and interactive theorem prover based on dependent type theory, with proof irrelevance and non-cumulative universes. The mathlib library, open-source and designed as a basis for research level mathematics, is one of the largest collections of formalized mathematics. It allows classical reasoning, uses large- and small-scale automation, and is characterized by its decentralized nature with over 200 contributors, including both computer scientists and mathematicians.CV de María Inés de Frutos Fernández
María Inés de Frutos Fernández is a Research Associate in Formal Mathematics at Imperial College London. She earned her PhD in Mathematics from Boston University on 2020, under the supervision of Prof. Jared Weinstein. She also holds a Master’s Degree in Mathematics from said university. Previously she graduated from Universidad Autónoma de Madrid with a Dual Bachelor’s Degree in Mathematics and Computer Science. Her current research interests include formal mathematics, number theory and arithmetic geometry. -
Tendencias en el diseño de procesadores con arquitectura Arm
Resumen de la conferencia
El objetivo de esta charla es presentar las últimas novedades incorporadas en la arquitectura ARM y describir las tendencias en la microarquitectura de los procesadores con arquitectura ARM. ARM es una empresa relativamente pequeña en comparación con otros gigantes del sector tecnológico. Sin embargo, la amplia implantación de su arquitectura, siendo ampliamente dominante en algunos sectores, y sus microarquitecturas, hacen que la tecnología ARM ocupe un lugar central en el desarrollo tecnológico del mundo actual. La tecnología ARM está presente prácticamente en todo el espectro tecnológico, desde los dispositivos más sencillos hasta el HPC y Cloud computing, pasando por los smartphones, automoción electrónica de consumo, etcCV de Javier Díaz Bruguera
Javier Díaz Bruguera, licenciado y doctor en Física por la Universidad de Santiago de Compostela, tiene amplia experiencia docente e investigadora en varias universidades de España desde 1984 a 2015 en el área de Arquitectura y Tecnología de Computadores. Durante este tiempo ha realizado numerosas estancias de investigación, Universidad de California en Irvine (EE.UU), Siemens, Munich (Alemania), y Universidad Pierre y Marie Curie, Paris (Francia), y ha sido Director del Departamento de Electrónica y Computación de la Universidad de Santiago de Compostela entre 2006 y 2010. Desde 2015 trabaja en Arm. En febrero de 2015 se incorpora a Arm Ltd en Cambridge, Reino Unido, donde permanece durante un año; de marzo de 2016 a marzo de 2019 trabaja en Arm Inc en Austin, Estados Unidos, y en marzo de 2019 vuelve a Arm Ltd en Cambridge. Durante este tiempo forma parte del grupo de aritmética del computador de Arm y participa en la definición y el diseño de las unidades punto flotante, unidades de enteros y unidades vectoriales de los procesadores Cortex A, y en el diseño y optimización de las unidades punto flotante de las GPUs Mali. -
Introduction to Quantum Computing and Quantum Service Oriented Computing
Resumen de la conferencia
Part of the research community thinks that it is still early to tackle the development of quantum software engineering techniques. The reason is that how the quantum computers of the future will look like is still unknown. However, there are some facts that we can affirm today: 1) quantum and classical computers will coexist, each dedicated to the tasks at which they are most efficient. 2) quantum computers will be part of the cloud infrastructure and will be accessible through the Internet. 3) complex software systems will be made up of smaller pieces that will collaborate with each other. 4) some of those pieces will be quantum, therefore the systems of the future will be hybrid. 5) the coexistence and interaction between the components of said hybrid systems will be supported by service composition: quantum services. This talk analyzes the challenges that the integration of quantum services poses to Service Oriented Computing.CV de Juan Manuel Murillo Rodríguez
Professor Murillo is Full Professor in the field of Software Engineering at the University of Extremadura (Spain). Throughout his career he has participated in more than 40 competitive research projects. He has also developed extensive collaboration with private companies, which has granted him the Award of Excellence for the Transfer of Research Results. All this activity is developed within the Quercus Software Engineering Group which he contributed to create in 1995. Currently, he leads the SPILab (Social and Pervasive Innovation Lab) which is focused on the development of service technology for mobile devices. Most recently, Prof Murillo was appointed General Manager of the Foundation of Computing and Advanced Technologies of Extremadura (COMPUTAEX), which manages CenitS, the Center for Research, Technological Innovation and Supercomputing. COMPUTAEX is a member of the Spanish Supercomputing Network. Prof. Murillo will contribute to the specialization of CenitS in the fields of Health and Energy as well as the development of quantum software technologies to enable quantum computing such as future HPC. -
Computer Design Concepts for Machine Learning
Resumen de la conferencia
In this talk, after a brief overview of AI concepts in particular Machine Learning (ML) techniques, some of the well-known computer design concepts for high performance and power efficiency are presented. Subsequently, those techniques that have had a promising impact for computing ML algorithms are discussed. Deep learning has emerged as a game changer for many applications in various fields of engineering and medical sciences. Although the primary computation function is matrix vector multiplication, many competing efficient implementations of this primary function have been proposed and put into practice. This talk will review and compare some of those techniques that are used for ML computer design.CV de Nader Bagherzadeh
Nader Bagherzadeh is a professor of computer engineering in the department of electrical engineering and computer science at the University of California, Irvine, where he served as a chair from 1998 to 2003. Dr. Bagherzadeh has been involved in research and development in the areas of: computer architecture, reconfigurable computing, VLSI chip design, network-on-chip, 3D chips, sensor networks, computer graphics, memory and embedded systems, since he received a Ph.D. degree from the University of Texas at Austin in 1987. He is a Fellow of the IEEE. Professor Bagherzadeh has published more than 325 articles in peer-reviewed journals and conferences. His former students have assumed key positions in software and computer systems design companies in the past thirty years. He has been a PI or Co-PI of research grants for developing next generation computer systems for applications in general purpose computing and digital signal processing as well as other related areas. -
Inteligencia Artificial en la atención sanitaria del futuro
Resumen de la conferencia
Tras una breve introducción a la informática médica y unas pinceladas sobre conceptos prácticos de Inteligencia Artificial (posible definición consensuada, strong VS weak AI y técnicas y métodos comúnmente empleados), el bloque central de la charla muestra ejemplos prácticos (en forma de casos de éxito) de distintos desarrollos llevados a cabo por el grupo de Sistemas Informáticos de Nueva Generación (SING: http//sing-group.org/) en los ámbitos de (i) Informática clínica (InNoCBR, PolyDeep), (ii) Informática para investigación clínica (PathJam, WhichGenes), (iii) bioinformática traslacional (Genómica: ALTER, Proteómica: DPD, BI, BS, Mlibrary, Mass-Up, e integración de datos ÓMICOS: PunDrugs) y (iv) Informática en salud pública (CURMIS4th). Finalmente, se comenta brevemente la importancia que se espera tenga en un futuro inmediato la IA interpretable (XAI, Explainable Artificial Intelligence) y la participación humana (HITL. Human-In-The-Loop). La charla termina con una breve reflexión sobre las lecciones aprendidas por el ponente después de más de 16 años de desarrollo de sistemas inteligentes en el ámbito de la informática médica.CV de Florentino Fernández Riverola
F. Fdez-Riverola lidera (desde su creación en el año 2001) el grupo de investigación Sistemas Informáticos de Nueva Generación (SING, http://sing-group.org), donde trabaja con un equipo de 6 doctoras y 4 doctores en 6 líneas principales de investigación (aprendizaje automático, sistemas de razonamiento basado en casos, modelos híbridos de IA, agentes y sistemas multiagente, representación del conocimiento y sistemas de soporte a la decisión) aplicadas a 6 grandes áreas de actuación (predicción medioambiental, filtrado de contenidos spam, medicina personaliza y traslacional, bioinformática, informática médica y vida cotidiana asistida por el entorno). Ha participado en 4 proyectos internacionales, 11 proyectos nacionales y 8 proyectos autonómicos, además de 35 contratos de I+D con empresas y/o administraciones. Parte de los resultados han sido publicados dando lugar a un total de 138 trabajos de investigación en revistas indexadas JCR, donde 83 de ellos corresponden al primer cuartil. -
Design Automation Approaches for Real-Time Edge Computing for Science Applications
Resumen de la conferencia
Many emerging applications require methods tailored towards high-speed data acquisition and filtering of streaming data followed by offline event reconstruction and analysis. In this case, the main objective is to relieve the immense pressure on the storage and communication resources within the experimental infrastructure. In other applications, ultra low latency real time analysis is required for autonomous experimental systems and anomaly detection in acquired scientific data in the absence of any prior data model for unknown events. At these data rates, traditional computing approaches cannot carry out even cursory analyses in a time frame necessary to guide experimentation. In this talk, Prof. Ogrenci will present some examples of AI hardware architectures. She will discuss the concept of co-design, which makes the unique needs of an application domain transparent to the hardware design process and present examples from three applications: (1) An in-pixel AI chip built using the HLS methodology; (2) A radiation hardened ASIC chip for quantum systems; (3) An FPGA-based edge computing controller for real-time control of a High Energy Physics experiment.CV de Seda Ogrenci-Memik
Seda Ogrenci-Memik (IEEE Senior Member in 2005) received the B.S. degree in electrical and electronic engineering from Bogazii University, Istanbul, Turkey, and the Ph.D. degree in computer science from the University of California at Los Angeles, Los Angeles, CA, USA. She is currently a Professor with the Electrical Engineering and Computer Science Department, Northwestern University, Evanston, IL, USA. Furthermore, she is the Director of Computer Engineering Division at ECE Department. Her research interests include embedded and reconfigurable computing, HLS, thermal-aware design automation, and thermal management for microprocessor systems. She has served as a technical program committee member, an organizing committee member, and the track chair of sev- eral conferences, including ICCAD, DATE, FPL, GLSVLSI, and ISVLSI. She received the National Science Foundation Early Career Development (CAREER) Award in 2006. She is currently serving on the Editorial Board of the IEEE Transactions on Very Large Scale Integration. In April 2021 she will be joining Google during her sabbatical leave. -
Estrategias de navegación para robótica móvil de campo: caso de estudio proyecto WeLASER
Resumen de la conferencia
En esta conferencia se presentará una revisión del concepto de autonomía para robots móviles de campo y la identificación de desafíos para lograr un verdadero sistema autónomo, además de sugerir posibles direcciones de investigación. Los sistemas robóticos inteligentes, por lo general, obtienen conocimiento de sus funciones y del entorno de trabajo en etapa de diseño y desarrollo. Este enfoque no siempre es eficiente, especialmente en entornos semiestructurados y complejos como puede ser el campo de cultivo. Un sistema robótico verdaderamente autónomo debería desarrollar habilidades que le permitan tener éxito en tales entornos sin la necesidad de tener a-priori un conocimiento ontológico del área de trabajo y la definición de un conjunto de tareas o comportamientos predefinidos. Por lo que en esta conferencia se presentarán posibles estrategias basadas en Inteligencia Artificial que permitan perfeccionar las capacidades de navegación de robots móviles y que sean capaces de ofrecer un nivel de autonomía lo suficientemente elevado para poder ejecutar todas las tareas dentro de una misión casa-a-casa (home-to-home).CV de Luis Alfredo Emmi
I am a postdoctoral researcher at the Center for Automation and Robotics (CAR) CSIC-UPM, working in the WeLASER project (SFS-04-H2020 N. 101000256), which aims to develop autonomous non-chemical solutions for weed management based on application of lethal doses on weed meristems through high-power laser. I received the B.E. degree in Electronic Engineering from the Simon Bolivar University, Caracas (Venezuela) in 2008. The M.E. degree in Computer Science with specialization in Engineering for Industry and PhD degree in Computer Engineering (with mention of European doctorate) were received from the University Complutense of Madrid (UCM), in 2011 and 2014, respectively. My thesis subject was the configuration of fleets of robots for Precision Agriculture, developed within the European project Robot Fleets for Highly Effective Agriculture and Forestry Management (RHEA, FP7, N 245986, 2010-2014). My research interests are: navigation strategies of mobile robots in semi-structured environments; architecture and control systems; topological maps, sensor fusion and integration; computer-vision based on artificial intelligence; fleets of robots. -
Automatic generation of hardware memory architectures for HPC
Resumen de la conferencia
Many HPC applications are massively parallel and can benefit from the spatial parallelism offered by reconfigurable logic. While modern memory technologies can offer high bandwidth, designers must craft advanced communication and memory architectures for efficient data movement and on-chip storage. Addressing these challenges requires to combine compiler optimizations, high-level synthesis, and hardware design. In this talk, I will present challenges, solutions, and trends for generating massively parallel accelerators on FPGA for high-performance computing. These architectures can provide performance comparable to software implementations on high-end processors, and much higher energy efficiency thanks to logic customization.CV de Christian Pilato
Christian Pilato is a Tenure-Track Assistant Professor at Politecnico di Milano. He was a Post-doc Research Scientist at Columbia University (2013-2016) and at the ALaRI Institute of the Università della Svizzera italiana (2016-2018). He was also a Visiting Researcher at New York University, Delft University of Technology, and Chalmers University of Technology. He has a Ph.D. in Information Technology from Politecnico di Milano (2011). His research interests focus on the design, optimization, and prototyping of heterogeneous system-on-chip architectures and reconfigurable systems, with emphasis on memory and security aspects. Starting from October 2020, he is the Scientific Coordinator of the H2020 EVEREST project. He served as program chair of EUC 2014 and is currently serving in the program and organizing committees of many conferences on EDA, CAD, embedded systems, and reconfigurable architectures (DAC, ICCAD, DATE, CASES, FPL, ICCD, etc.) He is a Senior Member of IEEE and ACM, and a Member of HiPEAC. -
Type and proof structures for concurrency
Resumen de la conferencia
The main challenge of concurrent software verification has always been in achieving modularity, i.e., the ability to divide and conquer the correctness proofs with the goal of scaling the verification effort. Types are a formal method well-known for its ability to modularize programs, and in the case of dependent types, the ability to modularize and scale complex mathematical proofs. In this talk I will present our recent work towards reconciling dependent types with shared memory concurrency, with the goal of achieving modular proofs for the latter. Applying the type-theoretic paradigm to concurrency has lead us to view separation logic as a type theory of state, and has motivated novel abstractions for expressing concurrency proofs based on the algebraic structure of a resource and on structure-preserving functions (i.e., morphisms) between resources.CV de Aleks Nanevski
Aleks is a associate research professor at IMDEA Software. Before that, he obtained a PhD at Carnegie Mellon University, and has worked as a postdoc at Harvard University and Microsoft Research in Cambridge. This talk will be on the topic of his ongoing ERC Consolidator grant. -
Cómo construir un chatbot inteligente sin morir en el intento
Resumen de la conferencia
Los chatbots son un elemento clave en la transformación digital de nuestra sociedad. Están por todas partes: eCommerce, salud digital, asistencia a clientes, turismo,... Pero si habéis usado alguno, probablemente os habrá decepcionado. Lo confieso, la mayoría de los chatbots que existen son muy malos. Y es que no es nada fácil hacer un chatbot que sea realmente útil e inteligente. Un chatbot combina toda la complejidad de la ingeniería de software con la del procesamiento de lenguaje natural. Pensad que muchos chatbots hay que desplegarlos en varios canales (web, telegram, slack,...) y a menudo tienen que utilizar APIs y servicios externos, acceder a bases de datos internas o integrar modelos de lenguaje preentrenados (por ej. detectores de toxicidad), etc. Y el problema no es sólo crear el bot, si no también probarlo y evolucionarlo. En esta charla veremos los mayores desafíos a los que hay que enfrentarse cuando nos encargan un proyecto de desarrollo que incluye un chatbot y qué técnicas y estrategias podemos ir aplicando en función de las necesidades del proyecto, para conseguir, esta vez sí un chatbot que sepa de lo que habla.CV de Jordi Cabot
Jordi Cabot received the B.Sc. and Ph.D. degrees in computer science from the Technical University of Catalonia. He was the leader of an INRIA and LINA Research Group at Ecole des Mines de Nantes, France, a Post-Doctoral Fellow with the University of Toronto, a Senior Lecturer with the Open University of Catalonia, and a Visiting Scholar with the Politecnico di Milano. He is currently an ICREA Research Professor at Internet Interdisciplinary Institute. His research interests include software and systems modeling, formal verification and the role AI can play in software development (and vice versa). He has published over 200 peer-reviewed conference and journal papers on these topics. Apart from his scientific publications, he writes and blogs about all these topics in several sites like modeling-languages.com, livablesoftware.com and ingenieriadesoftware.es/. He is also the co-founder and CEO of Xatkit, an open-source chatbot development platform. -
Fault-tolerance Quantum computation and Quantum Error Correction
Resumen de la conferencia
Quantum computing has become a noteworthy topic in academia and industry. The multinational companies in the world have been obtaining impressive advances in all areas of quantum technology during the last two decades. These companies try to construct real quantum computers in order to exploit their theoretical preferences over today’s classical computers in practical applications. However, they are challenging to build a full-scale quantum computer because of their increased susceptibility to errors due to decoherence and other quantum noise. Therefore, quantum error correction (QEC) and fault-tolerance protocol will be essential for running quantum algorithms on large-scale quantum computers. The overall effect of noise is modeled in terms of a set of Pauli operators and the identity acting on the physical qubits (bit flip, phase flip and a combination of bit and phase flips). In addition to Pauli errors, there is another error named leakage errors that occur when a qubit leaves the defined computational subspace. As the location of leakage errors is unknown, these can damage even more the quantum computations. Thus, this talk will briefly provide quantum error models.CV de Samira Sayedsalehi
Samira Sayedsalehi is an Assistant Professor at the Department of Computer Engineering in the South Tehran Branch of the Islamic Azad University (Tehran, Iran). She is currently performing a Visitor Professor at the Computer Architecture and Automation Department within UCM. She got her PhD in 2012 in the Department of Computer Engineering at the Islamic Azad University in Tehran (Iran). Her current main research interests are related with Quantum Dot Cellular Automata and Quantum Computing, specially with Quantum Error Correction techniques. She has published more than 30 papers in international recognized conferences and journals and has around 1400 citations in Google Scholar.
-
Hardware/software security contracts: Principled foundations for building secure microarchitectures
Resumen de la conferencia
Microarchitectural attacks, such as Spectre and Meltdown, are a class of security threats that affect almost all modern processors. These attacks exploit the side-effects resulting from processor optimizations to leak sensitive information and compromise a system’s security. Over the years, a large number of hardware and software mechanisms for preventing microarchitectural leaks have been proposed. Intuitively, more defensive mechanisms are less efficient, while more permissive mechanisms may offer more performance but require more defensive programming. Unfortunately, there are no hardware-software contracts that would turn this intuition into a basis for principled co-design. In this talk, we present a framework for specifying hardware/software security contracts, an abstraction that captures a processor’s security guarantees in a simple, mechanism-independent manner by specifying which program executions a microarchitectural attacker can distinguish.CV de Marco Guarnieri
Marco Guarnieri is an Assistant Research Professor at IMDEA Software Institute (Spain). He holds a PhD in Computer Science from ETH Zurich (Switzerland). His research focuses on the design, analysis, and implementation of practical systems for securely storing and processing sensitive data. He applies his research to the analysis of micro-architectural side-channel attacks (and countermeasures) and to database security. -
La seguridad en el desarrollo de software implementada de forma preventiva
Resumen de la conferencia
La aparición de vulnerabilidades por la falta de controles de seguridad es una de las causas por las que se demandan nuevos marcos de trabajo que produzcan software seguro de forma predeterminada. En la conferencia se abordará cómo transformar el proceso de desarrollo de software dando la importancia que merece la seguridad desde el inicio del ciclo de vida. Para ello se propone un nuevo modelo de desarrollo – modelo Viewnext-UEx – que incorpora prácticas de seguridad de forma preventiva y sistemática en todas las fases del proceso de ciclo de vida del software. El propósito de este nuevo modelo es anticipar la detección de vulnerabilidades aplicando la seguridad desde las fases más tempranas, a la vez que se optimizan los procesos de construcción del software. Se exponen los resultados de un escenario preventivo, tras la aplicación del modelo Viewnext-UEx, frente al escenario reactivo tradicional de aplicar la seguridad a partir de la fase de testing.CV de José Carlos Sancho Núñez
José Carlos Sancho Núñez es Doctor en Tecnologías Informáticas por la Universidad de Extremadura y Profesor del Departamento de Ingeniería de Sistemas Informáticos y Telemáticos, en el área de Lenguajes y Sistemas Informáticos. Su investigación se centra en la seguridad en el desarrollo del software y en la protección de sistemas informáticos. Posee varias contribuciones en revistas internacionales y en congresos de prestigio relacionados con la seguridad del software. Participa activamente en proyectos de investigación relacionados con ciberseguridad y en contratos de transferencia tecnológica. -
Do you trust your artificial intelligence system?
Resumen de la conferencia
This lecture will address issues of trust in computer systems, artificial intelligence and attacks on these types of systems with practical examples. Artificial Intelligence has gained ground in several areas with different applications scenarios, but in the perspective of this lecture, the fundamental point of the discussion is: what does an artificial intelligence system should do from a security perspective and how does an intelligence system provide results on a given subject? Few people are really concerned about the behavior of these types of systems from a security point of view. If you like machine learning and security, I believe this lecture will show you interesting security problems in artificial intelligence systems.CV de Robson de Oliveira Albuquerque
Robson de Oliveira Albuquerque received his Doctorate Degree from UnB in 2008 and got a PhD from UCM in 2016. In 2020 he finished his postdoc in cybersecurity at UnB in association with the professional postgraduate program in electrical engineering. He has more than 25 years of experience in computer networks, information systems and network security. His field of study and research includes Information Systems, Computer Networks, Network Security, Information Security and Cybersecurity. His professional skills include IT consulting for private organisations and the Brazilian Federal Government. He is a member of the Professional PostGraduate Program in Electrical Engineering (PPEE) in the Electrical Engineering Department, at the University of Brasília. He contributes as a Researcher and Professor at the Brazilian National Science and Technology Institute on Cybersecurity (CyberSecurity INCT) - LATITUDE Laboratory. He is member of AQUARELA research group at University of Brasilia. He has more than 50 international publications in journals and conferences related to computer science, computer networks, information security and cybersecurity. -
Redes neuronales y reinforcement learning. Aplicación en energía eólica.
Resumen de la conferencia
El uso de energías renovables es clave para cumplir los objetivos de desarrollo sostenible de la Agenda 2030. Entre estas energías, la eólica es la segunda más utilizada debido a su alta eficiencia. Algunos estudios sugieren que la energía eólica será la principal fuente de generación en 2050. Por ello es conveniente seguir investigando en la aplicación de técnicas de control avanzadas en estos sistemas. Entre estas técnicas avanzadas cabe destacar las redes neuronales y el aprendizaje por refuerzo combinadas con estrategias clásicas de control. Estas técnicas ya se han empleado con éxito en el modelado y el control de sistemas complejos. Esta conferencia presentará la aplicación de redes neuronales y aprendizaje por refuerzo al control de aerogeneradores, centrándolo especialmente en el control de pitch. Se detallarán diferentes configuraciones con redes neuronales y otras técnicas aplicadas al control de pitch. Finalmente se propondrán algunas técnicas híbridas que combinen lógica difusa, tablas de búsqueda y redes neuronales, mostrando resultados que han permitido probar su utilidad para mejorar la eficiencia de las turbinas eólicas.CV de Jesús Enrique Sierra García
Jesús Enrique Sierra estudió ingeniería electrónica e ingeniería de telecomunicaciones en la UVA, y el master en ingeniería de sistemas y control en la UNED. En 2019 finalizó su tesis en la UCM, en aplicación de técnicas de control inteligentes al modelado y control de UAVs. Actualmente es profesor ayudante doctor en la UBU, en el departamento de ingeniería electromecánica. Anteriormente trabajó durante 15 años como ingeniero de hw y sw. Es coautor de más de 40 publicaciones científicas. Ha sido investigador principal en más de 15 proyectos de investigación. Su labor investigadora se ha centrado en el desarrollo y aplicación de técnicas de control inteligente al modelado y control de sistemas, principalmente relacionados con robótica y energía eólica. Coordina la unidad conjunta de investigación entre la UBU y Asti Mobile Robotics en tecnologías aplicadas a vehículos autónomos, robótica móvil y AGVs. -
Building smart and fast systems using Machine Learning and Computer Vision.
Resumen de la conferencia
Nowadays, computing platforms use a mix of different hardware technologies, as a way to scale application performance, resource capacities and achieve cost effectiveness. However, this heterogeneity, along with the greater irregularity in the behavior of emerging workloads, render existing resource management approaches ineffective. In the first part of this talk, I will describe how we can use machine learning methods at the operating system-level, in order to make smarter resource management decisions and speed up application performance. In the second part of the talk, I will present how we can accelerate certain components of such systems using visualization and computer vision methods. Finally, I will conclude with my vision of coupling machine learning and computer vision at the system-level and present open questions that make this research area exciting to work on!CV de Thaleia Doudali
Thaleia Dimitra Doudali is an Assistant Research Professor at IMDEA Software Institute. She received her PhD at Georgia Tech in the United States. Prior to that she got her undergraduate diploma in ECE at NTUA in Athens, Greece. Thaleia’s research explores novel methodologies, such as machine learning and computer vision, to improve system-level resource management of emerging hardware technologies. In 2020, Thaleia was selected to attend the prestigious Rising Stars in EECS academic workshop -
Evolution and Trends in Edge AI Systems and Architectures for the Internet of Things Era
Resumen de la conferencia
The evolution of semiconductor process technologies has enabled the design of low-cost, compact and high-performance embedded systems, which have enabled the concept of Internet of Things (IoT). In addition, technological advances in communication protocols and unsupervised Machine Learning (ML) techniques are leading to disruptive innovations. As a result, the IoT, a new era of massive numbers of smart connected devices, can enhance processes and enable new services in established industries, creating smart cities, e-health businesses, or industry 4.0. However, major challenges remain in achieving this potential due to the inherent complexity of designing energy-efficient IoT architectures. Prof. Atienza will first present the challenges of ultra-low power (ULP) design and communication overhead in next-generation IoT devices in the context of Big Data processing. Then, the benefits of exploiting the latest knowledge of how mammalian nervous systems acquire, process, and share information between the internal systems to conceive future edge AI-enabled architectures for IoT will be discussedCV de David Atienza
David Atienza is a Full Professor of Electrical and Computer Engineering and heads the Embedded Systems Laboratory (ESL) at EPFL. He received his MSc and Ph.D. degrees in Computer Science and Engineering from UCM and IMEC. His research interests focus on system-level design methodologies for energy-efficient computing systems, particularly multi-processor system-on-chip architectures (MPSoC) for cloud computing and next-generation edge AI architectures. He is a co-author of more than 350 publications, 13 patents, and has received several best paper awards in top conferences in these fields. Dr. Atienza received, among other recognitions, the ICCAD 2020 10-Year Retrospective Most Influential Paper Award, the DAC Under-40 Innovators Award in 2018, the IEEE CEDA Early Career Award in 2013, and the ACM SIGDA Outstanding New Faculty Award in 2012. He is an IEEE Fellow, an ELLIS Fellow, and an ACM Distinguished Member. He was the President (2018-2019) of IEEE CEDA. -
Challenges and Opportunities for AI and Data analytics in Offshore wind
Resumen de la conferencia
As the world's energy demand rises, so does the amount of renewable energy, particularly wind energy, in the supply. The life cycle of wind farms starting from manufacturing the components to decommission stage involve significant involvement of cost and the application of AI and data analytics are on reducing these costs are limited. With this conference talk, the audience expected to know some of the interesting applications of AI and data analytics on offshore wind. And, also highlight the future challenges and opportunities. This conference could be useful for students, academics and researcher who want to make next career in offshore wind but yet know where to start.CV de Dr Ravi Pandit
Dr Ravi Pandit is currently Research Fellow in Data Science and Artificial Intelligence (IDSAI) at the Department of Computer Science, University of Exeter. Prior to that, he worked at the University of Strathclyde (2016-2020), UCLM, Spain (2018), Wood plc (2016-2017); Jadavpur University (2014-2016); VIT, Vellore (2011-2014) respectively. During his professional career, he received a number of prestigious and highly competitive research awards/fellowships (Travel Grant, Marie Curie Fellowship, Erasmus Mundas). He has published numerous papers in highly ranked journals and has presented my research at several international conferences and workshops. Overall, he has more than 10 years of academics and research experiences; with various reputed academics and industries through number of interdisciplinary projects. His research Areas/Interest are: Probabilistic machine learning, Bayesian non-parametric predictive models (e.g., Gaussian Process); Data analytics/ML for clean energy technologies (offshore winds, solar); Predictive maintenance & condition monitoring; Forecasting and Prediction : long-term and short-term and Big data statistical analysis: time-series, modelling. -
Discrete-Event Modeling and Simulation for Development of Embedded and Real-Time Systems
Resumen de la conferencia
Embedded real-time software construction has usually posed interesting challenges due to the complexity of the tasks these systems have to execute. Most methods for developing these systems are either hard to scale up for large systems, or require a difficult testing effort with no guarantee for bug-free software products. Construction of system models and their analysis through simulation reduces both end costs and risks, while enhancing system capabilities and improving the quality of the final products. This is a useful approach, moreover considering that testing under actual operating conditions may be impractical and in some cases impossible. In this talk, we will present a Modeling and Simulation-based framework to develop embedded systems based on the DEVS (Discrete Event systems Specification) formalism. This approach combines the advantages of a simulation-based approach with the rigor of a formal methodology. We will discuss how to use this framework to incrementally develop embedded applications, and to integrate simulation models with hardware components seamlessly.CV de Gabriel Wainer
Gabriel Wainer es Full Professor de la Universidad de Carleton (Ottawa, Canadá). Es autor de cuatro libros relacionados con simulación y sistemas de tiempo real, y de más de 400 artículos en distintas revistas y congresos, con varios premios al mejor artículo. Es editor y jefe de la revista SIMULATION: Transactions of the SCS, y editor asociado de varias revistas de prestigio. Es el investigador principal del laboratorio Advanced Real-Time Simulation. Ha sido investigador principal de más de 20 proyectos de financiación pública y privada. Ha supervisado más de 10 investigadores posdoctorales, más de 20 estudiantes de doctorado, más de 10 asistentes de investigación y más de 200 proyectos de máster y fin de carrera. Ha sido Vice-Presidente de Conferencias, Vice-Presidente de Publicaciones y actualmente es miembro del Panel del Directores de la Society for Computer Simulation International (SCS). Es Fellow Member de SCS. Ha recibido numeros premios y galardones, como el IBM Eclipse Innovation Award, Leadership award (SCS), Bernard P. Zeigler DEVS Modeling and Simulation Award, SCS Outstanding Professional Award, o la Nepean's Canada 150 Anniversary Medal. -
History and Future Opportunities in large-scale Field Programmable Analog Arrays
Resumen de la conferencia
Analog computation becomes relevant with the advent of large-scale Field Programmable Analog Arrays (FPAA) devices. Programmable and configurable large-scale analog circuits and systems enabling a typical factor of 1000 improvement in computational power (Energy) efficiency over their digital counterparts. Scaling of energy efficiency, performance, and size will be discussed. We will overview a few examples in this area as helps the resulting roadmap discussion, including speech, vision, and sensor interfaces. These techniques are even more critical given the saturation of computational energy efficiency of digital multiply accumulate structures, the key component for high-performance computing. Analog and digital systems have tools to model resolution and computational noise and computation energy; analog and digital approaches have their own optimal computing regions. We will discuss the first step in analog abstraction utilized in FPAA encoded in an open-source toolset. Abstraction of blocks in the FPAA block library makes the SoC FPAA ecosystem accessible to system-level designers while still enabling circuit designers the freedom to build at a low level.CV de Jennifer Hasler
Jennifer Hasler (Senior Member, IEEE) received the M.S. and B.S.E. degrees in electrical engineering from Arizona State University in 1991, and the Ph.D. degree in computation and neural systems from the California Institute of Technology, in 1997. She is currently a Full Professor with the School of Electrical and Computer Engineering, Georgia Institute of Technology. Dr. Hasler received the Paul Raphorst Best Paper Award from the IEEE Electron Devices Society in 1997, the Best Paper Award from SCI in 2001, the NSF CAREER Award in 2001, the ONR YIP Award in 2002, the Best Paper from CICC in 2005, the Best Sensor Track Paper from ISCAS in 2005, the Best Paper Award from Ultrasound Symposium in 2006, and the Best Demonstration Paper Award from ISCAS in 2010. -
Investigación sobre el desarrollo del pensamiento computacional en la educación
Resumen de la conferencia
La conferencia presentará las conclusiones más importantes de las investigaciones realizadas por el grupo KGBL3, formado por investigadores de la URJC y la UNED, en materia de pensamiento computacional en la educación. Estas investigaciones se agrupan en tres líneas temáticas: la evaluación del pensamiento computacional, su transferencia a otros dominios y los factores que influyen en su desarrollo. Durante la conferencia se hará especial hincapie en el proceso de creación y validación de los instrumentos y herramientas software desarrolladas por el grupo, que se han convertido casi en un estándar de la comunidad educativa y académica. Para finalizar se presentarán los primeros resultados de una nueva línea de investigación en la que se está trabajando, que tiene que ver con la enseñanza de la inteligencia artificial desde edades tempranas usando la herramienta LearningML.CV de Jesús Moreno León
Jesús Moreno León es doctor en Tecnologías de la Información y las Comunicaciones. Actualmente trabaja como profesor en un centro de formación profesional e investigador en la URJC. Los últimos años ha desarrollado tareas más relacionadas con la experimentación y la gestión de proyectos de innovación educativa, tanto en España como el ámbito internacional. Por poner tan solo algunos ejemplos, es miembro del grupo asesor de la Semana Europea de la Programación, promovida por la Comisión Europea; ha sido el representante español en el jurado de los campeonatos del mundo y de Europa de Formación Profesional en la especialidad de redes y sistemas informáticos; y ha dirigido el área de experimentación en el aula del Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado. Además es cofundador y codirector de la organización sin ánimo de lucro “Programamos”. -
Protecting data and intellectual property in accelerator-rich architectures with high-level methods
Resumen de la conferencia
The globalization of the electronics supply chain allows for the reduction of chip manufacturing costs but poses new security threats. Untrusted foundries can steal the intellectual property in the chips, while malicious users can tamper with the systems to steal sensitive information. The design of next-generation systems requires to change the design methods, introducing security concepts since the early stages. In this talk, I will present an overview of the security issues in the design of accelerator-rich architecture, focusing on the protection of the data and the intellectual property. I will also discuss high-level methods to address these concerns, along with metrics for their evaluations. These solutions include the design and prototyping of architectures with secure communications, the high-level synthesis of security countermeasures, and the logic locking of RTL designs.CV de Christian Pilato
Christian Pilato is a Tenure-Track Assistant Professor at Politecnico di Milano. He was a Post-doc Research Scientist at Columbia University (2013-2016) and at the ALaRI Institute of the Università della Svizzera italiana (2016-2018). He was also a Visiting Researcher at New York University, Delft University of Technology, and Chalmers University of Technology. He has a Ph.D. in Information Technology from Politecnico di Milano (2011). His research interests focus on the design, optimization, and prototyping of heterogeneous system-on-chip architectures and reconfigurable systems, with emphasis on memory and security aspects. Starting from October 2020, he is the Scientific Coordinator of the H2020 EVEREST project. He served as program chair of EUC 2014 and is currently serving in the program committees of many conferences on EDA, CAD, embedded systems, and reconfigurable architectures (DAC, ICCAD, DATE, CASES, FPL, ICCD, etc.) He is a Senior Member of IEEE and ACM, and a Member of HiPEAC. -
FPGA-based soft-processors: 6G nodes and post-quantum security in space
Resumen de la conferencia
With the rise of fog and edge-computing as the basic paradigms for future communication standards such as 6G, new processing requirements are established. On the other hand, new security algorithms appear with the scaling of quantum technology, increasing the complexity of the cryptography applications for IoT devices with a tight standardization timeline. Finally, the integration of satellites as nodes for communication networks includes fault-tolerance and error-correction codes as design parameters. FPGA-based soft-processors are supported by industry and space agencies as promising candidates to overcome all these challenges, due to their flexibility and power consumption compared to GPUs or multithreading CPUs with co-processors. To optimize these architectures to a wide range of scenarios, common methods, and arithmetic functions need to be integrated into the ISA. This talk will show some examples of the RISC-V EL2 core for both classical and post-quantum cryptography and error correction codes, reducing the latency of standardized solutions at a cost of a small cross-section increase keeping the behavior under radiation effects similar to the original core.CV de Francisco García Herrero
Francisco García Herrero es Graduado en Ingeniería Electrónica de Telecomunicación por la Universidad de Valencia, Máster en Ingeniería de Sistemas Electrónicos para Tecnologías de la Información y las Comunicaciones y Doctor en Ingeniería Electrónica por la Universitat Politècnica de València. Desde el año 2011 su principal línea de investigación se centra en el diseño de algoritmos y arquitecturas VLSI para la corrección de errores en sistemas tolerantes a fallos de comunicación, almacenamiento y procesado, con especial interés en métodos de decodificación no-binarios implementados en FPGA. Actualmente desarrolla su labor docente e investigadora en la Universidad Nebrija, Centro ARIES, en colaboración con otros centros como l’Equipes Traitement de l'Information et Systèmes (Ecole Nationale Supérieure de l’Electronique et de ses Applications), the Department of Electrical and Computer Engineering (University of California), the School of Electrical and Electronic Engineering (University College Dublin) y the Error Correction Laboratory (University of Arizona). -
La visión por computador en la fabricación cero defectos. Tecnología al servicio de la eficacia.
Resumen de la conferencia
Durante los últimos años el sector industrial ha experimentado una transformación profunda debido a la introducción de las TIC en los entornos productivos y en los sistemas de fabricación. Surgen nuevos paradigmas, entre los que se encuentra la fabricación cero defectos, que permiten aumentar la fiabilidad de los procesos productivos y alcanzar resultados de máxima exigencia. Una tecnología crucial, y que posibilita la aplicación de este paradigma, es la visión por computador. En la conferencia se abordarán aspectos relacionados con la adquisición y procesado de imagen mediante la presentación de casos de uso industriales. Se concluirá con una revisión de los últimos trabajos en visión por computador que realizan aportaciones en esta reciente línea de investigación, la fabricación cero defectos.CV de Silvia Satorres Martínez
Silvia Satorres Martínez es Ingeniera Industrial, especialidad en Organización Industrial, y Profesora Titular de Universidad en el Departamento de Ingeniería Electrónica y Automática, de la Universidad de Jaén. Recibió el título de doctor por la Universidad de Jaén en 2010, y se dedica actualmente a la investigación en visión por computador aplicada al control de la calidad y a la aplicación de la automática a olivicultura y elaiotecnia. Posee más de 40 contribuciones en revistas internacionales indexadas, capítulos de libro y en congresos nacionales e internacionales. Ha estado involucrada en una decena de proyectos de investigación y en más de 50 contratos de transferencia de tecnología. -
Process Mining: closing the gap between Data Science and BPM
Resumen de la conferencia
La ciencia de datos es una de las disciplinas de mayor actualidad porque ayuda a las organizaciones a explotar de manera inteligente la ingente cantidad de datos que generan en su operativa diaria. Por otro lado, las organizaciones deben contar con procesos bien definidos que guíen esa actividad diaria. La herramienta que las organizaciones han utilizado tradicionalmente para identificar, definir y gestionar esos procesos son los modelos de proceso, y la disciplina que se ocupaba de estos modelos es la Gestión de Proceso de Negocio. La Minería de Procesos surgió con la intención de conectar ambas disciplinas, permitiendo confrontar los datos generados por la organización con sus modelos de proceso. A día de hoy los algoritmos y herramientas software que permiten extraer modelos de proceso de los datos recogidos por los sistemas de información de cualquier organización tienen ya cierto nivel de madurez, lo que permitiría que estas técnicas, con un tremendo potencial, fueran de inmediata aplicación en casi cualquier ámbito. El objetivo de esta charla es proporcionar una introducción al mundo de la minería de procesos desde un punto de vista eminentemente práctico.CV de Juan Manuel Vara Mesa
Profesor Titular en la Universidad Rey Juan Carlos, Director del Máster Oficial en Ingeniería de Sistemas de Información y Coordinador de la línea de investigación en Ingeniería del Software, Sistemas de Información y Servicios del programa de Doctorado en TIC de dicha Universidad. Ingeniero Informático, Máster en Tecnologías de la Información y Sistemas Informáticos y Doctor en Ingeniería Informática. Certificaciones ITIL, CMMi, Scrum Master, madri+d Business Mentor. Investigador pre-doctoral del INRIA en la Universidad de Nantes e investigador post-doctoral en el ERISS (Europen Research Institute on Service Science) de la Universidad de Tilburg. Miembro del grupo de investigación Kybele, donde sus principales líneas de investigación vienen siendo la Ingeniería Dirigida por Modelos, la gestión de proyectos software y la Ingeniería de Servicios, en cuyo contexto ha contribuido a la creación y puesta en marcha del primer Grado en Ingeniería de Servicios, que coordina en la actualidad. -
Resumen de la conferencia
Many modern and emerging applications must process huge amounts of data. Unfortunately, prevalent computer architectures are based on the von Neumann design, where processing units and memory units are located apart, which make them highly inefficient for large-scale data intensive tasks. The performance and energy costs when executing this type of applications are dominated by the movement of data between memory units and processing units. This is known as the von Neumann bottleneck. Processing-in-Memory (PIM) is a computing paradigm that avoids most of this data movement by putting together, in the same place or near, computation and data. This talk will give an overview of PIM and will discuss some of the key enabling technologies. Next I will present some of our research results in that area, specifically in the application areas of genome sequence alignment and time series analysis.CV de Oscar Plata González
Oscar Plata es catedrático de arquitectura y tecnología de computadores en la Universidad de Málaga desde 2002. Se licenció en Ciencias Físicas en la Universidad de Santiago de Compostela en 1985 y obtuvo su doctorado en dicha universidad en 1989. Desde entonces, el Prof. Plata ha estado investigando en computación de altas prestaciones, desde la arquitectura hasta la programación pasando por la compilación automática. Ultimamente, su interés está en la aceleración del procesamiento intensivo en datos con bajo coste energético. Como resultado de es actividad, el Prof. Plata es autor de más de 175 publicaciones científicas, ha supervisado 9 tesis doctorales y algunas más en desarrollo, y ha participado en más de 10 proyectos del Plan Nacional y en varios proyectos europeos, algunos de índole industrial (programa Eurostars). Además, ha sido co-fundador de la empresa tecnológica Tedial, S.L. El Prof. Plata ha sido Associate Editor del IEEE Transactions on Computers de 2015 a 2019, y miembro del Euro-Par Advisory Board. -
El CNA como centro de ensayos de irradiación dentro de una ICTS interdisciplinar.
Resumen de la conferencia
El Centro Nacional de Aceleradores (CNA - US/CSIC/JA) es una de las infraestructuras Científico y Técnicas Singulares – ICTS en España, abiertas al uso por parte de instituciones públicas y empresas. Se hará una presentación de las instalaciones disponibles en el Centro, dando una visión global de las aplicaciones. Nos centraremos más detenidamente en los laboratorios disponibles para llevar a cabo ensayos de irradiación tanto en materiales como en dispositivos electrónicos.CV de Yolanda Morilla García
Yolanda Morilla es Doctora por la Universidad de Sevilla desde Diciembre de 2005. Su tesis doctoral está basada en el estudio de materiales de interés tecnológico mediante técnicas de análisis con haces de iones. Doctorado realizado en el Centro Nacional de Aceleradores (CNA), asociado al Departamento de Física Atómica, Molecular y Nuclear de la US, y estancias realizadas en el Research Institute for Technical Physics and Materials Science of the Hungarian Academy of Sciences (MTA - MFA). Ha sido investigadora principal de 3 proyectos de I+D+I de convocatoria de Plan Nacional dentro de los proyectos coordinados RENASER – RENASERPLUS – RENASER3. Actualmente, es IP del proyecto PRECEDER, incluido en el Proyecto Singular de Transferencia del Conocimiento Ecosistema Innovador con Inteligencia Artificial para Andalucía 2025. Participa dentro del WP-TA2 del proyecto RADNEXT en representación de la infraestructura del CNA-US. Inicialmente sus intereses investigadores abarcaban el desarrollo de técnicas analíticas basadas en haces de iones (RBS, Canalización iónica, NRA, PIGE, ERDA, PIXE). Más tarde se ha centrado fundamentalmente en el campo de la implantación iónica, así como la irradiación de materiales y dispositivos electrónicos, con el objeto de estudiar el efecto de la radiación en su estructura y funcionalidad. En la actualidad, es miembro de la Unidad de Irradiación del Centro Nacional de Aceleradores y responsable técnica del laboratorio RadLab. -
Simulación de sistemas distribuidos de gran escala
Resumen de la conferencia
La simulación es una técnica básica utilizada en Informática para estudiar el comportamiento de un sistema informático. Es especialmente importante cuando se quiere conocer el comportamiento de sistemas distribuidos de gran escala, ya que normalmente no se dispone de infraestructuras de este tipo sobre las que poder experimentar. En esta charla se motivará la necesidad de utilizar técnicas de simulación cuando se quiere realizar investigación y experimentar sobre sistemas distribuidos de gran escala. Se hará una introducción al entorno de simulación SimGrid para la simulación de sistemas distribuidos, y se mostrarán ejemplos de su utilización en determinados tipos de sistemas distribuidos.CV de Félix García Carballeira
Félix García Carballeira es desde el año 2008 Catedrático de Universidad del área de Arquitectura y Tecnología de Computadores en el Departamento de Informática de la Universidad Calos III de Madrid. Con anterioridad fue Profesor Titular del mismo área en la Universidad Carlos III de Madrid y también en la Universidad Politécnica de Madrid. Es Doctor en Informática por la Universidad Politécnica de Madrid. Su actividad investigadora se centra en el campo de la computación de altas prestaciones, los sistemas distribuidos y la simulación de sistemas de gran escala. Es coautor de más de 130 artículos en revistas y congresos internacionales, ha dirigido 9 tesis doctorales y participado en más de 30 proyectos de investigación europeos, nacionales y autonómicos, participando en 9 de ellos como investigador principal. Ha colaborado también en 18 contratos con empresas y administraciones públicas y es coautor de 6 programas software registrados en el Registro de la Propiedad Intelectual -
Machine Learning Challenges and Opportunities in Education, Industry, and Research
Resumen de la conferencia
In this talk, an overview of current trends in machine learning will be discussed with an emphasize on challenges and opportunities facing this field. It will focus on deep learning methods and applications. Deep learning has emerged as one of the most promising research fields in artificial intelligence. The significant advancements that deep learning methods have brought about for large scale image classification tasks have generated a surge of excitement in applying the techniques to other problems in computer vision and more broadly into other disciplines of computer science. Moreover, the impact of machine learning on education, research, and economy will be briefly presented. The rapid growth of machine learning is positioned to impact our lives in a way that we have not been able to fully imagine. It behooves government leaders to take a lead in developing the necessary resources to ride the projected benefits of machine learning.CV de Nader Bagherzadeh
Nader Bagherzadeh is a professor of computer engineering in the department of electrical engineering and computer science at the University of California, Irvine, where he served as a chair from 1998 to 2003. Dr. Bagherzadeh has been involved in research and development in the areas of: computer architecture, reconfigurable computing, VLSI chip design, network-on-chip, 3D chips, sensor networks, computer graphics, memory and embedded systems, since he received a Ph.D. degree from the University of Texas at Austin in 1987. He is a Fellow of the IEEE. Professor Bagherzadeh has published more than 325 articles in peer-reviewed journals and conferences. His former students have assumed key positions in software and computer systems design companies in the past thirty years. He has been a PI or Co-PI of research grants for developing next generation computer systems for applications in general purpose computing and digital signal processing as well as other related areas. -
Resumen de la conferencia
El aprovechamiento de la energía eólica marina está limitado por la saturación de los emplazamientos viables en tierra o aguas poco profundas. Esto hace que el empleo de plataformas semisumergibles mar adentro sea una opción atractiva, que además permite incorporar otros elementos como convertidores de oleaje. Sin embargo, las interacciones entre convertidores de olas y aerogeneradores aumentan la complejidad del sistema, y las técnicas de control convencional no permiten considerar fácilmente estas interacciones, limitando el aprovechamiento de la energía primaria. El uso de técnicas de control inteligente, en particular control borroso, permite considerar estas interacciones y mejorar este aprovechamiento, si bien es necesario contar con modelos y sistemas de simulación que incluyan estos efectos. La conferencia presentará el desarrollo de sistemas de control basados en lógica borrosa para el control de aerogeneradores instalados en plataformas semisumergibles OC4CV de J. Jesús Fernández Lozano
Profesor Titular de Universidad en el Área de Conocimiento de Ingeniería de Sistemas y Automática desde 2009. Ingeniero Industrial en 1997, y Doctor en 2002 por la Universidad de Málaga. En su actividad investigadora ha trabajado sobre aplicaciones de la robótica, la mecatrónica y el control inteligente a diversos ámbitos: cirugía, vehículos inteligentes, instalaciones industriales, intervenciones en emergencias. Junto con numerosas publicaciones en revistas y congresos, destaca el registro de 11 patentes, 7 transferidas a la industria. Desarrolla proyectos de innovación docente, como la Summer School in Mechatronics. Organizador del European Robotics Forum 2020, evento principal de la red europea de robótica euRobotics, que reúne a empresas e investigadores de toda Europa. Director de la Escuela Técnica Superior de Ingeniería Industrial de la Universidad de Málaga (2012-2017). Previamente, como Subdirector (2004-2012), se ocupó del diseño y la implantación de los nuevos títulos del Espacio Europeo de Educación Superior. -
Ingeniería del Software para la Computación Cuántica: Retos y Oportunidades
Resumen de la conferencia
Si el siglo XIX lo consideramos como la era de la máquina, y el siglo XX la era de la información, el siglo XXI será la era cuántica. De hecho, desde que empezara la “segunda revolución cuántica” en los años ochenta hasta la actualidad se han propuesto varios algoritmos y ordenadores cuánticos basados en diferentes tecnologías, que han logrado demostrar su gran ventaja respecto a los ordenadores “clásicos”. Existen ya numerosos lenguajes de programación (qGCL, Q Language, QML, Quipper, OpenQASM, Qiskit, Q#), entornos de desarrollo (Forest, Qiskit, Cirq, QDK, Orquestra) y plataformas (Quantum Inspire, IQ Experience, Quantum Playground, Forge, LIQUi|>, etc.). Sin embargo, no es suficiente, es necesario avanzar un paso más y ser conscientes de la necesidad de una verdadera “Ingeniería del Software Cuántico”, con el fin de producir software cuántico con la adecuada calidad y productividad. En la conferencia se expondrán los retos y oportunidades que, en este sentido, debe abordar el software cuántico.CV de Mario Gerardo Piattini Velthuis
Doctor y Licenciado en Informática por la Universidad Politécnica de Madrid. Licenciado en Psicología por la Universidad Nacional de Educación a Distancia. Ha sido profesor asociado en la Universidad Complutense y en la Universidad Carlos III de Madrid. Catedrático de Universidad de Lenguajes y Sistemas Informáticos en la Escuela Superior de Informática (ESI) de la Universidad de Castilla-La Mancha (UCLM), donde dirige el grupo de investigación Alarcos, especializado en Calidad de Sistemas de Información y aQuantum CRO. Ha sido Director del Centro Mixto de Investigación y Desarrollo de Software UCLM-Indra, Coordinador del Área de Ciencias de la Computación y Tecnología Informática de la Agencia Nacional de Evaluación y Prospectiva (ANEP), y Director del Instituto de Tecnologías y Sistemas de Información (ITSI) de la UCLM. Socio fundador de varios spinoffs, como DQTeam, S.L., y AQCLab, primer laboratorio acreditado por ENAC para la evaluación de la calidad de producto software y de los datos. Premio Aritmel por la Sociedad Científica Informática de España (SCIE). -
Resumen de la conferencia
El Procesamiento de Eventos Complejos (en inglés Complex Event Processing, CEP) es una tecnología novedosa que permite procesar, analizar y correlacionar ingentes volúmenes de datos con el fin de detectar automáticamente y en tiempo real situaciones críticas o relevantes para un dominio en particular. Uno de los grandes beneficios de esta tecnología, y por lo que está suscitando tanto interés a nivel internacional tanto en universidades, empresas como organismos públicos, es su capacidad de reaccionar rápidamente ante situaciones de interés y tomar acciones que den respuesta automáticamente. En esta conferencia presentaremos en qué consiste la tecnología CEP y haremos un recorrido por varios casos de éxito en los que hemos aplicado esta tecnología al ámbito de las ciudades inteligentes, la salud y la ciberseguridad.CV de Juan Boubeta Puig
Juan Boubeta Puig es Profesor Titular de Universidad del Departamento de Ingeniería Informática de la Universidad de Cádiz (UCA) y Doctor Internacional en Ingeniería y Arquitectura. Recibió el Premio Extraordinario de Doctorado en el Área de Ingeniería y Arquitectura de dicha Universidad, y el Premio Nacional a la Mejor Tesis Doctoral en el ámbito de la Sociedad de Ingeniería de Software y Tecnologías de Desarrollo Software (SISTEDES, 2016). Dedica su docencia e investigación al procesamiento de eventos complejos, las arquitecturas orientadas a servicios y dirigidas por eventos, el Internet de las cosas, el desarrollo de software dirigido por modelos, y su aplicación a la salud, las ciudades inteligentes, la industria 4.0 y la ciberseguridad. -
AI Hardware for Real-Time Machine Learning
Resumen de la conferencia
Computing systems for AI workloads have evolved towards data-center clusters of GPUs and TPUs, with architectures optimized for performing linear algebra and tunable for variable precision. As new AI paradigms emerge, more distinct divergence between hardware architectures for powering AI and other workloads are observed. GPU manufacturers are developing different architectures and chipsets for the HPC/supercomputing, cloud, edge computing, and robotics domains. FPGA vendors are also joining this ecosystem (e.g., Intel FPGAs deployed within Microsoft Azure). Moving forward, many industries and services ranging from cloud computing to consumer electronics are making hardware-accelerated AI a prominent component in their portfolio. In this talk, some examples of AI hardware architectures and available silicon technologies will be presented. The concept of co-design will be discussed. This makes the unique needs of an application domain transparent to the hardware design process. Finally, an overview of design automation tool flows will be presented to gain an understanding of how to support a high productivity framework for domain experts to design and deploy AI hardware.CV de Seda Ogrenci-Memik
Seda Ogrenci-Memik (IEEE Senior Member in 2005) received the B.S. degree in electrical and electronic engineering from Bogazii University, Istanbul, Turkey, and the Ph.D. degree in computer science from the University of California at Los Angeles, Los Angeles, CA, USA. She is currently a Professor with the Electrical Engineering and Computer Science Department, Northwestern University, Evanston, IL, USA. Furthermore, she is the Director of Computer Engineering Division at ECE Department. Her research interests include embedded and reconfigurable computing, HLS, thermal-aware design automation, and thermal management for microprocessor systems. She has served as a technical program committee member, an organizing committee member, and the track chair of sev- eral conferences, including ICCAD, DATE, FPL, GLSVLSI, and ISVLSI. She received the National Science Foundation Early Career Development (CAREER) Award in 2006. She is currently serving on the Editorial Board of the IEEE Transactions on Very Large Scale Integration. In April 2021 she will be joining Google during her sabbatical leave.
-
Aplicación de técnicas de Inteligencia Artificial e IoT a la vida real
Resumen de la conferencia
Se presenta la aplicación de técnicas de Inteligencia Artificial a tres casos de estudio reales. En concreto se desarrollan sistemas de modelado híbrido que combinan métodos de agrupamiento estándar, o clustering, con algoritmos de regresión. Para ello se divide el problema de modelado en un conjunto de modelos locales y se aplican varias técnicas sobre cada uno de los grupos para identificarles. El modelo híbrido está formado por el conjunto de todos estos modelos. El sistema desarrollado se aplica a tres problemas reales. En el primero de ellos, para obtener o predecir el valor de un sensor para detección de fallos. La aplicación real utiliza la señal BIS, el grado de hipnosis de un paciente sedado. En el segundo, ese crea un sensor virtual (IoT). Se aplica para monitorizar el estado de carga de una batería. En el último caso, el modelo híbrido se usa para predecir valores de variables en un tiempo futuro, en instantes posteriores al de la ejecución del modelo. Como aplicación real para este caso se trata de predecir el valor de la señal ANI empleada en operaciones quirúrgicas, que es un indicador del dolor que sufren los pacientes durante una intervención.CV de José Luis Casteleiro Roca
José Luis Casteleiro es Ingeniero en Electrónica Industrial y Automática, Máster en Ingeniería Marítima por la Universidad de La Coruña (UDL), y doctor por la ULL con la tesis "Modelado de sistemas complejos mediante métodos de agrupamiento e hibridación de técnicas inteligentes". Trabaja desde 2004 como Ingeniero Técnico en el Arsenal Militar de Ferrol y actualmente forma parte del taller de Dirección de Tiro del Ramo de Armas. Desde 2014 es además profesor asociado a tiempo parcial e investigador de la UDC del Departamento de Ingeniería Industrial. Es coautor de unas 30 publicaciones en revistas con factor de impacto en el JCR, 24 contribuciones a congresos científicos internacionales, más de 10 en congresos nacionales y varios capítulos de libro así como libros completos. Es revisor de revistas internacionales, y ha sido miembro de diversos comités científicos y de organización en congresos internacionales, destacando el IDEAL, HAIS, SOCO y CISIS entre ellos. Sus temas de investigación se han centrado en la aplicación de tecnologías de sistemas expertos a los sistemas de diagnóstico y control y en sistemas inteligentes para la ingeniería de control y la optimización. -
Una introducción a la minería de series temporales
Resumen de la conferencia
En esta charla daremos una visión general sobre la minería de series temporales. En particular nos concentraremos en los problemas clásicos de la minería de datos, como la agrupación, la clasificación supervisada y la detección de anomalías. Para estos problemas haremos hincapié en las diferencias entre trabajar con series temporales o vectores regulares. Además, presentaremos nuevos problemas que aparecen en el área de la minería de datos cuando se trabaja con series temporales y también señalan la complejidad de trabajar con flujos de series temporales.CV de Jose Antonio Lozano
Jose Antonio Lozano es el Director Científico del Basque Center for Applied Mathematics (centro Severo Ochoa) y es catedrático del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UPV/EHU, donde dirige desde 2004 el grupo de investigación Intelligent Systems Group. Así mismo, desde 2014 lidera la línea de investigación de BCAM en Machine Learning Ha publicado más de un centenar de artículos en revistas científicas recibiendo estos mas de 10.500 citas, ha dirigido 18 tesis doctorales y ha escrito dos libros. Además, su prestigio internacional le ha llevado a ser editor asociado de las revistas más relevantes del área de la Inteligencia Artificial y a organizar los congresos internacionales con mayor impacto dentro del área.
-
Transient Faults in Spaceborne Delay Tolerant Networks: Intrinsic Robustness & Smart Re-routing
Resumen de la conferencia
Internet-based communications have profoundly affected day to day life on Earth, and nothing seems to impede the exploitation of its advantages in near Earth constellations, deep-space missions, and beyond. However, delay and disruption are the rule in space networking. Thus, the underlying protocols for the future space Internet rely on the Delay and Disruption Tolerant Networking (DTN) paradigm, where instantaneous feedback can no longer be assumed. In this talk we argue that by being delay-tolerant, the DTN architecture exhibits an intrinsic fault-tolerant feature. However, fault events need to be properly modeled in the end-to-end DTN routing approach. After revising relevant missions in the domain, we discuss how recent research has treated transient faults as another case of disruptions in DTN. Nonetheless, while disruptions provoked by orbital mechanics are deterministic, transient faults exhibit a probabilistic behavior, and thus, require a different modeling approach at the routing level. Appropriate modeling based on Markov Decision Processes is presented in the context of DTN routing decisions, to finally highlight open research issues in the domainCV de Juan Andrés Fraire
Juan A. Fraire obtained his PhD. in Engineering and Applied Sciences from the National University of Córdoba (UNC), funded by the Argentinian Space Agency (CONAE). Since then, his focus of research is the implementation and optimization of communication algorithms and protocols for space networks. Together with colleagues from JPL (NASA), Juan authored the “Delay-Tolerant Satellite Networks” book and published more than 45 international journals and conferences. He founded the International Space-Terrestrial Internetworking (STINT) workshop, which is held annually since 2014, nucleating researchers and industry in the domain. After completing a postdoctoral stage at a CNRS laboratory in France, Juan was awarded a researcher position at Argentinian Scientific and Technical Research Council (CONICET), from where he develops specialized consultancies with different actors in the space industry. Presently, Juan is also an associate professor in Computing Networks at FAMAF in Argentina, an associate professor in Space Networking at Saarland University in Germany and an invited professor at Politecnico di Torino in Italy. -
Modelado de Sistemas Cloud Computing usando Perfiles de UML y Técnicas de Transformación M2T
Resumen de la conferencia
El análisis del rendimiento de los sistemas de computación en la nube o cloud computing, así como de los esquemas de precios de los servicios ofrecidos, no es una tarea fácil. Existen herramientas, como Simcan2Cloud, que permiten la simulación de entornos cloud. Estas herramientas necesitan ser configuradas, transcribiendo las características de los sistemas modelados a la configuración específica de la herramienta. Para ello, se ha definido un perfil de UML, que nos permite modelar un entorno cloud, incluyendo la infraestructura física subyacente, los servicios ofrecidos junto con su esquema de precios y la interacción de los usuarios con el sistema al solicitar los recursos. También se ha desarrollado un framework para generar automáticamente, a partir de dicho modelo, los ficheros de configuración del simulador Simcan2Cloud. Esto nos va a permitir analizar los modelos a la vez que observamos resultados de su funcionamiento. El framework se ha desplegado como un plugin para la plataforma Eclipse.CV de M. Emilia Cambronero Piqueras
Mi trayectoria investigadora comienza en Enero de 2002 y se extiende durante algo más de 17 años. Tengo reconocidos dos sexenios de investigación (desde 2004 hasta 2016). El principal campo de aplicación en el que he trabajado ha sido en servicios web, contratos electrónicos y procesos de negocio, donde he trabajado en incluir/adaptar métodos formales, esencialmente en sistemas distribuidos en tiempo real, así como en el análisis de recursos en este tipo de sistemas. He publicado 40 trabajos de investigación en revistas y congresos con un proceso de revisión anónimo por pares. Cabe mencionar 11 contribuciones en revistas Thomsom-JCR. Entre las aportaciones más relevantes en revistas cabe destacar las hechas en IEEE Trans. on Software Engineering, Science of Computer Programming, tres contribuciones Journal of Logic and Algebraic Programming, Science of Computer Programming y Software Testing, Verification and Reliability. -
Towards high-level specification of Smart-Contracts
Resumen de la conferencia
Un contrato inteligente es una representación digital de un contrato, cuyas cláusulas se ejecutan automáticamente cuando se cumplen sus condiciones, sin necesidad de un intermediario. Debido a su potencial, instituciones de muy diversos ámbitos están explorando las posibilidades que les ofrece la aplicación de esta tecnología, encontrándose con un problema recurrente: la elevada curva de aprendizaje del diseño y creación de contratos inteligentes, tanto para los profesionales de las áreas de negocio, como para los desarrolladores no familiarizados con esta tecnología. En este seminario, tras analizar la situación actual en cuanto a la existencia de herramientas o soluciones para la definición de contratos inteligentes, se presenta una propuesta basada en la aplicación de técnicas y principios de la Ingeniería Dirigida por Modelos.CV de Juan Manuel Vara
Juan M. Vara is an Associate Professor at the University Rey Juan Carlos of Madrid where he received his PhD in 2009. Head of the MSc in Information Systems Engineering, he is a member of the Kybele R&D group and his current research interests focus on Model-Driven Engineering, Service Science and Engineering and Human aspects of Software Engineering. He has been a doctoral researcher at the University of Nantes and a post-doctoral researcher at the European Research Institute in Service Science at the University of Tilburg. -
Resumen de la conferencia
Presentación de los principales resultados sobre la batería de juegos diseñada para detectar daño cognitivo y la validación de la misma, prestando especial atención a su validez psicométrica. Principalmente la de criterio o la capacidad diagnóstica para identificar daño cognitivo en fases tempranas y los resultados de investigación obtenidos.CV de Sonia María Valladares Rodríguez
Investigadora Contratada, Universidad de Vigo, Doctora en Telecomunicaciones (2019) especializada en la aplicación de las tecnologías a la detección precoz del deterioro cognitivo. Estos resultados se han reflejado en 20 publicaciones relacionadas entre la que destacan 12 revistas internacionales contempladas en Q1/Q2 del JCR -
Bayesian Performance Analysis for Optimization Algorithm Comparison
Resumen de la conferencia
The statistical assessment of the empirical comparison of algorithms is an essential step in heuristic optimization. Classically, researchers have relied on the use of statistical tests. However, recently, concerns about their use have arisen and, in many fields, other (Bayesian) alternatives are being considered. For a proper analysis, different aspects should be considered. In this talk, we focus on the question: what is the probability of a given algorithm being the best (among the compared)? To tackle this question, we propose a Bayesian analysis based on the Plackett-Luce model over rankings that allows several algorithms to be considered at the same time. In order to illustrate the proposed Bayesian alternative, explicitly, we examine performance data of 11 evolutionary algorithms (EAs) over a set of 23 discrete optimization problems in several dimensions. Using this data, and following a brief introduction to the relevant Bayesian inference practice, we demonstrate how to draw the algorithms’ probabilities of winning.CV de Josu Ceberio Uribe
ingeniero y doctor en informática, por la Universidad del País Vasco UPV/EHU en 2009 y 2014 respectivamente. Desde Octubre de 2017, Profesor Adjunto del Departamento de Ciencia de la Computación e Inteligencia Artificial. Desde el año 2010, forma parte del grupo de investigación Intelligent Systems Group, reconocido como grupo consolidado por el gobierno vasco (nivel A, el más alto). Durante este periodo, ha participado en más de 12 proyectos y contratos, ha publicado 9 artículos en revistas de prestigio, y más de 30 contribuciones en congresos nacionales e internacionales, habiendo recibido varios premios. Su interés de centra en las áreas de optimización combinatoria tanto desde el enfoque metodológico como el aplicado. Recientemente, ha realizado investigaciones en el área de Neural Combinatorial Optimization el cual aborda la resolución de problemas de optimización mediante el uso de Redes Neuronales y técnicas de Reinforcement Learning. -
Atomic Appends: Selling Cars and Coordinating Armies with Multiple Blockchains
Resumen de la conferencia
In this work we examine the fundamental problem of interoperable and interconnected blockchains. In particular, we begin by introducing the Multi-Distributed Ledger Objects (MDLO), which is the result of aggregating multiple Distributed Ledger Objects – DLO (a DLO is a formalization of the blockchain) and that supports append and get operations of records (e.g., transactions) in them from multiple clients concurrently. Next we define the AtomicAppends problem, which emerges when the exchange of digital assets between multiple clients may involve appending records in more than one DLO. We examine the solvability of this problem assuming rational and risk averse clients that may fail by crashing, and under different client utility and append models, timing models, and client failure scenarios. We show that for some cases the existence of an intermediary is necessary for the problem solution. We propose the implementation of such intermediary over a specialized blockchain, we term Smart DLO (SDLO), and we show how this can be used to solve the AtomicAppends problem even in an asynchronous, client competitive environment, where all the clients may crash.CV de Antonio Fernández Anta
Dr. Antonio Fernández Anta is a Research Professor at IMDEA Networks. Previously he was a Full Professor at the Universidad Rey Juan Carlos (URJC) and was on the Faculty of the Universidad Politécnica de Madrid (UPM), where he received an award for his research productivity. He was a postdoc at MIT from 1995 to 1997, and spent sabbatical years at Bell Labs Murray Hill and MIT Media Lab. He has been awarded the Premio Nacional de Informática "Aritmel" in 2019 and is a Mercator Fellow of the SFB MAKI in Germany since 2018. He has more than 25 years of research experience, and more than 200 scientific publications. He was the Chair of the Steering Committee of DISC and has served in the TPC of numerous conferences and workshops. He received his M.Sc. and Ph.D. from the University of SW Louisiana in 1992 and 1994, respectively. He completed his undergraduate studies at the UPM, having received awards at the university and national level for his academic performance. He is a Senior Member of ACM and IEEE. -
Modelado flexible basado en facetas
Resumen de la conferencia
Los modelos son los artefactos principales de la ingeniería basada en modelos (MDE), ya que se usan activamente en todas las fases del desarrollo de software. Los modelos se crean utilizando lenguajes cuya sintaxis abstracta está definida por un metamodelo. De esta manera, los objetos en los modelos se crean mediante una clase en el metamodelo, lo que da lugar a un tipado estático, establecido en el momento de la creación y que no se puede cambiar más tarde. Por lo tanto, los objetos en MDE son cerrados y fijos con respecto a su clase de creación, sus atributos y las restricciones de integridad que deben cumplir. Esto dificulta muchas actividades en MDE, como la reutilización de transformaciones, la combinación oportunista o dinámica de metamodelos, o la reconfiguración dinámica de modelos. Para mejorar esta situación, proponemos hacer los objetos de los modelos abiertos, para que puedan adquirir o eliminar facetas. En esta charla, se presentará la propuesta, incluyendo sus nociones básicas, técnicas de análisis y una implementación sobre la herramienta MetaDepth. Los beneficios del enfoque se mostrarán en base a casos de estudio.CV de Juan de Lara Jaramillo
Juan de Lara es catedrático en el área de lenguajes y sistemas informáticos en la Universidad Autónoma de Madrid. Junto con Esther Guerra, dirige el grupo de investigación en modelado e ingeniería del software (http://miso.es). Sus principales intereses de investigación son la Ingeniería del Software dirigida por modelos, incluyemdo metamodelado, transformaciones de modelos, modelado flexible y lenguajes de dominio específico. Ha publicado más de 200 artículos en revistas y conferencias internacionales y ha sido co-presidente del PC de ICMT'12, FASE'12 e ICGT'17. Actualmente es co-presidente del PC de MODELS'2020 y SLE'2020. Es editor asociado de la revista Journal of Software and Systems Modeling, JOT e IET Software. -
Resumen de la conferencia
Los sistemas educacionales actuales aun se centran fuertemente en la evaluación de contenidos a pesar de que vivimos en la era de la información y mediante métodos tradicionales como evaluaciones estandarizadas que estresan a los estudiantes. Los juegos serios representan oportunidades educacionales de gran impacto al representar entornos más realistas, que capturan gran cantidad de datos sobre el proceso que siguen los estudiantes y que son más disfrutables y relajados que los exámenes. Estos datos, combinados con técnicas de analítica de aprendizaje, representan gran potencial para construir modelos que permitan la evaluación de competencias claves para la sociedad del siglo 21 a través de juegos serios, estas evaluaciones se implementan de forma indirecta en lo que se conoce como Stealth Assessment (evaluación fantasma), para evitar interrumpir el flujo de juego. En este charla veremos una metodología que se basa en tres etapas – Diseño, Implementación y Evaluación – para la implementación de sistemas de evaluación a través de juegos.CV de José A. Ruipérez Valiente
José A. Ruipérez-Valiente completó su B.Eng. y M.Eng. en Telecomunicaciones en la Universidad Católica de Murcia (UCAM) y la Universidad Carlos III of Madrid (UC3M) respectivamente, graduándose en ambos casos con el mejor expediente académico de su clase. Posteriormente completó su M.Sc. y Ph.D. en Telemática en la UC3M y su PostDoc en MIT. Sus intereses de investigación recaen en el aprendizaje mejorado por tecnología, donde se especializa en la aplicación de learning analytics para entender mejorar medios y procesos educacionales. Ha co-autorizado más de 40 publicaciones científicas, 14 de ellas en revistas de alto impacto como Science, Computers & Education o Computers in Human Behavior. Ha recibido más de una docena de honores y premios, como haber recibido “Premio a Joven Investigador de la Sociedad Científica Informática de España y la Fundación BBVA” 2018. José actualmente disfruta del prestigioso contrato competitivo como Investigador Juan de la Cierva en la Universidad de Murcia. Más información se puede encontrar en su página profesional http://joseruiperez.me/ y su perfil de Google Scholar https://scholar.google.es/citations?user=MNl7XBEAAAAJ&hl=es. -
Simplificando el paralelismo con Patrones Genéricos Paralelos
Resumen de la conferencia
La programación genérica ofrece un mecanismo para abstraer componentes software sin traducir esta abstracción en un sobrecoste en el rendimiento. Esto ha permitido poder expresar patrones y algoritmos de uso común, permitiendo que los programadores de aplicación centrarse en los detalles del software de aplicación. Esta idea ha sido, durante décadas, uno de los principios de la Standard Template Library (STL) del lenguaje C++. El mismo principio puede aplicarse los esqueletos paralelos y los patrones de patrones de paralelismo, que aplican la idea de patrón de diseño al caso de la programación paralela. En este caso, un parámetro adicional de configuración es el modelo de ejecución a utilizar. En esta charla, consideraré diversos aspectos de la integración de las ideas de programación paralela y programación genérica. Daré una visión muy general del estado actual en C++17 y me centraré en un enfoque alternativo basado en la biblioteca GrPPI (Generic and reusable Parallel Pattern Interface).CV de José Daniel García Sánchez
José Daniel García es Profesor Titular de universidad de Arquitectura y Tecnología de Computadores en el Departamento de Informática de la Universidad Carlos III de Madrid. Es Doctor por dicha universidad y Licenciado en Informática por la UPM. Antes de incorporarse a la universidad desarrolló su carrera profesional en empresas como Telefónica, British Telecom, Fomento de Construcciones y Contratas, Siemens o ING Bank. Desde 2008 es representante español en el comité ISO/IEC JTC1/SC22/WG1 (Lenguaje de Programación C++). A nivel nacional preside el subcomité CTN71/SC22 (Lenguajes de Programación, sus entornos e interfaces de software de sistema) y el grupo CTN71/SC22/WG21 (Lenguaje C++). Así mismo es miembro del comité CTN71 (Tecnologías habilitadoras digitales). Es co-autor de más de 70 artículos en revistas y congresos científicos internacionales además de numerosas conferencias en congresos industriales de programadores. Ha dirigido 2 proyectos europeos y participado en otros 5, además de otros 15 proyectos nacionales y autonómicos. En los últimos años sus esfuerzos de investigación se centran en la línea de Modelos de Programación para la Mejora de Aplicaciones. -
How to verify computation in the blink of an eye
Resumen de la conferencia
Trust but verify, they say. If a math-savvy friend did your calculus homework for you, you would do well to have a look at it before you hand it in. Likewise, you want to verify work from third party machines you have no control over. Example: you commissioned TheBigTech (tm) cloud to run a large simulation SIM, whose results you are eager to get recognized for. Issue: you lack the means to rerun and check SIM (after all, that is why you are delegating!). Commissioning more parties may be costly or not a solution. This talk is on how Verifiable Computation (VC)—a mix of theory and systems—solved this problem: the cloud gives us a proof that its work is correct, e.g. that no HW glitch or competitor could have tampered with it. Such a proof is succinct—much more so than the abstract you are reading. You can store it in 100 bytes and verify it in microseconds on a laptop. And VC is secure: a “wrong” proof would pass as good with probability of less than 10^{-35}. I will discuss: - applications of VC (and its “cryptographic” cousins, zkSNARKs, core of the cryptocurrency ZCash), - intuitions on how it works, - resources/APIs for anyone hoping to use VC or learn about it.CV de Matteo Campanelli
Matteo Campanelli joined IMDEA Software as a post-doctoral researcher in 2018. The same year he obtained his Ph.D. from the City University of New York where he worked at the intersection between decision theory, complexity and cryptography. His current research interests are in theoretical and practical aspects of probabilistic proof systems. He was a visiting student at Aarhus University (2016) and at the Stanford Research Institute (2017). Besides cryptographic research he has developed software for Libreoffice and machine learning models for ads quality at Google. He made the mistake of appearing on a few improv comedy stages in NYC; he was never able to surf. -
Diseño Narrativo de Elecciones
Resumen de la conferencia
Sid Meier dijo una vez que los juegos son una serie de elecciones interesantes; una cita que aparece frecuentemente en los manuales de diseño de juegos. El diseño de elecciones es una disciplina por mérito propio, que se complica cuando combinamos narrativa y elecciones. Con la creciente popularidad de juegos donde el jugador elige qué pasa dentro de ciertas opciones, como es el caso de 80 Days, o el arranque de la televisión interactiva, el diseño narrativo de elecciones se ha convertido en una habilidad esencial para los diseñadores de juegos. Hay muchas maneras de estructurar las elecciones dependiendo de los objetivos estéticos del juego; una breve taxonomía explicará los diferentes modos en los que se pueden ofrecer diferentes opciones al jugador, tales como crear la ilusión de que el jugador puede elegir. Los diseñadores de juegos pueden utilizar el diseño de elecciones como un recurso expresivo, que proporciona desafíos, o está al servicio de sus jugadores, o les frustra a propósito, o les deja expresarse. La conferencia también explicará cómo diseñar juegos con narrativas que se bifurcan sin que el trabajo se complique hasta el infinito.CV de Clara Fernández Vara
Clara Fernández Vara es Associate Arts Professor en el Game Center de la New York University, donde imparte clases de teoría y narrativa en juegos. Como investigadora, su objetivo es construir puentes interdisciplinares para crear métodos de innovación y abrir camino en el campo del estudio y el desarrollo de videojuegos. Su trabajo se enfoca las estrategias para integrar la narrativa en entornos digitales a través del diseño de la interacción y el espacio, y embarca una variedad de ámbitos, desde las aventuras gráficas a la realidad aumentada y virtual. Licenciada en Filología Inglesa en la Universidad Autónoma de Madrid; posteriormente obtuvo el título de Masters en Comparative Media Studies en el Massachusetts Institute of Technology (MIT), donde estudió gracias a una beca de la Fundación La Caixa. Se doctoró en Digital Media en el Georgia Institute of Technology. Realizó sus estudios de post-doctorado en Singapore-MIT GAMBIT Game Lab, y continuó su trabajo como investigadora visitante en el laboratorio The Trope Tank, ambos en el MIT. Su libro Introduction to Game Analysis, publicado por la editorial Routledge, ya está en su segunda edición. -
Deciding language inclusion problems using quasiorders
Resumen de la conferencia
We study the language inclusion problem L₁ ⊆ L₂ where L₁ is regular or context-free. Our approach checks whether an overapproximation of L₁ is included in L₂. Such overapproximations are obtained using quasiorder relations on words where the abstraction gives the language of all words “greater than or equal to” a given input word for that quasiorder. We put forward a range of quasiorders that allow us to systematically design decision procedures for different language inclusion problems such as context-free languages into regular languages and regular languages into trace sets of one-counter nets.CV de Pierre Ganty
Pierre holds a joint Ph.D. degree in Computer Science from the University of Brussels, Belgium and from the University of Genova, Italy that he obtained late 2007. After his Ph.D., Pierre did a nearly two-year postdoc at the University of California, Los Angeles. Pierre joined the IMDEA Software institute in the Fall 2009 as a tenure-track assistant research professor. He was granted tenure and promoted to associate research professor in December 2015. Currently he is supervising three Ph.D. students. Pierre is interested in automated verification whose goal is to prove the absence of errors in idealized models of computing systems in a fully automated way. Pierre focuses on models with infinitely many states which naturally arise when control or data is unbounded. He is also interested in formal language theory and its applications to practical problems like searching text stored in compressed form. Pierre's contributions range from theoretical results all the way down to implementation of analysis algorithms. -
Modularity for Accurate Static Analysis of Smart Contracts
Resumen de la conferencia
Static code analysis is a useful technique for finding bugs in code and proving their absence. Existing industrial tools sacrifice precision for scalability which leads to false errors reported and missed bugs. I will describe a new way to perform accurate static analysis (ASA) of smart contracts in order to identify bugs and prove their absence before the code is deployed. ASA guarantees that all bugs are reported and that all errors are real. ASA operates on bytecode programs which enables to check the code even when the source is not available. Scalability of the method is guaranteed by verifying each of the contracts with respect to the requirements of other contracts.CV de Mooly Sagiv
Mooly Sagiv is a CEO of Certora Ltd. and a chair of software systems at Tel-Aviv University. He is a leading researcher in the area of large scale (inter-procedural) program analysis, and one of the key contributors to shape analysis. His fields of interests include programming languages, compilers, abstract interpretation, profiling, pointer analysis, shape analysis, inter-procedural dataflow analysis, program slicing, and language-based programming environments. He received numerous scientific awards for contributions static program analysis including Bessel award, ACM fellow, Microsoft Research Outstanding Collaborator Award, and senior ERC grant. -
Prohibiendo los bucles: Hacia la programación del siglo XXI.
Resumen de la conferencia
A finales de los 70, la "prohibición" del uso de la instrucción de salto "go to" en lenguajes de alto nivel propició un desarrollo de código más legible, mantenible y mejorable bajo el paradigma de la programación estructurada. El uso de bucles tipo while, until y for permitieron a los programadores ser mucho más eficientes y evitar el código espagueti típico de lenguajes lineales como el basic. Pero los computadores utilizados en la época disponían de un solo procesador. En la actualidad, aunque disponemos de varios procesadores o núcleos para ejecutar cualquier programa, incluso en entornos personales, el estilo de programación actual hace que se saque poco partido a estos recursos, siendo secuencial la mayoría del código que nuestros estudiantes generan, y haciendo difícil la paralelización del mismo. En esta charla se plantea la conveniencia de la prohibición del "bucle" como una de las estructuras básicas de programación, para permitir desarrollar un pensamiento paralelo abstracto desde el principio, y que utilizando algunas de las ventajas del paradigma funcional permita la generación de código paralelo de forma natural por los nuevos programadores.CV de Francisco Fernández de Vega
Titular de Universidad en el área de Arquitectura y Tecnología de Computadores en la Universidad de Extremadura. Premio Extraordinario de Doctorado en 2001. Ha sido subdirector de investigación del Centro Universitario de Mérida, y CIO de la Universidad de Extremadura. Actualmene IEEE Senior member, co-chair de la IEEE Creative Intelligence Task Force, Computational Intelligence Society. Varios premios de investigación internacionales, incluyendo ACM GECCO art, design and creativity competition. Accésit Excelencia Docente Universidad de Extremadura 2018, y director de las Escuelas Municipales de Jóvenes Científicos en Extremadura. -
Nanoscale cascaded plasmonic logic gates for non-boolean wave computation
Resumen de la conferencia
CMOS logic scaling is reaching a point with gradually diminishing returns. So that is why so-called Beyond CMOS compute paradigms have gained a lot of attention in the last decade. It is however far from trivial to beat advanced ultimately-scaled CMOS logic realisations. Plasmonics wave computing is one potential emerging option which could have better area-performance metrics for high performance computing and especially exascale computing servers. In this talk a review will be provided of the current status of this technology and why and where it could be beneficial.CV de Francky Catthoor
Francky Catthoor received his Ph.D. in EE from the Katholieke Univ. Leuven, Belgium in 1987. Between 1987 and 2000, he has headed several research domains in the area of synthesis techniques and architectural methodologies. Since 2000, he is strongly involved in other activities at IMEC including deep submicron technology aspects, IoT and biomedical platforms, and smart photovoltaic modules, all at IMEC Leuven, Belgium. Currently he is an IMEC fellow. He is also part-time full professor at the EE department of the KULeuven. He has been associate editor for several IEEE and ACM journals, and was elected IEEE fellow in 2005. -
A Glass Half Full: Using Programmable Hardware Accelerators in Analytical Databases
Resumen de la conferencia
Even though there have been a large number of proposals to accelerate databases using specialized hardware, often the opinion of the community is pessimistic: the performance and energy efficiency benefits of specialization are seen to be outweighed by the limitations of the proposed solutions and the additional complexity of including specialized hardware, such as field programmable gate arrays (FPGAs), in servers. Recently, however, as an effect of stagnating CPU performance, server architectures started to incorporate various programmable hardware and the availability of such components brings opportunities to databases. In the light of a shifting hardware landscape and emerging analytics workloads, it is time to revisit our stance on hardware acceleration. In this talk we highlight several challenges that have traditionally hindered the deployment of hardware acceleration in databases and explain how they have been alleviated or removed altogether by recent research results and the changing hardware landscape. We also highlight a new set of questions that emerge around deep integration of heterogeneous programmable hardware in tomorrow’s databases.CV de Zsolt Istvan
Zsolt Istvan is an Assistant Research Professor at the IMDEA Software Institute in Madrid, Spain. Earlier, he earned his PhD in the Systems Group at ETH Zurich, Switzerland, working with FPGAs and distributed storage. In his research, he explores ideas around specialization as a way of lifting bottlenecks in distributed systems and databases. -
Convergencia HPC - Big Data: Arquitectura y modelos de programación
Resumen de la conferencia
Las soluciones tradicionales para HPC y Big Data han seguido caminos separados durante varios años. Sin embargo, desde 2014 hay un gran esfuerzo para unificar ambos mundos debido al gran interés en la ciencia y la industria para obtener más información de los datos almacenados en grandes almacenes de datos, para mejorar sus soluciones típicas ingresando datos de experiencias anteriores y para crear procesos complejos. (presentado como flujos de trabajo) para resolver problemas de múltiples etapas. Todas estas tendencias, incluidas bajo el nombre de "computación intensiva en datos", están cambiando ambos mundos. Sin embargo, la convergencia no es fácil, ya que las soluciones de Big Data actuales se centran principalmente en una pequeña parte de los problemas que puede enfrentar un sistema HPC. En este tutorial, mostraremos los aspectos específicos de los problemas de computación que requieren un uso intensivo de datos.CV de Jesús Carretero Pérez
Jesús Carretero es catedrático de Arquitectura y Tecnología de Computadores en la Universidad Carlos III de Madrid (España) y líder del Grupo de Investigación de Arquitectura de Computadores (ARCOS). Su actividad de investigación se centra en sistemas informáticos de alto rendimiento, sistemas distribuidos a gran escala, sistemas informáticos de uso intensivo de datos, IoT y sistemas en tiempo real. Ha sido chair de la acción de la Acción de COST de IC1305 "Red para Sistemas de Computación Ultraescalar Sostenible (NESUS)”. Ha publicado más de 200 papers en revistas con índice de impacto, además de haber organizado varias conferencias científicas como CCGRID, ICA3PP o ISPA. -
Resumen de la conferencia
La conferencia se centrará en la experiencia del grupo de Arquitectura de Computadores de la Universidade da Coruña en conseguir aplicaciones MPI resilientes a través de soluciones a nivel de aplicación. Durante los últimos 10 años nuestra investigación se ha centrado en el desarrollo de diferentes soluciones de tolerancia a fallos para aplicaciones paralelas. Las principales características de nuestros desarrollos son: portabilidad, transparencia y eficiencia. La mayoría de las soluciones de tolerancia a fallos actuales son a nivel de sistema, lo que hace que estén limitadas a la plataforma para la que fueron originalmente desarrolladas. Nuestras soluciones, en cambio, permiten la recuperación utilizando diferentes arquitecturas y/o sistemas operativos. Además liberan al usuario de tareas tediosas y complejas como el análisis del flujo de datos y las comunicaciones, proporcionando soluciones que pueden ser aplicables de manera general a aplicaciones paralelas. Finalmente, todas estas soluciones se centran en reducir la sobrecarga y la contención de la red, tanto en ausencia como en presencia de fallos.CV de María José Martín Santamaría
María J. Martín es Profesora Titular de Universidad y Directora del Departamento de Ingeniería de Computadores de la Universidade da Coruña. Tiene reconocidos 3 sexenios de investigación y está acreditada como Catedrática de Universidad desde 2015. Su principal área de investigación es la computación de altas prestaciones y, más específicamente, la computación paralela y distribuida y la tolerancia a fallos. En esta última línea ha dirigido recientemente 3 tesis doctorales centradas en la tolerancia a fallos de aplicaciones MPI, con especial énfasis en la escalabilidad. Ha sido co-autora de más de 100 artículos internacionales en el campo de la computación de altas prestaciones y ha participado de forma activa en más de 20 proyectos nacionales y regionales, siendo Investigadora Principal de uno de ellos centrado en tolerancia a fallos para aplicaciones MPI. Los resultados de su investigación han dado lugar a 4 registros software, 4 contratos con el CESGA (Centro de Supercomputación de Galicia) y 3 contratos con Hewlett-Packard para transferencia de tecnología. -
Resumen de la conferencia
Random number generators are a critical component of security systems. They also find use in a variety of other applications from lotteries to scientific simulations. Randomness tests seek to find whether a generator exhibits any signs of non-random behaviour. However, many statistical test batteries are unable to reliably detect certain issues present in poor generators. Severe mistakes when determining whether a given generator passes the tests are common. Irregularities in sample size selection and a lack of granularity in test result interpretation contribute to this. This work provides evidence of these and other issues in several statistical test batteries. We identify problems with current practices and recommend improvements. The novel concept of suitable randomness is presented, precisely defining two bias bounds for a TRNG, instead of a simple binary pass/fail outcome. Randomness naivety is also introduced, outlining how binary pass/fail analysis cannot express the complexities of RNG output in a manner that is useful to determine whether a generator is suitable for a given range of applications.CV de Julio César Hernández Castro
Prof. Hernandez-Castro works at the School of Computing at the University of Kent in Canterbury, UK. He has worked on a variety of topics in Computer Security, but recently has focused on randomness generation and testing, and in particular in certification. He has published more than 200 papers in peer-reviewed conferences and journals, has an h-index of 26 and around 3,700 citations (according to Google Scholar). -
Desarrollando sistemas de detección de intrusiones: del laboratorio a su implantación
Resumen de la conferencia
Los sistemas de detección de intrusiones (IDS) constituyen uno de los elementos más relevantes de la seguridad perimetral en las redes, siendo objeto de abundante investigación en los últimos años. Sin embargo, el desarrollo y despliegue de estos sistemas se enfrenta a una importante dificultad apenas mencionada en la bibliografía: cómo determinar su rendimiento y predecir cómo operará en condiciones reales. La realidad muestra que, a pesar de la abundante y aparentemente exitosa investigación, especialmente en el ámbito de los detectores basados en anomalías, no se despliegan apenas soluciones para su uso en redes en explotación. Nos preguntamos entonces: ¿qué está fallando? ¿cómo podemos abordar el problema?CV de Jesús Esteban Díaz Verdejo
Jesús Díaz Verdejo (1966) es Doctor en Ciencias Físicas por la Universidad de Granada (1994). Actualmente es Catedrático de Universidad en el Área de Ingeniería Telemática del Departamento de Teoría de la Señal, Telemática y Comunicaciones de la Universidad de Granada. Su labor investigadora y docente se centra en el campo de las redes y las comunicaciones, especialmente en el ámbito de la seguridad en redes. Su línea principal de investigación está orientada al análisis y modelado de actividades y eventos para la detección de incidentes de seguridad y la respuesta a los mismos, tanto mediante detección de anomalías como mediante técnicas híbridas. También, con una orientación a la seguridad de las comunicaciones y redes, ha desarrollado trabajos en el ámbito de la identificación de tráfico de red y la correlación de alertas. Su actividad investigadora es extensa, habiendo publicado una veintena de libros y capítulos de libro, alrededor de medio centenar de publicaciones en revistas internacionales de reconocido prestigio y en torno a 70 contribuciones en congresos nacionales e internacionales. Ha dirigido varias tesis doctorales. -
Resumen de la conferencia
La Gestión de Eventos e Información de Seguridad (Security Information and Event Management - SIEM) está cada vez más implantada en las organizaciones, debido a la importancia que en los últimos años está adquiriendo la seguridad en los Sistemas Informáticos. Estos sistemas proporcionan información muy útil sobre eventos relacionados con la seguridad y con potenciales amenazas de riesgos y vulnerabilidades, ayudando en la detección de conductas inusuales, generando alertas, y siendo capaces de monitorizar e incluso predecir comportamientos futuros. La Gestión de Eventos de Seguridad (SEM) tiene que ver con la monitorización y correlación de eventos de seguridad en tiempo real, mientras que la Gestión de Información de Seguridad (SIM) procesa esos datos, almacena, analiza y genera informes. Cuando los datos provienen de múltiples fuentes es fundamental gestionar adecuadamente el proceso de extracción, transformación y carga (ETL). Este proceso es crítico, ya que es muy posible que se utilicen varias soluciones, desde diferentes perspectivas de seguridad.CV de Andrés Caro Lindo
Andrés Caro, Doctor e Ingeniero en Informática, es Profesor Titular de Universidad en el Departamento de Ingeniería de Sistemas Informáticos y Telemáticos de la Universidad de Extremadura (Área de Lenguajes y Sistemas Informáticos). Es el Investigador Principal del Grupo de Ingeniería de Medios (GIM) de la UEx, grupo formado por 16 investigadores (11 de los cuales son doctores). Desde el año 2000 imparte docencia en la Escuela Politécnica (Cáceres), siempre en las titulaciones de Ingeniería e Ingeniería Técnica en Informática. En la actualidad, su docencia se desarrolla en los Grados de Ingeniería Informática (Ingeniería del Software / Ingeniería de Computadores) y en el Máster de Ingeniería Informática, en asignaturas de programación de bases de datos, calidad de procesos y de productos software, auditoría y legislación informática, protección de datos, análisis forense y peritaje informático, hacking ético, etc. Es Investigador Principal en proyectos europeos y regionales, y autor de diversos artículos, ponencias e informes periciales. -
Fog Computing: la “nube” desciende y la computación se hace “niebla”
Resumen de la conferencia
Internet nos permite hoy en día estar siempre conectados, comunicándonos y accediendo en todo momento y lugar a información dispersa por todo el mundo. La “computación en la nube” ha soportado en los últimos años de forma eficiente la mayor parte de los servicios en Internet que hoy usamos. Pero la red crece, permitiendo un número masivo de nodos conectados (internet de las cosas), y por tanto, debiendo soportar la generación, transmisión, almacenamiento y procesamiento de una cantidad ingente de datos. El modelo en la “nube” pierde eficiencia, y la “computación en la niebla” ofrece alternativas para un funcionamiento no sólo viable, sino también sostenible.CV de Juan Carlos López López
Juan Carlos López es Ingeniero y Doctor Ingeniero de Telecomunicacón por la Universidad Politécnica de Madrid (UPM), y Catedrático de la Universidad de Castilla-La Mancha (UCLM). Tras una estancia postdoctoral de 2 años en EE.UU. (Carnegie Mellon University), regresó a la UPM hasta que en 1999 que se incorpora a la UCLM como Director de su recién creada Escuela Superior de Informática. Fue socio-fundador de una empresa dedicada al desarrollo de sistemas de control y comunicaciones. En la actualidad dirige un grupo de investigación sobre diseño e integración de sistemas heterogéneos, es Director de la Cátedra Indra de la UCLM y Presidente del Comité Asesor de Ingenierías de la Comunicación, Computación y Electrónica de la CNEAI (ANECA, Ministerio de Ciencia, Innovación y Universidades). -
¿Es posible la convergencia HPC y Big Data? Lecciones aprendidas de los sistemas de E/S
Resumen de la conferencia
Las áreas de HPC y Big Data (BD) han seguido distintas trayectorias, debido a la existencia de dos comunidades divergentes y los diferentes objetivos perseguidos por ambas. Sin embargo, en los últimos años ha existido un cambio en las aplicaciones tanto HPC como BD. Por un lado, las aplicaciones HPC utilizan un cada vez más alto volumen de datos, requiriendo en un gran número de ocasiones la capacidad de visualizar y analizar dichos datos. Por su parte, las aplicaciones BD necesitan mayor capacidad computacional, debido a unos retos más ambiciosos y la combinación del análisis de datos con procesos de simulación. La existencia del denominado Extreme Data Analytics crea la necesidad de combinar soluciones orientadas tanto a mejorar el acceso y tratamiento de los datos como la computación. A nivel de almacenamiento, hemos llevado a cabo un trabajo que trata dicha convergencia. Esto puede constituir un primer paso que podría extenderse a otras características de los sistemas de computación, y por tanto, lograr la anhelada convergencia entre HPC y BD.CV de María S. Pérez
María S. Pérez es Catedrática de Universidad en la Universidad Politécnica de Madrid. Sus principales áreas de investigación de interés incluyen Big Data, Machine Learning, Cloud, HPC y Sistemas de Almacenamiento. Es co-autora de 4 libros, 7 capítulos de libro y ha publicado más de 100 artículos en revistas y conferencias internacionales. Ha participado en la organización de más de 30 ediciones de conferencias y workshops internacionales. Ha participado en 5 proyectos europeos (coordinando uno de ellos) y en más de 15 proyectos internacionales. Es miembro del Board of Directors de BDVA y miembro del Steering Committee de NESSI. También ha actuado como parte del EuroHPC Working Group on User Requirements, grupo que ha contribuido a la definición de los criterios de selección para la organización que albergará las futuras máquinas peta y pre-exascale, así como las especificaciones para su adquisición. Finalmente, es parte del Research and Innovation Advisory Group of EuroHPC. -
A short introduction to Quantum Computing and Quantum Cryptography
Resumen de la conferencia
In the last decades, a new model of computation based on quantum mechanics has gained attention in the computer science community. We give an introduction to this model starting from the basics, with no prerequisites. Then, with the help of some simple examples, we see why quantum computers outperform standard ones in certain tasks. We then move to the topic of quantum entanglement and show how sharing quantum information can create a strong provable correlation among distant parties. With this basic understanding of quantum computation and quantum entanglement, we can already illustrate two interesting cryptographic protocols: quantum key distribution and position verification. Both perform classically impossible tasks: the first allows to detect an intruder intercepting a secret communication, while the second allows certifying somebody's GPS location.CV de Giannicola Scarpa
Giannicola Scarpa is a researcher specialized in the theory of quantum information and computation. His main interests are using computer science tools to discover features of quantum mechanics, and using quantum mechanics to discover new tools in computer science. He holds a Master's degree in Informatics from the University of Salerno, Italy, with a thesis on quantum game theory supervised by Giuseppe Persiano. He obtained a PhD from the University of Amsterdam, the Netherlands, defending a thesis entitled "Quantum entanglement in non-local games, graph parameters and zero-error information theory". His advisor was Ronald de Wolf. He was post-doc in Andreas Winter's group at UAB in Barcelona, and he is now a post-doc with David Pérez-García at UCM. -
Inferring procedure specifications from Javadoc comments for automated testing
Resumen de la conferencia
Procedure specifications are useful in many software development tasks. As one example, in automatic test case generation they can guide testing, act as test oracles able to reveal bugs, and identify illegal inputs. Whereas formal specifications are seldom available in practice, it is standard practice for developers to document their code with semi-structured comments such as Javadoc. These comments express the procedure specification with a mix of predefined tags and natural language. In this talk I will present Toradocu, an approach that combines natural language parsing, pattern matching, and semantic similarity to translate Javadoc comments into executable procedure specifications written as Java expressions. During this talk I will show how Toradocu can be used in combination with an automatic test case generation tool such as Randoop. The generated test cases can reveal more defects and produce fewer false alarms.CV de Alessandra Gorla
Alessandra Gorla received her Bachelor and Master degrees in computer science from the University of Milano-Bicocca in Italy. She completed her Ph.D. in informatics at the Università della Svizzera Italiana (USI) in Lugano, Switzerland in 2011. In her Ph.D. thesis she defined and developed the notion of Automatic Workarounds, a self-healing technique to recover Web applications from field failures, a work for which she received the Fritz Kutter Award for the best industry related Ph.D. thesis in computer science in Switzerland. Before joining IMDEA Software Institute in December 2014 as an Assistant Research Professor, she has been a postdoctoral researcher in the software engineering group at Saarland University in Germany and a visiting researcher at Google in Mountain View (USA). Her primary research activities are in the areas of software engineering, in particular on the automation of software testing and analysis activities, and mobile security. She has been the coordinator of SMAPPER, a project funded by EIT Digital to define a better permission management system for mobile devices. -
Deep learning: contexto, evolución, aplicaciones
Resumen de la conferencia
La inteligencia artificial comenzó en los años 50 del siglo pasado, desde el primer robot conversacional, pasando por programas informáticos capaces de ganar a campeones de ajedrez, hasta los más avanzados robots industriales. Sin embargo, la evolución y el avance más importante se ha producido en los últimos 10 años gracias al nacimiento de lo que hoy conocemos como deep learning. En este seminario pretendemos poner en contexto y diferenciar el deep learning de otros ámbitos de la inteligencia artificial como el aprendizaje máquina. Se analizarán cuestiones generales del aprendizaje máquina (modelos, parámetros, datos, características, aprendizaje, etc.), y se describirán los fundamentos del deep learning según nociones básicas de redes neuronales totalmente conectadas, para mostrar la estructura y principios de funcionamiento de las redes neuronales convolucionales.CV de David Fernández Llorca
David Fernández Llorca es Doctor Ing. de Telecomunicaciones (2008), Universidad de Alcalá (UAH), Premio Extraordinario Tesis (2010), Doctor Europeo, mejor expediente IVECO (2004), Mejor TFC Cátedra ADA Seguridad Vial (2004). Actualmente es Catedrático de Universidad. Es autor de más de 110 publicaciones (34 JCR, 19 Q1), y 66 congresos internacionales, índice-H 27. Ha sido Investigador Principal de 13 Proyectos y 15 Contratos. Ha participado en 25 Proyectos y 3 europeos, y 18 Contratos. Socio fundador EBT Vision Safety Technologies, co-inventor de 15 patentes, 10 en explotación. Premios: Mejor Investigador IEEE ITS, Jóvenes Investigadores Real Academia Ingeniería, Consejo Social UAH Transferencia Conocimiento, Mejor Patente Nacional UAH, Mejor Equipo Grand Cooperative Driving Challenge 2016, mejor paper IEEE ITSC 2015, Security Forum I+D+i 2015, el IEEE ITSS Outstanding Application 2013, Innovación Fundación 3M 2009 y Mejor Trabajo en Automoción Barreiros 2008. Ha participado como Evaluador de Proyectos Europeos. Editor Asociado de 2 revistas JCR. Subdirector de la EPS UAH. Subdirector del Dpto. de Automática (2013-2017) y Coordinador del Área de ISA (2012-2017). -
Resumen de la conferencia
Recientemente el estudio del cerebro se ha erigido en uno de los estandartes de la ciencia, en especial con el FET Flagship Human Brain Project. Las líneas de ataque se han centrado en el modelado y la observación del cerebro y su actividad, prometiendo obtener información sobre causas de diversas enfermedades neurológicas y neurodegenerativas. Sin embargo, la observación cuantitativa del comportamiento y su correlación con la actividad neuronal no han tenido tanta atención, a pesar de que el impacto de los posibles tratamientos neurológicos solo puede ser correctamente cuantificado a través de su reflejo en el comportamiento del sujeto. La neuroetología computacional se beneficia de los recientes avances en la sensorización y percepción artificial, en la sensorización neuronal, y en las capacidades de análisis de datos. En esta conferencia se pretende revisar los fundamentos y avances tecnológicos así como los retos que se plantean actualmente de la etología computacional, desde el estudio de síndromes como el del espectro autista, a los tratamientos de enfermedades neurodegenerativas, incluyendo las aplicaciones en la industria de juegos o la publicidad.CV de Manuel Graña Romay
Catedrático de Universidad en Ciencias de la Computación desde el año 1998, dirige el grupo de investigación de Inteligencia computacional, trabajando en el procesamiento de señal e imagen desde un punto de vista de la Inteligencia Computacional, que abarca técnicas de aprendizaje, optimización bioinspirada, y una especialización en lo que ha denominado Lattice Computing que tiene cierta convergencia con sistemas borrosos (Fuzzy Systems). Con su grupo ha contribuido especialmente a dos áreas de proceso de imagen, las imágenes hiperespectrales de reconocimiento remoto, y las imágenes de resonancia magnética nuclear de diversas modalidades en el ámbito de las neurociencias. Paralelamente ha realizado trabajos sobre reconocimiento de voz, con especialización en euskera, y en desarrollo de sistemas robóticos con control visual, especialmente los sistemas multiagente dedicados a la manipulación de mangueras y cables, con aprendizaje basado en refuerzo, y la red de las cosas (Internet of Things) y redes sociales. La lista de publicaciones en revistas está en http://www.ehu.es/ccwintco/index.php?title=Revistas -
Liquid Haskell: Theorem Proving for All
Resumen de la conferencia
Formal verification has been gaining the attention and resources of both the academic and the industrial world since it prevents critical software bugs. Yet, software development and formal verification are usually decoupled. Haskell is a unique programming language in that it is a general purpose, a functional language used for industrial development, but simultaneously it stands at the leading edge of research and teaching welcoming new, experimental, yet useful features. This talk presents Liquid Haskell, a refinement type checker in which formal specifications are expressed as a combination of Haskell’s types and expressions and are automatically checked against real Haskell code. This natural integration of specifications in the language, combined with automatic checking, established Liquid Haskell as a usable verifier, enthusiastically accepted by both industrial and academic Haskell users. Recently, Liquid Haskell has been turned into a theorem prover, in which arbitrary theorems about Haskell functions would be proved within the language. As a consequence, Liquid Haskell can be used to prove theorems about Haskell functions by all Haskell programmers.CV de Niki Vazou
Niki Vazou is an Assistant Professor at IMDEA. She started her computer science education in NTUA, Athens, Greece. She got her Ph.D. from UCSD, San Diego where she developed Liquid Haskell, a type-based, semi-automated verifier for Haskell programs. After that, she spend some time as a postdoctoral fellow at University of Maryland. Her research interests include refinement types, automated program verification, and type systems and her goal is to make theorem proving a useful part of mainstream programming.
-
Aplicación de técnicas estadísticas e inteligencia artificial en enfermedades metabólicas complejas.
Resumen de la conferencia
El síndrome de ovario poliquístico (SOP) es uno de los trastornos endocrino-metabólicos más prevalentes en mujeres en edad fértil que afecta aproximadamente al 5-10 % de las mujeres españolas premenopáusicas. La etiología de este síndrome es multifactorial y compleja y los mecanismos moleculares subyacentes no son del todo conocidos. Las mujeres con SOP presentan una alta frecuencia de ciertos factores de riesgo cardiovascular, tales como obesidad, resistencia a la insulina y diabetes mellitus. En esta conferencia se presentará una herramienta útil en la determinación de las variables clínicas y bioquímicas mas relevantes en pacientes con SOP y sus complicaciones metabólicas con los datos disponibles.CV de María Insenser Nieto
María Insenser Nieto es doctora en Farmacia por la Universidad Complutense de Madrid y desde 2007 es investigadora del Centro de Investigación Biomédica en Red de Diabetes y Enfermedades Metabólicas Asociadas (CIBERDEM) en el grupo de investigación del Servicio de Endocrinología y Nutrición de Hospital Ramón y Cajal. El objetivo del grupo es estudiar la interrelación entre la obesidad, la diabetes y la reproducción humana, en concreto partiendo del estudio del síndrome de ovario poliquístico (SOP) como modelo humano de resistencia a la insulina, que se asocia a la obesidad y predispone a padecer diabetes. A lo largo de estos últimos años y gracias a la aplicación de técnicas ómicas el grupo ha generado gran cantidad de datos clínicos sobre niveles de diferentes marcadores de inflamación, estrés oxidativo, miRNAs y expression génica de las pacientes con SOP. Como investigadora, su objetivo es analizar, interpretar e integrar estos datos clínicos no solo para conocer los fundamentos biológicos de la enfermedad, sino también para dirigir la investigación hacia la mejora de la salud y la calidad de vida estas pacientes. -
Designing HPC Architectures at the Barcelona Supercomputing Center
Resumen de la conferencia
The European Commission recently announced the creation of the European Processor Initiative (EPI), a European consortium to co-design, develop and bring to the market a European low-power microprocessor. EPI will start in 2018 and will develop the first European High Performance Computing (HPC) Systems on Chip (SoC) and accelerators. Both elements will be implemented and validated in a prototype system that will become the basis for a full Exascale machine based on European technologyCV de Miquel Moretó
Miquel Moreto is a Ramon y Cajal researcher at UPC and associate researcher at the Barcelona Supercomputing Center (BSC), Spain. He received the BSc and MSc degrees in mathematics and telecommunications engineering from UPC, and the PhD degree in 2010 in the Computer Architecture Department at the same university. He was a Fulbright postdoctoral fellow at the International Computer Science Institute (ICSI), affiliated with UC Berkeley, USA, from 2012 to 2013. In 2013, he joined the BSC to work on the ERC-funded project RoMoL and the Mont-Blanc European project. His research interests include HPC architectures and hardware-software co-design for future massively parallel systems. -
Real-world Applications of Symbolic Regression
Resumen de la conferencia
In symbolic regression, we try to find a simple formula to predict the values of a dependent variable from known values of independent variables. Machine learning methods for symbolic regression search the space of possible expressions which can be constructed using basic mathematical operators and functions and optimize numerical parameters of expression based on given input data. Most commonly genetic programming is used to solve this task. However, when we try to apply this method in real-world applications we find that this approach is limited in several ways (non-determinism, high computational effort, bloated formulas, bad interpolation and even worse extrapolation). In this talk I will discuss possible solutions to these issues which we have developed in our recent research.CV de Gabriel Kromberger
Dr. Gabriel Kronberger is Professor for Business Intelligence and Data Engineering at the University of Applied Sciences in Upper Austria, Campus Hagenberg. His research is focused on applications of genetic programming in particular symbolic regression techniques for data-based modeling of complex technical systems. He is currently leading the Josef Ressel Center for Symbolic Regression in which new solution methods for symbolic regression problems are developed. -
From the latency to the throughput age
Resumen de la conferencia
The talk will present a vision of the evolution of architectures and high end computing in the last years, how this is impacting the programming practices and I consider the nature of the changes that are and will happen in the next years. The fundamental assumption is that we must undergo a transition from the latency dominated age we come from to a throughput oriented age. This change holistically impacts architectures, programming models and applications, but beyond the specific technologies used at the different levels, really implies a mindset change in the actors involved at the different levels. I will present opinions on possible implications of this mindset change and how I believe it will help achieve higher productivities and system efficiency.CV de Jesus Labarta Mancho
Jesus Labarta is full professor on Computer Architecture at the Technical University of Catalonia (UPC) since 1990. Since 2005 he is responsible of the Computer Science Research Department within the Barcelona Supercomputing Center (BSC). His major directions of current work relate to performance analysis tools, programming models and resource management. His team distributes the Open Source BSC tools (Paraver and Dimemas) and performs research on increasing the intelligence embedded in the performance analysis tools. He is involved in the development of the OmpSs programming model and its different implementations for SMP, GPUs and cluster platforms. -
Artificial Intelligence in the startup world
Resumen de la conferencia
Artificial intelligence (AI) has become an important aspect of our everyday life. From a common topic in science fiction and future studies it is now being used in a wide spectrum of day to day services, both for advanced technologies and personal applications. AI seems associated with startups and several companies do develop and promote AI as their unique selling product. However, with almost 7 years of continuous ‘AI’ developments how promising could an AI startup still be? This talk aims to describe the AI challenges as experienced from the eyes of a startup, its challenges and opportunities as well as how connections with lead Universities in the area could help in future synergies.CV de Stelios Kapetanakis
Stelios Kapetanakis is an Associate Professor in Business intelligence and Enterprise in the School of Computing, Engineering and Mathematics, University of Brighton. He has been the Head of Research and Development in Kare, Knowledgeware, a London startup specialising in Natural Language processing. He has a PhD in Artificial Intelligence and an MBA in Knowledge and Innovation Management. For the past 12 years Dr Kapetanakis has been working in applied Artificial Intelligence projects with national and international vendors like the British Railways, Vivaki Nerve Centre, MediaCom, among others. His research interests include large scale Data Mining, Deep Learning, Case-based Reasoning and Spatial-Temporal reasoning. -
Symbolic Reasoning Methods in Rewriting Logic and Maude
Resumen de la conferencia
Rewriting logic is both a logical framework where many logics can be naturally represented, and a semantic framework where many computational systems and programming languages, including concurrent ones, can be both specified and executed. Maude is a declarative specification and programming language based on rewriting logic. For reasoning about the logics and systems represented in the rewriting logic framework symbolic methods are of great importance. This talk discusses various symbolic methods that address crucial reasoning needs in rewriting logic, how they are supported by Maude and other symbolic engines, and various applications that these methods and engines make possible. Because of the generality of rewriting logic, these methods are widely applicable: they can be used in many areas and can provide useful reasoning components for other reasoning engines.CV de José Meseguer
José Meseguer is Professor of Computer Science at UIUC and leads the Formal Methods and Declarative Languages Laboratory. He obtained his Ph.D. in Mathematics at the University of Zaragoza, Spain, in 1975. After post-doctoral stays at the University of Santiago de Compostela, and at the University of California at Berkeley, he joined in 1980 the Computer Science Laboratory at SRI International in Menlo Park, California, where he became a Principal Scientist and Head of the Logic and Declarative Languages Group. He joined the University of Illinois at Urbana-Champaign in 2001. He has worked on the design and implementation of several declarative languages, including the OBJ and Maude languages, on formal specification and verification techniques, on concurrency theory, on formal approaches to object-oriented specification, on parallel software and architectures for declarative languages, and on the logical foundations of computer science using equational logic, rewriting logic, and the theory of general logics. -
Insights on the artificial generation of instances of combinatorial optimization problems
Resumen de la conferencia
In the field of evolutionary computation, it is common to use benchmarks of instances of a given problem in order to carry out a performance evaluation of existing and newly developed algorithms. When the final goal is to solve specific real-world problems, real instances are used to perform such comparisons, and, thus, we are not interested in an extensive performance evaluation. However, when the objective of the research is to contribute with methodological developments, then large benchmarks of instances are needed in order to evaluate the efficiency of the proposed algorithm under different scenarios. At this point, it is a usual practice, based on the knowledge of the problem to create new “challenging” instances artificially. In this sense, a recurrent option is to generate instances by sampling their parameters uniformly at random (u.a.r.) in some ranges. Taking this assumption as starting point for the talk, we will present a series of discoveries regarding the generation of random instances for a number of permutation-based combinatorial optimization problems.CV de Josu Ceberio Uribe
Ingeniero en informática y doctor en informática, por la Universidad del País Vasco UPV/EHU en 2009 y 2014 respectivamente. Desde Octubre de 2017, Profesor Adjunto del Departamento de Ciencia de la Computación e Inteligencia Artificial. Desde el año 2010, forma parte del grupo de investigación Intelligent Systems Group, ha participado en más de 7 proyectos y contratos, Su interés de centra en las áreas de optimización combinatoria tanto desde el enfoque metodológico como el aplicado. En optimización combinatoria, ha trabajado en el ámbito de los algoritmos meta-heurísticos, y principalmente en Algoritmos de Estimación de Distribuciones. -
Middleware para IoT basado en analítica de datos
Resumen de la conferencia
Las plataformas IoT deben permitir la comunicación entre las aplicaciones y los dispositivos de acuerdo con sus requisitos no funcionales. Algunos de los principales requisitos no funcionales son la calidad del servicio (QoS, por sus siglas en inglés) y la calidad de la experiencia (QoE, por sus siglas en inglés), entre otros. En esta charla se presenta una Plataforma Autonómica para IoT (Internet of Things, por sus siglas en inglés), para la gestión de la QoS y QoE, basada en el concepto de ciclo autonómico de tareas de análisis de datos. En esta plataforma se han definido varios ciclos autonómicos de análisis de datos. Esta charla presenta algunos de esos ciclos autonómicos, y analiza sus capacidades de diagnóstico, basada en el perfil de estado operacional determinado por ellos.CV de José Aguilar
El Profesor Aguilar obtuvo el Doctor en Ciencias Computacionales en la Universidad Rene Descartes- Paris-France, y realizo Postdoctorados en el Departamento de Ciencias de la Computación de la Universidad de Houston, y en el Laboratorie d’Automatique et Analyses de Systemes-CNRS, Toulouse-France. Él es Profesor Titular Jubilado del Departamento de Computación de la Universidad de los Andes (ULA). Ha publicado más de 500 artículos científicos en revistas científicas, libros y actas de congresos internacionales, en los campos de Sistemas Paralelos y Distribuidos, Computación Inteligente, Optimización Combinatoria, Reconocimiento de Patrones, Sistemas de Automatización Industrial, Ambientes Inteligentes, etc. ORCID ID: orcid.org/0000-0003-4194-6882 Researcher ID: H-3017-2015 Google Scholar: goo.gl/A2yN4H -
Augmenting health professionals and empowering patients with new technologies
Resumen de la conferencia
Tomorrow’s doctors are undoubtedly considered with an inherent capacity and engagement for continuing professional learning and development, as well as, appropriate decision making. Thus, medical schools are exploring various ways in which technology can support the preparation of students for work-based learning as well as enhancing the work-based learning placements. Technological advances in healthcare focus on the prospects of offering ubiquitous and continuous measurements of patient/citizen activities for lifestyle management improvement (prevention), detection of early symptoms for any deterioration (prognosis), etc. This is changing the traditional ways of offering medical education. How can technology be used to address this need? In this talk we use examples of recent developments to demonstrate the issue of augmenting health professionals to tackle this new disruptive space of healthcare.CV de Panagiotis Bamidis
Panagiotis Bamidis is currently Assoc. Prof. in the Lab of Medical Physics, Medical School of the Aristotle University of Thessaloniki, Greece. He has founded and has been leading four research groups, namely, in Medical Education Informatics, in Assistive Technologies and Silver Science, in Applied and Affective Neuroscience, and in Health Services Research. In the last 6 years, he has been the co-ordinator of five large European projects as well as the principal investigator for a number of national and international funded projects. His publication record consists of more than 85 international refereed journal papers, and over 300 international peer reviewed conference papers, as well as several book chapters / edited conference proceedings volumes and over some 1000 citations (h-index>19). -
Search-based Unit Test Generation with EvoSuite
Resumen de la conferencia
The EvoSuite tool automatically generates executable JUnit tests for Java software. Given a class under test, EvoSuite uses an evolutionary algorithm to evolve sequences of calls (i.e., unit tests) that maximise testing criteria such as line and branch coverage, while at the same time generating JUnit assertions to capture the current behaviour of the class under test. In this talk, I will outline the basic notions of search-based unit test generation and our latest research on improving the readability of the unit tests generated by EvoSuite.CV de José Miguel Rojas
José Miguel Rojas obtuvo su Doctorado en Software y Sistemas en la Universidad Politécnica de Madrid bajo la supervisión de Elvira Albert y Miguel Gómez-Zamalloa. Luego, fue Investigador Asociado ("Research Associate") en la Universidad de Sheffield (Reino Unido) y desde Diciembre del 2017 es Profesor Asistente ("Lecturer") en la Universidad de Leicester (Reino Unido). Su investigación reciente se centra en las pruebas de software automatizadas y la ingeniería del software empírica. -
Unveiling the properties of structured grammatical evolution
Resumen de la conferencia
Structured grammatical evolution (SGE) is a new genotypic representation for grammatical evolution (GE). It comprises a hierarchical organization of the genes, where each locus is explicitly linked to a non-terminal of the grammar being used. This one-to-one correspondence ensures that the modification of a gene does not affect the derivation options of other non-terminals. We present a comprehensive set of optimization results obtained with problems from three different categories: symbolic regression, path finding, and predictive modeling. In most of the situations SGE outperforms standard GE, confirming the effectiveness of the new representation. To understand the reasons for SGE enhanced performance, we scrutinize its main features. We rely on a set of static measures to model the interactions between the representation and variation operators and assess how they influence the interplay between the genotype-phenotype spaces. The study reveals that the structured organization of SGE promotes an increased locality and is less redundant than standard GE, thus fostering an effective exploration of the search spaceCV de Nuno Lourenço
Nuno Lourenço is an Assistant Professor (non-Tenure) at the University of Coimbra, where he obtained is PhD in Information Science and Technology in 2016. He has been with the Centre for Informatics and Systems of University of Coimbra (CISUC) since 2009, as member of the Evolutionary and Complex Systems (ECOS) group. His main research interests are in the areas Bio-Inspired Algorithms, Optimisation and Machine Learning. He was appointed as a Senior Research Officer at the University of Essex in United Kingdom, where we worked in the development of a smart solution to improve the everyday commutes of people in the Essex County. He has authored or co-authored several articles in journals and top conferences from the Evolutionary Computation and Artificial Intelligence areas. He has been involved as a researcher in many national and international projects. -
Improving Engagement of Students in Software Engineering Courses through Gamification
Resumen de la conferencia
While our society increasingly depends on software for more and more aspects of civic, commercial and social life, software engineers struggle to ensure that software achieves the necessary high quality this requires. Although the discipline of software engineering offers different techniques and strategies to ensure quality, programmers in practice are reluctant to engage with them, with detrimental effects on software quality. A root cause of this situation lies in how software developers are educated: Software engineering education generally tends to focus more on the creative aspects of design and coding, whereas the more laborious and less entertaining activities are neglected; this disengagement with software quality assurance techniques carries over to practice. We therefore need a fundamental change in how software engineering is taught and perceived. Tomorrow’s software engineers need to be raised with an appreciation of software quality, and quality assurance techniques need to become a natural aspect of software development, rather than a niche topic.CV de Tanja Vos
Prof. Dr. Tanja Vos is a full professor at the Open University (Netherlands) and an associate professor at the Universitat Politècnica de València (Spain). For over 20 years she has been teaching and researching in the area of software testing. She has worked with many companies on automated testing projects in an industrial setting. She is currently project lead for the TESTAR.org<http://TESTAR.org> approach for automated testing at the Graphical User Interface level. Tanja has successfully coordinated EU-funded projects (FITTEST, EvoTest) related to software testing and has been involved in various Erasmus and Leonardo initiatives that try to help business understand academia an vice versa. She started the Software Testing Innovation Alliance in Spain and is now involved in the European Alliance. She is also part of the dutch consortium of the ITEA TESTOMAT project that started this year. A project that will research and develop the coming three years the next level of test automation. She is the coordinator of the ERASMUS IMPRESS project that works towards improving software engineering education. -
Resumen de la conferencia
In this talk we will discuss modern challenges and research directions in bioinformatics. First, we will discuss computational proteomics, which is dedicated to the design of algorithms that are able to identify proteins and peptides in data of biological samples (given as mass spectra). We will also discuss how machine learning techniques can be used here to improve the validation of peptide identifications. Second, we will discuss computational immunology and how data science helps to analyze data of transplantation patients. Again, we also use machine learning to learn models that distinguish between normal and critical progresses. Third, we will discuss machine learning approaches for learning models for cancer predictions and virtual tumor markers on the basis of clinical data from the General Hospital Linz.CV de Stephan Winkler
Dr. Winkler studied computer science at JKU Linz and received his PhD in engineering sciences in 2008. His research interests include genetic programming, bioinformatics, nonlinear model identification and machine learning. Since 2009, Dr. Winkler is professor for bioinformatics at FH OO, Hagenberg; since 2011 he serves as head of the Bioinformatics Research Group. Dr. Winkler actively collaborates with numerous national and international research institutions and companies, amongst others he served as project leader of several research projects sponsored by the Austrian Research Funding Agency (FFG, e.g. NanoDetect and TOMO3D), was key researcher in several FFG-sponsored projects (e.g. Heureka! and HOPL), was key researcher in the EFRE-project Transplant, is co-project-leader of the FWF project SESAM. In summer 2014 Dr. Winkler was visiting scholar at BEACON (NSF Center for the Study of Evolution in Action at Michigan State University), and 2015 Dr. Winkler was guest professor at the Department for Applied Mathematics, Universidad de Alcalá de Henares, Madrid, Spain. -
Grouping techniques for facing Volume and Velocity in the Big Data
Resumen de la conferencia
The data deluge who we are living today is fostering the development of new techniques for effective and efficient methods for the analysis and the extraction of knowledge and insights from the data. The Big Data paradigm, in particular, the Volume and the Velocity features, is requiring to change our habits for treating data and for extracting information that is useful for discovering patterns and insights. Also, the exploratory data analysis must reformulate its aims. How many groups are in the data? How to deal with data that doesn't fit my PC memory? How to represent aggregated data or repeated measures on individuals? How data correlates? The Symbolic Data Analysis approach tried to reformulate the statistical thinking in this case. In this talk, we present some tools for working with aggregated data described by empirical distributions of values. Using some real-cases from different fields (data from sensors, official statistics or data stream), and the HistDAWass R package, we show some recent solutions for the unsupervised classification, and for feature selection in a subspace clustering context, and how to interpret the results.CV de Antonio Irpino
Antonio Irpino is an Associate Professor of Statistics at the Dept. of Mathematics and Physics of the University of Campania "L.Vanvitelli" since 2015, where his research and teaching focus on Data Analysis. After receiving his Ph.D. in computational statistics at Federico II University of Naples (2001), he joined the University of Campania (formerly, Second University of Naples) in 2007 as a researcher. He has authored and co-authored more than 50 journal, chapters and conference papers on classification, unsupervised, supervised and semi-supervised, crisp and fuzzy techniques, data reduction techniques, for multivalued and aggregate data with applications in datastream and Symbolic data analysis especially when data are described by distributions. He is also the author of an R package for their treatment. He is a member of the SIS (Italian society of Statistics, since 2004) and of IASC-ISI (International Association for Statistical Computing, since 2008) of ISI (International Statistical Institute, since 2012). -
Performance and scalability prediction in HPC systems
Resumen de la conferencia
Predicting the performance and scalability of parallel scientific applications on a large number of resources in an efficient way, is becoming increasingly complex. Our goal was to characterize the behavior of message-passing applications on different target machines. To achieve this goal, we have developed a method called Parallel Application Signature for Performance Prediction (PAS2P), which strives to describe an application based on its behavior. Based on the application’s message-passing activity, we identify and extract representative phases, with which we create a parallel application signature that enable us to predict the application’s performance. PAS2P is able to predict execution times with an average accuracy greater than 97 percent and P3S is able to predict the application scalability with an average accuracy greater than 95 percent using a reduced set of resources.CV de Emilio Luque
Emilio Luque received the Master and PhD degrees, both in Physics, from the University Complutense (UC) of Madrid in 1968 and 1973. From 1976 full professor at the Computer Architecture and Operating System Department at University Autonoma of Barcelona (UAB), Spain, where he is leading the HPC4EAS research group.. He has been invited professor in different universities in USA, Asia, Europe and South America, key note speaker in Computer Science Conferences, leader in several research projects founded by the European Union (EU), the Spanish government and different companies and member of the Editorial Board of various Technical Journals. Research recognitions: Best Paper Award at the Seventh International Conference on Advances in System Simulation. (SIMUL 2015), Best Paper Award at the International Conference on Computational Science (ICCS 2012); Outstanding Paper Award at the International Conference on Computational Science (ICCS 2011) and Distinguished Paper at the European Conference on Parallel Processing (Euro-Par 2006). Doctor Honoris Causa by the National University of La Plata (UNLP) Argentina. -
Análisis de Sentimientos y otros retos del aprovechamiento inteligente de los datos masivos
Resumen de la conferencia
Esta conferencia se inicia con una introducción al fenómeno de los datos masivos en la sociedad digital actual, haciendo hincapié en las diferencias entre datos, información y conocimiento, el concepto de ‘data lake’ y los resultados que se pueden esperar tras analizar un conjunto de datos: predicción, pronóstico, prescripción… y sus diferentes matices. También se esboza una aproximación ingenua al fenómeno del ‘Big Data’. En segundo lugar, se aborda el aprovechamiento inteligente de esta valiosa materia prima, comenzando con el papel del ‘Científico de Datos’ y mostrando un mapa de las técnicas de Inteligencia Artificial y Aprendizaje Automático orientadas a tal propósito, junto con una descripción de la adecuación de estos métodos a los diferentes tipos de situaciones de análisis. Por último, se presentan los nuevos retos de este aprovechamiento de los datos masivos, sobre todo en lo que concierne a la búsqueda y acceso a la información y el análisis inteligente de textos con diversos propósitos.CV de José Angel Olivas Varela
Nacido en 1964 en Lugo, España, se licenció en Filosofía (especialidad Lógica) en 1990 (Universidad de Santiago de Compostela), Master en Ingeniería del Conocimiento del Dpto. De Inteligencia Artificial de la Universidad Politécnica de Madrid en 1992, y su Doctorado en Ingeniería Informática en 2000 (Universidad de Castilla–La Mancha). En 2001 fue Postdoc Visiting Scholar en el BISC (Berkeley Initiative in Soft Computing) con Lotfi A. Zadeh (creador de la Lógica Borrosa), University of California-Berkeley, USA. Desde entonces sigue colaborando activamente con el BISC y con el Centro de Inteligencia Artificial del SRI Internacional de la Universidad de Stanford (Prof. Richard Waldinger). Sus principales líneas de investigación actuales son el uso de técnicas de Soft Computing para la Recuperación de Información, el análisis de datos y las aplicaciones en Inteligencia Artificial e Ingeniería del Conocimiento. Autor del libro “Búsqueda eficaz de información en la Web” y de más de 250 publicaciones científicas. Director del grupo de investigación SMILe (UCLM) (Soft Management of Internet and Learning). -
Unsupervised Scalable Statistical Method for Identifying Influential Users in Online Social Networks
Resumen de la conferencia
Billions of users interact intensively every day via Online Social Networks (OSNs) such as Facebook, Twitter, or Google+. This makes OSNs an invaluable source of information, and channel of actuation, for sectors like advertising, marketing, or politics. To get the most of OSNs, analysts need to identify influential users that can be leveraged for promoting products, distributing messages, or improving the image of companies. We propose a new unsupervised method, Massive Unsupervised Outlier Detection (MUOD), based on outliers detection, for providing support in the identification of influential users. MUOD is scalable, and can hence be used in large OSNs. Applying MUOD to a subset of roughly 400 million Google+ users, it has allowed identifying and discriminating automatically sets of outlier users, which present features associated to different definitions of influential users, like capacity to attract engagement, capacity to attract a large number of followers, or high infection capacity.CV de Antonio Fernández Anta
Dr. Antonio Fernández Anta is a Research Professor at IMDEA Networks. Previously he was a Full Professor at the Universidad Rey Juan Carlos (URJC) and was on the Faculty of the Universidad Politécnica de Madrid (UPM), where he received an award for his research productivity. He was a postdoc at MIT from 1995 to 1997. He has more than 25 years of research experience, and more than 200 scientific publications. He was the Chair of the Steering Committee of DISC and has served in the TPC of numerous conferences and workshops. He received his M.Sc. and Ph.D. from the University of SW Louisiana in 1992 and 1994, respectively. He completed his undergraduate studies at the UPM, having received awards at the university and national level for his academic performance. He is a Senior Member of ACM and IEEE. -
Privacidad: La Tensión entre las Capacidades Tecnológicas y las Expectativas de la Sociedad Cívica
Resumen de la conferencia
La sociedad cívica tiene algunas expectativas básicas: Gente e instituciones, incluyendo gobiernos, deben comportarse según las leyes y la ética de la sociedad. Sin embargo, hoy en día la tecnología presta capacidades inesperadas y no bien conocidas. Estas tecnologías pueden chocar con la ética y las leyes de la sociedad. En particular, en sociedades modernas hay la expectativa de la privacidad de individuos y organizaciones. En esta charla examinamos varias tecnologías que en muchos casos contradicen nuestras expectativas en cuanto a la privacidad. Veamos bases de datos estadísticos donde consultas deberían guardar la privacidad de los datos de individuos y varias tecnologías que permiten el monitoreo de la ubicación o el comportamiento de una persona o de las comunicaciones de la misma. También examinamos problemas relacionados con el uso de criptografía y el uso de marcas de agua, entro varios. En muchos casos, la tecnología compromete la privacidad, en algunos casos, presta más privacidad que es deseable.CV de Ernst L. Leiss
Ernst Leiss obtuvo grados académicos en ingeniería (Dipl.-Ing., TU Viena, 1975), ciencia de la computación (M. Math., U. Waterloo, 1974), y matemática (Dr. techn., TU Viena, 1976). Trabajó como post doc en la Universidad de Waterloo (1976/7) y como Profesor Investigador en la Universidad de Chile en Santiago (1978). En 1979 empezó en el Departamento de Ciencias de la Computación de la Universidad de Houston, donde todavía trabaja. Sus intereses incluyen teoría de lenguajes formales, computación de alto desempeño, y seguridad. Ha sido supervisor de 17 disertaciones doctorales y de más de 100 tesis de maestría. Es autor de seis libros y más de 180 trabajos científicos en conferencias y revistas. Ha sido un ACM Distinguished Lecturer desde 1991 hasta 2014. Ha ocupado puestos administrativos en su Universidad y actuado como presidente de varios comités; en particular, en 1994 como presidente del Senado de su universidad, inició una mayor reestructuración administrativa de la Universidad de Houston. En 2014, fue premiado con la Distinción CLEI al Mérito Latinoamericano en Informática. -
Runtime Methods to Improve Energy Efficiency in HPC Applications
Resumen de la conferencia
The principal means to increase performance of modern high performance computing (HPC) applications is to use more processors in parallel. However, energy use increases linearly with the number of processing cores. Energy costs for top supercomputers already exceed 10M EUR per year, and the operating costs and carbon footprint of next generation systems (exaflop scale) are a major concern. HPC applications use a parallel programming paradigm like the Message Passing Interface (MPI) to coordinate computation and communication among thousands of processors. With dynamically-changing factors both in hardware and software affecting energy usage of processors, there exists an opportunity for power monitoring and regulation at runtime to achieve savings in energy. In this talk, an adaptive runtime framework is described that enables processors with core-specific power control to reduce power with little or no performance impact. Two opportunities to improve the energy efficiency of processors running MPI applications are identified - computational workload imbalance and memory system saturation.CV de Jans F. Prins
Jan F. Prins is a Professor in the Department of Computer Science at the University of North Carolina at Chapel Hill (USA). As an undergraduate in Mathematics in 1976, he was a co-founder of Digital Effects Inc., one of the first computer animation companies. Sample productions include portions of the original Disney film “TRON” (1982). He obtained his Ph.D. in 1987 in Computer Science from Cornell University on the formal derivation of programs from specifications. Since 1987, he has been a member of the computer science faculty at UNC-Chapel Hill, and a member of the bioinformatics and computational biology training program and the curriculum in molecular and cellular biophysics. His research interests center on parallel computing specifically and computational biology more generally. In the last decade he has focused on challenges in transcriptomics. -
Resumen de la conferencia
Debugging Maude programs is generally a time-consuming and burdensome task that forces developers to painstakingly examining large and complex execution traces while trying to locate the actual cause of observable misbehaviors. Trace slicing is a transformation technique that can drastically reduce the size and complexity of entangled, textually-large execution traces by focusing on selected computation aspects. This is typically done by uncovering data dependences among related parts of the trace with respect to a user-defined slicing criterion. In this talk, we will review a debugging technique that primarily exploits trace slicing to facilitate bug isolation within faulty Maude programs. Furthermore, we will show an extension of the basic technique which offers a higher degree of automation.CV de Demis Ballis
Demis Ballis is assistant professor of Computer Science at the University of Udine. His research activity is mainly centered around the development of practical, cost-effective, formal methodologies for the analysis, verification and optimization of complex software systems. In particular, he contributed to the development of techniques and tools that have been successfully applied to the analysis of various application domains (notably, web applications, biological systems, UML and XML models). He has published more than 50 papers in international, refereed journals, conferences and workshops, and served as program committee member in several scientific events. -
Meta-modelos y lenguajes de dominio específico en Internet de las cosas
Resumen de la conferencia
En la actualidad, muchos dispositivos se encuentran conectados continuamente a Internet, desde teléfonos inteligentes hasta coches; televisiones; relojes y muchos otros dispositivos. Esta tendencia es creciente con una previsión de crecimiento que pasa de 3750 millones de objetos conectados en 2014 a 25000 millones de objetos conectados en 2020. Este crecimiento de objetos conectados a Internet ha hecho que aparezca el término Internet de las Cosas (The Internet of Things o IoT en inglés) y que puede ser definido como la interconexión entre objetos heterogéneos y ubicuos a través de Internet. Uno de los principales problemas de Internet de las Cosas es la heterogeneidad de los lenguajes y plataformas de desarrollo de software para los distintos dispositivos de los fabricantes, así como la falta de estándares . Se propone el uso de meta-modelos y lenguajes de dominio específico para la creación de sistemas que permitan programar, actuar, detectar e interconectar objetos de Internet de las Cosas. Se presentará un caso práctico de un meta-modelo con un lenguaje de dominio específico basado en una extensión de una red social muy popular.CV de Juan Manuel Cueva Lovelle
Dr. Juan Manuel Cueva Lovelle, Catedrático de Universidad de Lenguajes y Sistemas Informáticos de la Universidad de Oviedo (España). Fue Director de la Escuela Universitaria de Ingeniería Técnica en Informática de Oviedo (Universidad de Oviedo) desde Julio-1996 a Julio-2004. Fue Director del Departamento de Informática de la Universidad de Oviedo desde 2008 a 2016. Fue coordinador del Máster en Ingeniería Web de la Universidad de Oviedo desde 2005 a 2016. Socio de ATI y miembro con voto de ACM. Sus áreas de investigación son Internet de las cosas (IoT), Procesadores de Lenguaje, Interacción Persona-Ordenador, Ingeniería dirigida por modelos e Ingeniería Web. Ha dirigido más de 25 proyectos de Investigación, más de 100 contratos con empresas y 34 tesis doctorales en Ingeniería Informática. Es autor de más de 200 libros, artículos y comunicaciones a congresos. -
An overview on diversity and Software Testing
Resumen de la conferencia
Software testing is one of the most challenging research field of Software Engineering. Traditional strategies, such as coverage, have predominated for the last decades, however, these techniques hardly overcome random approaches. Researchers are looking for new methodologies to improve the quality on automatic testing, specially focused on test prioritisation and test suite generators. During these years, researches started to hypothesise that every test has the same probability of triggering a bug. This hypothesis is the base for diversification. Testing by diversity aims to extends the testing strategies exposing rare and different paths that can be hardly activated using heuristics. In this talk we will explore the meaning of diversity, having different perspective from information theory and we will discuss different applications to automatic test suite generators and testing prioritisation, based on input, behaviour and output diversity.CV de Héctor D. Menéndez
Héctor Menéndez is a Research Associate at University College London, working on applications of information theory to software testing. He has a BSc in Computer Science, a BSc in Mathematics, an MSc in Computer Science an MSc in Mathematics and a PhD in Computer Science by the Universidad Autónoma de Madrid, Spain. He has published 13 journal papers (6 of them are Q1 top journals according to the Journal Citations Report) and 27 international conferences. Originally, he worked designing machine learning algorithms based on graph structures and search based optimisation. He has applied these ideas to several different fields, where the most relevant are malware analysis, unmanaged air vehicles and, currently, software testing. During his current project, InfoTestSS, he has investigated different testing strategies to reach specific sections of programs. These strategies include fuzzy testing and trigger activation. He was a co-organiser of WIMS 2013, IDC 2014, INISTA 2015, the 57th COW in Information Theory and Testing, and the 2018 TAROT Summer School in Testing, Verification and Validation. -
Complete Controllable Test Suites for Distributed Testing
Resumen de la conferencia
Some systems interact with their environment at several physically distributed interfaces/ports and when testing such a system it is normal to place a local tester at each port. This talk will focus on complete testing from a finite state machine (FSM). Classically, a test suite is m-complete for an FSM M if it distinguishes between M and all faulty FSMs with m states or fewer. While there are several algorithms that generate m-complete test suites, previous results show that there is no general method for generating an m-complete test suite for use in distributed testing. In addition to surveying the issues raised by distributed testing, this talk will look at the problem of generating what we call c(m)-complete test suites: controllable test suites that distinguish an FSM N with no more than m states from M if this is possible in controllable testing. Thus, under the hypothesis that the system under test has no more than m states, a c(m)-complete test suite achieves as much as is possible given the restriction that testing should be controllable.CV de Robert M. Hierons
Rob Hierons received a BA in Mathematics (Trinity College, Cambridge), and a Ph.D. in Computer Science (Brunel University). He then joined the Department of Mathematical and Computing Sciences at Goldsmiths College, University of London, before returning to Brunel University in 2000. He was promoted to full Professor in 2003. Rob Hierons’ main research largely concerns the automated generation of efficient, systematic test suites on the basis of program code, models or specifications. He also has a significant interest in program analysis and automated transformation techniques such as program slicing. He is joint Editor of the Journal of Software Testing, Verification, and Reliability (STVR). He has organised or been on the steering committee of several international conferences and workshops. He has published over 150 papers in international workshops, conferences and journals including in top journals such as SIAM Journal of Computing, IEEE Transactions on Computers, IEEE Transactions on Software Engineering, and ACM Transactions on Software Engineering and Methodology. -
Los sistemas de información geográfica (SIG) y estándares de normalización
Resumen de la conferencia
Se tratará de los principales productos de información geográfica como representación temática del territorio que se generan en el ámbito de las administraciones públicas; datos y servicios conformes con la Directiva 2007/2/CE del Parlamento Europeo y del Consejo de 14 de marzo de 2007 por la que se establece una infraestructura de información espacial en la Comunidad EuropeaCV de Ramón Baiget Llompart
Ingeniero Agrónomo por la UPM, actualmente jefe del departamento de Cartografía donde dirige la organización de equipos de trabajo para la participación en las actividades de análisis SIG de los proyectos de Tragsatec. Destaca especialmente su experiencia en: -Consultoría y gestión de recursos para el desarrollo de proyectos GIS en herramientas de escritorio, dispositivos móviles y aplicaciones WEB desarrolladas en .NET (VB.NET, C#) y/o JAVA. Análisis de la arquitectura y recomendaciones para implantaciones de ArcGIS. Utilización de todas las herramientas de la tecnología ESRI y otros SIG y bases de datos geográficas comerciales o basadas en software libre. -Representación de Tragsatec en el grupo de trabajo de la Infraestructuras de Datos Espaciales de España (GTIDEE) para el Consejo Superior Geográfico en el ámbito de la aplicación de la Directiva INSPIRE -Vocal del Comité Técnico Nacional 148 de AENOR de Información Geográfica Digital, en representación de Tragsatec -
Compositional Program Analysis using Max-SMT
Resumen de la conferencia
Recent developments on SMT solvers for non-linear polynomial constraints have become crucial to make the template-based (or constraint-based) method for program analysis effective in practice. Moreover, using Max-SMT (its optimization version) is the key to extend this approach to develop an automated compositional program verification method based on generating conditional inductive invariants. We build a bottom-up program verification framework that propagates preconditions of small program parts as postconditions for preceding program parts and can recover from failures when some precondition is not proved. These techniques have successfully been implemented within the VeryMax tool which currently can check safety, reachability and termination properties of C++ code. In this talk we will provide an overview of the Max-SMT solving techniques and its application to compositional program analysis.CV de Albert Rubio Gimeno
Albert Rubio is Full Professor at the Technical University of Catalonia - BarcelonaTech. He started his research on automated deduction and (higher-order) rewriting. He has also worked in the development of SMT solvers within the Barcelogic team and more recently on the application of SMT and Max-SMT solvers in program analysis. Albert is Chair of the Steering Committee of the International Termination Competition, has been invited speaker at RTA and LOPSTR, and has been PC member in many international conferences. -
Specifying quantities in software models
Resumen de la conferencia
The correct representation of numerical values and their units is an essential requirement for the design and development of any engineering application that deals with real-world physical systems. Although solutions exist for several programming languages and simulation frameworks, this problem is not fully solved in the case of software models. This talk discusses how both measurement uncertainty and units can be effectively incorporated into software models, becoming part of their basic type systems and hence ensuring statically type- and unit-safe assignments and operations of those model elements representing physical quantities.CV de Antonio Vallecillo Moreno
Antonio Vallecillo es Catedrático en el Dep. de Lenguajes y Ciencias de la Computación de la Univ. de Málaga. Su carrera profesional estuvo inicialmente ligada a la empresa privada, en donde trabajó en multinacionales de informática y telecomunicaciones (Fujitsu, ICL). Desde 1996 trabaja en la Universidad de Málaga y su investigación se centra en el procesamiento abierto y distribuido, el desarrollo de software dirigido por modelos y la calidad del software. Es miembro del comité editorial de las revistas SoSyM y JOT, y del "steering committee" de diversas conferencias y asociaciones, ha presidido el comité de programa de diversas conferencias internacionales, y ha organizado varias de ellas (ECOOP, TOOLS, MODELS). Participa en diversas actividades de normalización dentro de AENOR, ISO, ITU -T y OMG, y es el representante nacional en IFIP TC2. Ha sido editor de las normas internacionales sobre Procesamiento Abierto y Distribuido (RM-ODP) de ISO/IEC e ITU-T, y colabora como consultor en proyectos internacionales sobre estos temas. Es el presidente de la Sociedad Nacional de Ingeniería del Software y Tecnologías de Desarrollo Software (SISTEDES). -
Utilización de sensores inerciales integrados para la valoración física de pacientes crónicos
Resumen de la conferencia
En la actualidad, existe una gran cantidad de enfermedades crónicas como puede ser la esclerosis múltiple, el alzheimer o incluso el propio envejecimiento, que no tiene un claro marcador de diagnóstico que permita detectar de manera temprana la aparición o evolución de la patología. Por el contrario, la toma de decisiones a la hora de administrar un tratamiento está basadas, en numerosas ocasiones, en la valoración del deterioro físico del paciente por parte del especialista médico. Para solventar la poca sensibilidad y objetividad de estas evaluaciones observacionales, en la actualidad se están desarrollando test para analizar las cualidades físicas del paciente en base a los sensores inerciales integrados en numeroso dispositivos tales como Smartphones, etc. Esto está permitiendo acercar pruebas de alta sensibilidad con costes clásicamente elevados (ej. posturografía para analizar el equilibrio), al día a día de la exploración clínica.CV de David Barbado Murillo
Los temas de investigación principales son " "Aprendizaje y control motor (APCOM)" y "Biomecánica para la salud y el rendimiento (BIOMEC)" del Centro de Investigación del Deporte Ha participado como miembro investigador en cuatros proyectos MINECO, realizando labores de diseños de protocolos de medición con material de laboratorio relacionado con la valoraciones cinemáticas, cinéticas y electromiográficas del movimiento Ha realizado la publicación de un total de 22 artículos indexados en JCR (primero en 2012) y otros 19 en revistas de reconocido prestigio Más de 50 aportaciones a congresos de carácter internacional y la realización de un total de 5 contratos de investigación con otras entidades (artículo 83 de la LOU). -
Nuevas tecnologías aplicadas al ejercicio físico: Apps, Wearables y su fiabilidad
Resumen de la conferencia
El registro de diferentes variables relacionadas con el rendimiento de una persona que realiza ejercicio físico (ya sea deportista o no), es un aspecto importante de la valoración de la condición física y del control entrenamiento. Gracias al avance tecnológico de los últimos años y, sobre todo, a la miniaturización de la tecnología, cada vez es más frecuente la aparición de nuevas aplicaciones móviles o wearables destinados al registro de la actividad física. De hecho, durante los años 2016 y 2017 este ha sido el número uno en la lista de tendencias en el ámbito de la actividad física y el deporte desarrollado por el American College of Sport Medicine. Sin embargo, no todas estas son válidas o fiables en el cometido para el que han sido desarrolladas.CV de Jose Manuel Sarabia
Es Licenciado en Ciencias de la actividad física y del deporte y Máster en Rendimiento Deportivo y Salud. Doctor en Psicología de la Salud. Ha participado en 6 proyectos/contratos de investigación y transferencia Se presenta autoría en un total de 23 artículos, 14 de los cuales se encuentran indexados en el índice JCR. Los 5 restantes pertenecen a revistas indexadas en el catálogo latindex. Las contribuciones a congresos suman un total de 43, principalmente internacionales. La trayectoria docente contempla 5 años como profesor en la Universidad Miguel Hernández de Elche. Desde el curso 2011-2012, el solicitante ha impartido seminarios de formación en un título oficial de máster. También que ha recibido un curso orientado a la formación e innovación docente universitaria. -
Viaje al centro de los datos: ingeniería, arquitectura y ecología
Resumen de la conferencia
Los centros de datos son infraestructuras críticas cuyo diseño, certificación, operación y mantenimiento constituye una convergencia de disciplinas: arquitectura (edificación, restauración, impacto en el paisaje), diferentes ingenierías (informática, teleco, eléctrica, mecánica/climatización) y ecología (energías renovables, eficiencia energética). Esta conferencia propone un viaje breve, pero intenso por ese territorio, todavía en parte por explorar. Un terreno que debe conocer el ingeniero informático, asumiendo de forma definitiva que los bits no son entidades espirituales, al contrario, tienen masa, ocupan volumen y su movimiento o transformación requiere energía que inevitablemente se transforma en calor.CV de Victor Viñals Yúfera
Víctor Viñals Yúfera es ingeniero de Telecomunicaciones y doctor en Informática por la Universitat Politècnica de Catalunya (UPC, 1982 y 1987). En el período 1983-87 fue profesor no numerario en la Facultat d’Informàtica de Barcelona de la UPC. En la actualidad es catedrático de Arquitectura y Tecnología de Computadores en el Departamento de Informática e Ingeniería de Sistemas de la Universidad de Zaragoza. El profesor Viñals dirige el grupo de investigación en Arquitectura de Computadores de la Universidad de Zaragoza (gaZ), enmarcado en el Instituto de Investigación en Ingeniería de Aragón (I3A). Sus intereses incluyen diseño del procesador, jerarquía de memoria cache orientada al rendimiento y a tiempo real, programación de alto rendimiento para arquitecturas paralelas y técnicas de ahorro energético para chips multiprocesador. El profesor Viñals es miembro de las sociedades IEEE y ACM, y de la red de excelencia Europea HiPEAC (High Performance Embedded Architecture and Compilation). Ha dirigido 9 tesis y ha sido investigador principal de 5 proyectos consecutivos del Plan Nacional. Ocasionalmente sus trabajos se publican en revistas de elevado impacto (IEEE Micro, IEEE TC, IEEE TVLSI, ACM TACO, ACM TECS) o en congresos de gran prestigio en el Área de Arquitectura de Computadores (ISCA, MICRO, HPCA, ICS, ICPP, PACT, RTCSA). -
Roadmap for the Blockchain & Society Lab
Resumen de la conferencia
The unique technological characteristics of blockchain technologies are being actively explored in a number of social domains beyond the narrow confines of finance. There are experimental applications using blockchain to store health data, land registries, citizen identities, trace welfare payments, manage copyrights, etc. Despite the wide spectrum of potential blockchain applications, there is very little research on their non-technical, societal, economic, policy and legal implications. The Blockchain&Society Policy Research Lab has a mission to (1) trace the development of the governance of blockchain technologies, and (2) their diffusion in various social domains, (3) to inform the legal and policy discourse about both the challenges and the opportunities that lie ahead. We are developing a research roadmap to identify the most pressing legal and policy issues around blockchain technologies, and bring together all the different expertise that is necessary to develop informed policy. In this talk, Bodo will present the roadmap for the Blockchain&Society Lab, and give an overview of the research priorities in the intersection of blockchain and the law.CV de Balazs Bodo
Bodo Balazs is a socio-legal research scientist at the Institute for Information Law (IViR), University of Amsterdam. Bodo has a background in economics and media studies, and held Fulbright research grants at major US universities, like Harvard and Stanford. Previously, he studied the social construction of p2p file sharing technologies and their impact on copyright, as well as the impact of legal tools, such as the Creative Commons licenses on knowledge production and distribution practices in Hungary. Bodo moved to the Netherlands with a Marie Curie Grant to study informal media economies, and the impact and organization of scholarly pirate libraries on the global production of knowledge. In the last few years he has conducted research on the impact of news personalization technologies on our information diet, and the impact of algorithmic decision making technologies on our societies. Since January 1st, 2018, Bodo runs the Blockchain&Society Policy Research Lab at IViR, funded by a European Research Council Starting Grant. -
Diseño eficiente de algoritmos Parallel Prefix sobre GPUs
Resumen de la conferencia
Las GPUs actuales ofrecen computación de altas prestaciones a relativamente bajo coste. Sin embargo el diseño de algoritmos eficientes para GPUs normalmente requiere un esfuerzo y tiempo adicionales incluso para programadores con experiencia. En este trabajo se presenta una estrategia con tuneado que permite el diseño eficiente para GPUs de algoritmos Parallel Prefix (tales como algoritmos para la FFT, resolutores de sistemas tridiagonales o la primitiva scan) en CUDA. Los resultados en términos de rendimiento de las implementaciones resultantes han demostrado ser competitivos o sobrepasar los obtenidos mediante la utilización de librerías como CUDAFFT, CUSPARSE, Thrust, ModernGPU o CUB que constituyen el estado del arte en este ámbitoCV de Ramón Doallo
Catedrático del área de Arquitectura y Tecnología de Computadores en la Facultad de Informática de la Universidad de A Coruña (UDC) desde 1999, donde lidera el Grupo de Arquitectura de Computadores desde 1994. Posee 28 años de experiencia investigadora en las áreas de arquitectura de computadores, supercomputación, computación paralela y distribuida, cloud computing, procesamiento Big Data, y sistemas de información geográfica. Ha publicado en estos campos más de 200 artículos en revistas y congresos internacionales, y ha dirigido 10 tesis doctorales. Sus publicaciones incluyen 80 artículos en revistas JCR (ej., IEEE Computer, IEEE TC, IEEE TPDS, IEEE TCOM, IEEE TII, ACM TACO, ACM TOPLAS, FGCS, PARCO …), 42 de ellas publicadas en los últimos cinco años, así como numerosos trabajos en congresos de gran prestigio en su área (ej., HPCA, MICRO, PACT, SIGMETRICS, IPDPS, ICS …). A fecha 06/04/2016 sus publicaciones han recibido un total de 5193 citas en Google Scholar. -
Machine Learning en Dispositivos de Fusión Nuclear
Resumen de la conferencia
La fusión termonuclear es un fuente de energía que podría suplir todas las necesidades del planeta de una manera más limpia, segura y barata que cualquier otra tecnología. Debido a su potencialidad, existen muchos dispositivos experimentales que estudian el proceso de fusión termonuclear. Cada ensayo genera miles de señales, con enormes cantidades de datos. Por ejemplo, en JET (el reactor más grande de Europa) cada descarga, de sólo una decena de segundos, puede producir hasta 10GB de información. En el caso de ITER, el proyecto internacional de fusión nuclear, podría llegar a acumular incluso, hasta 1 Tbyte de datos por cada disparo. Pese a la gran cantidad de información disponible, se estima que actualmente sólo el 10% de los datos son procesados. Mientras que el restante 90% no es tratado en absoluto. Asi, es natural el interés de aplicar técnicas de aprendizaje automático como una forma de analizar y procesar rápida y eficientemente grandes bases de datos de fusión nuclear. La charla presentará algunos resultados interesantes obtenidos en esta línea hasta la fecha dentro del proyecto FONDECYT 1161584.CV de Gonzalo A. Farias Castro
Doctor en Ingeniería Informática (UCM) en 2010, con la Tesis Doctoral: Pattern Recognition and Machine Learning on Nuclear Fusion Databases. Desde 2012 Profesor Adjunto de la Escuela de Ingeniería Eléctrica en la Pontificia Universidad Católica de Valparaíso (PUCV). He sido investigador asistente del departamento de Informática y Automática de la UNED (2015-2012) desarrollando software para la creación de laboratorios virtuales y remotos orientados a la enseñanza de la automática. He colaborado en un grupo de investigación para la búsqueda y reconocimiento de patrones en el reactor experimental de fusión TJ-II del CIEMAT. Las principales técnicas utilizadas para este propósito son: Máquinas de Vectores Soporte, Redes Neuronales, Lógica Difusa, Transformadas Wavelets y Reconocimiento Estructural. Dentro del ámbito de minería de datos aplicado a fusión también he participado en colaboración con otros organismos como General Atomics-DIIID (San diego, USA) y EFDA-JET (Abingdon, UK). Con más de 40 artículos en revistas indexadas (h-index = 13), más de 30 congresos internacionales y numerosos proyectos.
-
New horizons of brain dynamics and art
Resumen de la conferencia
This talk will present the latest advances on neuroscience in terms of its relations with how the human brain processes art. The dynamics of how the brain works and how different stimuli are processed by the neurological system will be presented and discussed. The relation with the underlying phenomena involved in the creative process will also be explored.CV de Guiomar Niso
Dr. Niso is AXA Postdoctoral fellow at the Center for Biomedical Technology (CTB), Universidad Politécnica de Madrid (UPM). She received her PhD in Biomedical Engineering with European Mention at CTB, and has worked as a researcher in the Max-Planck-Institut für Hirnforschung (Max Planck Institute for Brain Research) in Frankfurt am Main (Germany) and the Netherlands Institute for Neuroscience in Amsterdam. She is currently working in finding early indications of Alzheimer. Dr. Niso has been awarded several grants and prizes. -
New approaches in music generation from tonal and modal perspectives
Resumen de la conferencia
In the literature, there are plenty of works centered on generating music from a classical perspective, reflecting through machine learning as well as bio-inspired paradigms, harmonic rules proposed by composers like Schonberg or Riemman. However, a new fewer works have addressed the generation of popular music. Such genres, transmitted orally from generation to generation, proposes new challenges in the music learning and generation process.CV de María Navarro Cáceres
PhD in computer engineering by the University of Salamanca, she began to work in the BISITE Research Group in 2012 under a collaboration scholarship. Later, she developed her doctorate through a predoctoral contract within the program of training of university personnel (FPU) promoted by the Ministry of Education and Culture (MECD). Currently, she is working in the University of Salamanca as an associate professor. Many of the activities carried out in all areas before and during pre-doctoral training have led to the creation of a coherent and well-defined line of research, covering the fields of computer science and music. In the field of research, she is currently developing an investigation focused on automatic musical composition and the analysis of musical characteristics from artificial intelligence. She has participated in projects of educational technology, and of musical construction (Project MUDEI), among others. Most of the outstanding publications highlight the transversality of music and the computer sciences. -
Structural and functional neural correlates of emotional responses to music
Resumen de la conferencia
The sophisticated signal processing techniques developed during last years for structural and functional imaging methods allow us to detect abnormalities of brain connectivity in brain disorders with unprecedented detail. Interestingly, recent works shed light on both functional and structural underpinnings of musical anhedonia (i.e., the individual's incapacity to enjoy listening to music). On the other hand, computational models based on brain simulation tools are being used more and more for mapping the functional consequences of structural abnormalities. The latter could help to better understand the mechanism that is impaired in people unable to derive pleasure from music, and formulate hypotheses on how music acquired reward value. The presentation gives an overview of today's studies and proposes a possible simulation pipeline to reproduce such scenario.CV de Gianluca Susi
Gianluca Susi received a PhD in Sensor and Learning Systems Engineering from the University of Rome "Tor Vergata" in 2012. Nowadays, he is doing research in the UCM-UPM Laboratory of Cognitive and Computational Neuroscience of CTB (Madrid). He is also adjunct professor of Electrical Circuits and coordinating member of the "Master programme in Audio Engineering" at the University of Rome "Tor Vergata". His research is currently aimed to the development of spiking/synaptic brain models in order to reproduce MEG connectivity in health and disease. -
Making the most out of Heterogeneous Chips with CPU, GPU and FPGA
Resumen de la conferencia
Heterogeneous computing is seen as a path forward to deliver the energy and performance improvements needed over the next decade. That way, heterogeneous systems feature GPUs (Graphics Processing Units) or FPGAs (Field Programmable Gate Arrays) that excel at accelerating complex tasks while consuming less energy. There are also heterogeneous architectures on-chip, like the processors developed for mobile devices (laptops, tablets and smartphones) comprised of multiple cores and a GPU. This talk covers hardware and software aspects of this kind of heterogeneous architectures. Regarding the HW, we briefly discuss the underlying architecture of some heterogeneous chips composed of multicores+GPU and multicores+FPGA, delving into the differences between both kind of accelerators and how to measure the energy they consume. We also address the different solutions to get a coherent view of the memory shared between the cores and the GPU or between the cores and the FPGA.CV de Rafael Asenjo Plaza
Rafael Asenjo obtained a PhD in Telecommunication Engineering from the U. of Malaga, Spain in 1997. From 2001 to 2017, he was an Associate Professor in the Computer Architecture Department, being a Full Professor since 2017. He collaborated on the IBM XL-UPC compiler and on the Cray's Chapel runtime. In the last five years, he has focused on productively exploiting heterogeneous chips. In 2013 and 2014 he visited UIUC to work on CPU+GPU chips. In 2015 and 2016 he also started to work on CPU+FPGA chips while visiting U. of Bristol. He has served as General Chair for ACM PPoPP'16 and as an Organization Committee member as well as a Program Committee member for several HPC related conferences (PACT’17, EuroPar’17, SC’15). His research interests include heterogeneous programming models and architectures, parallelization of irregular codes and energy consumption. He co-presented two TBB tutorials at both Europar’17 and SC17. -
Sistemas de optimización en la asignación de los recursos
Resumen de la conferencia
Los problemas de asignación de recursos aparecen en empresas logísticas, de transporte o producción, donde se plantea realizar la mejor asignación posible de recursos a actividades, lo que tiene un fuerte impacto en la cuenta de resultados de una compañía. El objetivo de la conferencia es que el asistente sea capaz de identificar este tipo de problemas en una compañía. Se comenzará por la definición y el estudio del problema del viajante, que es sencillo de entender, pero permite mostrar las características básicas de los problemas de optimización combinatoria. Después se definirá la metodología que propone la Investigación Operativa para resolver estos tipos de problemas, y se detallarán posibles arquitecturas de sistemas de información que implementan los citados problemas. Finalmente se formularán varios problemas de asignación de recursos de aplicación real, y se harán demostraciones que ayudarán a entender mejor la naturaleza de estos problemas. Se detallará el problema de asignación de contenedores en trenes, el problema de dimensionado de una plantilla de trabajadores, el problema de asignación de flotas de vehículos y un problema de planificación de producción.CV de Francisco Javier Diego Martín
Javier es ingeniero industrial por la Universidad de Valladolid y doctor por la Universidad Politécnica de Madrid. Su trayectoria profesional se mueve desde 1996 en la consultoría en tecnologías de la información. Ha participado en proyectos de asignación de recursos para las principales empresas logísticas y de transporte españolas, en el rol de investigador de operaciones, donde ha planteado modelos matemáticos y desarrollado algoritmos para la resolución de problemas de optimización combinatoria. Ha sido el director de más de 20 proyectos de I+D subvencionados en las convocatorias CENIT, AVANZA, INNPACTO, PROFIT e IMADE. También ha sido el jefe de desarrollo de una unidad .NET, y dispone de una dilatada experiencia como arquitecto de soluciones software y desarrollo de aplicaciones para diversos sectores productivos. Desde hace diez años, es profesor asociado en el Departamento de Ingeniería de Organización, Administración de Empresas y Estadística de la Universidad Politécnica de Madrid, donde imparte asignaturas relacionadas con métodos cuantitativos en producción y logística. -
Dealing with Constraints in Estimation of Distribution Algorithms
Resumen de la conferencia
Estimation of Distribution Algorithms (EDAs) constitute a powerful evolutionary algorithm for solving continuous and combinatorial optimization problems. Based on machine learning techniques, at each generation, EDAs estimate a joint probability distribution associated with the set of most promising individuals, trying to explicitly express the interrelations between the different variables of the problem. Based on this general framework, EDAs have proved to be very competitive for solving combinatorial and continuous optimization problems. In this talk, we propose developing EDAs by introducing probability models defined exclusively on the space of feasible solutions. In this sense, we give a first approach by taking the Graph Partitioning Problem (GPP) as a case of study, and present a probabilistic model defined exclusively on the feasible region of solutions: a square lattice probability model.CV de Josu Ceberio Uribe
Josu Cebeiro es profesor Adjunto del departamento de Ciencia de la Computación e Inteligencia Artificial en la Universidad del País Vasco. Ingeniero (2009) y Doctor (2014) en Informática por la misma Universidad. Desde el año 2010, forma parte del grupo de investigación Intelligent Systems Group, reconocido como grupo consolidado por el gobierno vasco (nivel A, el más alto). Durante este periodo, ha participado en más de 7 proyectos y contratos, ha publicado más de 20 artículos en revistas, y contribuciones en congresos nacionales e internacionales, habiendo recibido varios premios. También ha sido revisor externo de 13 revistas del ISI y de varios congresos del IEEE y ACM. Dentro de las líneas de investigación del grupo, su interés de centra en las áreas de optimización combinatoria tanto desde el enfoque metodológico como el aplicado. En optimización combinatoria, ha trabajado en el ámbito de los metaheurísticos, y principalmente en Algoritmos de Estimación de Distribuciones. Los Algoritmos de Estimación de Distribución pertenecen a la familia de los algoritmos evolutivos. -
Meditaciones a propósito de la cuestión Ética y la IA
Resumen de la conferencia
Una perspectiva platónica al diseño y uso de los sistemas inteligentes autónomos en la vida real y de las consecuencias económicas, legales y éticas a lo que ello puede dar lugar.CV de Ulises Cortés
Ulises Cortés is a Full-Professor and Researcher of the Universitat Poltècnica de Catalunya (UPC) since 1982. He got his PhD in 1984 (Facultat d’Informàtica de Barcelona, UPC). Tenured since 1988 and habilitated as Full-Professor since 2006. His current focus is on several areas of Artificial Intelligence (AI) in the Computer Science Department (formerly Software Department) including knowledge acquisition for and concept formation in knowledge-based systems, as well as on machine learning, fuzzy sets, and in autonomous intelligent agents. Many of his contributions have been applied in real life scenarios and industry. -
Redecentralizing the Web: IPFS and Filecoin
Resumen de la conferencia
The Web is broken. HTTP is inefficient and expensive, especially for large files. Webpages are being deleted constantly, with the average lifespan of a web being 100 days. The Web's centralization limits opportunity and innovation. And it causes problems in the developing world, with natural disasters or faulty connections. We can do better. In this talk, I'll explain IPFS, a project intended to replace HTTP and build a better web. IPFS is a peer-to-peer hypermedia protocol to make the web faster, safer, and more open. In addition, IPFS will use Filecoin as a reward mechanism. Filecoin aims to provide a decentralized network for digital storage through which users can effectively rent out their spare capacity, receiving filecoins as payment. Filecoin raised 200M$ last month, breaking all records in blockchain ICOs to date.CV de Nicola Greco
Nicola GrecoPhoto by Virginia Alonso is a Ph.D. student in the Decentralized Information Group at MIT. He is interested in designing and building decentralized infrastructure. He started writing code when he was very young. He was 14 when he started the petition “Linux in Italian Schools”, converting schools to use Open Source Software; 16, when he started the BuddyPress’ developers community - an open source platform for federated social networks; 17, when he made one of the first unofficial Twitter buttons (two years before they came out); 18, he wrote software for Social Network analysis used by Telecom Italia that awarded him two research grants. The latter was key for his exposure; all of a sudden he was traveling around Europe, gave a TEDx and appeared Italian Wired Top 10 under 25. At 21 left his undergraduate college one year before graduation to join MIT determined to work on re-decentralizing the Web after his experience in Mozilla. At 23 he participated in the design of Filecoin, which raised over 200M dollars. His work on Filecoin served him as his MIT Master Thesis. -
New horizons for electronic systems: Devices, design methods and application areas
Resumen de la conferencia
Prof. de Micheli will talk about his research work and will provide a broader view of today’s Electronic Systems. In that matter, he will show the current landscape of distributed computing and will cover the most recent technological innovations, part of them related to emerging nanotechnologies and devices. Prof. de Micheli will also present the available tools for design with emerging technologies, like physical and logic synthesis tools. Going deep in this topic, we will have the chance to revisit the majority paradigm in logic synthesis, for models, algorithms and tools.CV de Giovanni de Micheli
Giovanni De Micheli is Professor and Director of the Institute of Electrical Engineering and of the Integrated Systems Centre at EPF Lausanne, Switzerland. He is program leader of the Nano-Tera.ch program. Previously, he was Professor of Electrical Engineering at Stanford University.He holds a Nuclear Engineer degree (Politecnico di Milano, 1979), a M.S. and a Ph.D. degree in Electrical Engineering and Computer Science (University of California at Berkeley, 1980 and 1983). Prof. De Micheli is a Fellow of ACM and IEEE, a member of the Academia Europaea and a Foreign Honorary member of the American Academy of Arts and Sciences. His research interests include several aspects of design technologies for integrated circuits and systems, such as synthesis for emerging technologies, networks on chips and 3D integration. He is also interested in heterogeneous platform design including electrical components and biosensors, as well as in data processing of biomedical information. -
Resumen de la conferencia
La presentación se centrará en la reciente evolución de las arquitecturas de redes de datos, con la transición de paradigmas de control distribuído a control centralizado, con atención a sus causas, beneficios y desafíos. Junto con este cambio de paradigma, y como suplemento a la evolución en el control y gestión de redes de datos, se presentará la incorporación de elementos de optimización en la utilización de equipos físicos acaecida en entornos de infraestructuras de la información (virtualización) aplicada a los componentes de redes y servicios de datos y cómo esta combinación impulsa una transformación sin precedentes en la forma en la que redes y servicios de telecomunicación son concebidos, creados y gestionados. Conceptos relativos a redes definidas por software (SDN), virtualización de funciones de red (NFV), concatenación de servicios, propuestas de arquitectura, estandarización, proyectos de código abierto y la articulación de estas tecnologías en distintos casos de uso serán revisados en la presentación.CV de Rafael Jacinto Villanueva Micó
El Dr. Villanueva se incorporó a la Universitat Politècnica de Valéncia en noviembre de 1988. Defendió su tesis doctoral sobre resolución y estabilidad de ecuaciones diferenciales matriciales en enero de 1992. Más adelante trabajó en algoritmos de transmisión progresiva de imágenes médicas digitales tridimensionales. Posteriormente, pasó a colaborar con el servicio de Radiofísica del Hospital Clínico de Valencia para desarrollar algoritmos algebraicos de reconstrucción de imágenes TAC para el cálculo preciso de las dosis para los tratamientos de radioterapia de los pacientes de cáncer. Actualmente colabora con el Dr. Javier Díez, responsable del Área de Vacunas de FISABIO y uno de los responsables de Salud Pública de la Comunidad Valenciana, en la modelización matemática de la dinámica de transmisión de enfermedades infecciosas. -
Redes: de entes físicos a procesos software en entornos virtuales
Resumen de la conferencia
La presentación se centrará en la reciente evolución de las arquitecturas de redes de datos, con la transición de paradigmas de control distribuído a control centralizado, con atención a sus causas, beneficios y desafíos. Junto con este cambio de paradigma, y como suplemento a la evolución en el control y gestión de redes de datos, se presentará la incorporación de elementos de optimización en la utilización de equipos físicos acaecida en entornos de infraestructuras de la información (virtualización) aplicada a los componentes de redes y servicios de datos y cómo esta combinación impulsa una transformación sin precedentes en la forma en la que redes y servicios de telecomunicación son concebidos, creados y gestionados. Conceptos relativos a redes definidas por software (SDN), virtualización de funciones de red (NFV), concatenación de servicios, propuestas de arquitectura, estandarización, proyectos de código abierto y la articulación de estas tecnologías en distintos casos de uso serán revisados en la presentación.CV de José Soler
José Soler (1974), Ingeniero Superior de Telecomunicaciones por la Universidad de Zaragoza (1999) y Doctor en Ingeniería Eléctrica (Servicios de Telecomunicación) por la Universidad Técnica de Dinamarca (DTU)(2005), es actualmente Profesor Titular del Grupo de Tecnologías de Red y Plataformas de Servicio en DTU, donde es responsable de la línea de Software y Servicios del Máster de Telecomunicaciones de la DTU. Ha dirigido múltiples proyectos fin de carrera y tesis doctorales en las áreas de integración de redes heterogéneas de comunicación, software y servicios de telecomunicaciones. Actualmente está involucrado en diversos proyectos relacionados con SDN/NFV, sistemas de señalización ferroviaria y comunicación entre pares. Más Específicamente: 1 proyecto FP7 (“COSIGN”), dos proyectos H2020 Shift2Rails (Safe4Rails y X2Rail-1), un proyecto H2020 5G PPP (NGPaaS), un proyecto financiado por el Fondo de Innovación de Dinamarca y un proyecto con financiación propia de la DTU, además de ser miembro de las actividades de testeo en el proyecto GN4-2 JRA1 (SDxL3) de GEANT. Anteriormente ha trabajado en el Instituto Tecnológico de Aragón, en el Centro de Investigación en Electrónica y Telecomunicaciones de Corea del Sur y en GoIP International ApS. -
Los lenguajes de programación: pasado, presente y futuro
Resumen de la conferencia
El objetivo de esta conferencia es situar los avances en el diseño de lenguajes de programación en su contexto histórico, explicando el surgimiento de las principales innovaciones, qué lenguajes las implementaron por primera vez, y cómo impactaron en los lenguajes posteriores. También se pasa revista a los desarrollos más recientes y se indican algunas líneas en las que es previsible evolucionen los lenguajes en un futuro próximo.CV de Ricardo Peña Marí
Ricardo Peña Marí es Catedrático de Lenguajes y Sistemas Informáticos del Departamento de Sistemas Informáticos y Computación de la Universidad Complutense de Madrid. Entre 1984 y 1991 fue Profesor Titular del Departamento de Lenguajes y Sistemas Informáticos de la Universitat Politècnica de Catalunya. Antes de 1984, trabajó como Jefe de Proyecto en empresas privadas en las áreas de telefonía y diseño asistido. Es autor del libro de texto "Diseño de Programas" (Pearson, 2005) para estudiantes de Ingeniería Informática, y del libro de divulgación "De Euclides a Java: historia de los algoritmos y de los lenguajes de programación" (Nivola, 2006). Sus áreas de investigación son el análisis estático de programas, los métodos formales, y los lenguajes de programación funcional. Es coautor de mas de 60 publicaciones en revistas y congresos internacionales. -
Modelado y Análisis Formal del Protocolo de Comunicación de Sensores One Wire
Resumen de la conferencia
Actualmente, las comunicaciones de datos entre procesos y sistemas se han convertido en uno de los pilares fundamentales de nuestra sociedad. En este entorno las redes de sensores han cobrado un papel muy relevante. Estas redes de sensores utilizan protocolos de comunicación que determinan cómo se produce esta comunicación. En la mayoría de las ocasiones estos protocolos no han sido analizados formalmente con el fin de hacer un estudio exhaustivo y riguroso de los mismos para garantizar su coherencia. Por ello el uso de métodos formales que nos permitan hacer este análisis riguroso es un paso importante en el uso de estos protocolos. Las Redes de Petri Coloreadas Temporizadas (Timed Colored Petri Net (TCPNs)) son una extensión de las redes de Petri que nos permiten modelar variables y tiempos asociados a las mismas, por lo que es un método formal muy adecuado para el análisis de redes de comunicación de sensores. En esta charla se presenta el modelo y análisis del protocolo de comunicación de sensores One Wire usando TCPNs, presentando un estudio completo de dicho protocolo.CV de María Emilia Cambronero Piqueras
La trayectoria investigadora de Mª Emilia Cambronero comienza en Enero de 2002 y se extiende durante algo más de 14 años. Tiene reconocidos dos sexenios de investigación (desde 2004 hasta 2016). El principal campo de aplicación en el que ha trabajado ha sido en servicios web, contratos electrónicos y procesos de negocio, donde he trabajado en incluir/adaptar métodos formales, esencialmente en sistemas distribuidos en tiempo real, así como en el análisis de recursos en este tipo de sistemas. En la actualidad trabaja en métodos formales en verificación para sistemas distribuidos, con comunicaciones asíncronas y restricciones temporales, así como en la definición y análisis formal de comportamiento y uso de recursos en sistemas complejos. Ha realizado estancias en diversos centros de investigación internacionales: Centre for Embedded Software Systems (CISS) de la Universidad de Aalborg (Dinamarca), Cassiopeia: House of Computer Science, en la Universidad de Aalborg, Facultad de Informática de la Universidad Complutense de Madrid y Chalmers University of Technology (Goteborg, Suecia). -
La disciplina del diseño narrativo como el futuro de los videojuegos
Resumen de la conferencia
Es ya obvia la necesidad de contenidos narrativos interactivos variados, dada la facilidad de acceso que proporcionan las plataformas digitales, así como la rápida diseminación de las tecnologías para realidad aumentada y virtual. Los videojuegos llevan décadas generando historias participativas, abordando directamente los problemas que conlleva el integrar la interacción y la narrativa, mientras que los diseñadores de videojuegos aún están experimentando con diferentes modos de crear experiencias narrativas atrayentes en entornos digitales. La disciplina que surge de la tensión entre la historia y la participación se denomina diseño narrativo, y nos proporciona una serie de estrategias que desafían los supuestos principios de la narrativa tradicional y métodos comunes de diseño de juegos. Para facilitar la creación de este nuevo tipo de contenidos, hemos de descartar ciertas ideas preconcebidas sobre la naturaleza de los juegos y la narrativa, para luego concentrarnos en la creación de mundos, el diseño de sistemas narrativos, y la generación de espacios digitales de participación.CV de Clara Fernández Vara
Clara Fernández Vara es Associate Arts Professor en el Game Center de la New York University, donde imparte clases de teoría y narrativa en juegos. Como investigadora, su objetivo es construir puentes interdisciplinares para crear métodos de innovación y abrir camino en el campo del estudio y el desarrollo de videojuegos. Su trabajo se enfoca las estrategias para integrar la narrativa en entornos digitales a través del diseño de la interacción y el espacio, y embarca una variedad de ámbitos, desde las aventuras gráficas a la realidad aumentada y virtual. Clara se licenció en Filología Inglesa en la Universidad Autónoma de Madrid, donde también obtuvo el Diploma de Estudios Avanzados en Literatura Inglesa; posteriormente obtuvo el título de Masters en Comparative Media Studies en el Massachusetts Institute of Technology (MIT). Se doctoró en Digital Media en el Georgia Institute of Technology. Realizó sus estudios de post-doctorado en Singapore-MIT GAMBIT Game Lab, y continuó su trabajo como investigadora visitante en el laboratorio The Trope Tank, ambos en el MIT. Su primer libro, Introduction to Game Analysis, ha sido publicado por la editorial Routledge. -
La evolución de los sistemas software educativos: Los ecosistemas tecnológicos de aprendizaje
Resumen de la conferencia
Una innovación educativa es una suma sinérgica entre crear algo nuevo, el proceso en el que se aplica y la aportación de una mejora como resultado del proceso, y todo ello con una dependencia del contexto en el que se desarrolla y aplica la supuesta innovación. Las innovaciones educativas se pueden clasificar en cuatro categorías no disjuntas. Una de estas categorías hace referencia a la perspectiva institucional que contiene las tendencias más relacionadas con la toma de decisiones, planificación estratégica, gestión de la tecnología y gestión de la propia innovación. En esta categoría se puede destacar como tendencia en la gestión de la tecnología, y también del conocimiento, el concepto de ecosistema tecnológico como evolución de los sistemas software tradicionales. Esta conferencia profundiza en este concepto como soporte a un enfoque de innovación educativo alineado con la estrategia y el gobierno de la universidad, presentando la propuesta DEFINES como un framework para el desarrollo de ecosistemas digitales.CV de Francisco José García Peñalvo
Doctor en Ingeniería en Informática y profesor Titular de Universidad (acreditado a Catedrático de Universidad) del Departamento de Informática y Automática en la Universidad de Salamanca (España). Profesor Distinguido de la Escuela de Humanidades y Educación del Tecnológico de Monterrey (México). Desde 2006, director del Grupo de Investigación Reconocido por la USAL (y Grupo de Excelencia de Castilla y León) GRIAL (GRupo de investigación en InterAcción y eLearning). Director de la Unidad de Investigación Consolidada de la Junta de Castilla y León (UIC 81). Ha sido Vicedecano de Innovación y Nuevas Tecnologías de la Facultad de Ciencias de la USAL (2004 -2007) y Vicerrector de Innovación Tecnológica de esta Universidad (2007-2009). Editor de números especiales en múltiples revistas nacionales e internacionales indexadas en los principales índices de referencia y editor científico de Education in the Knowledge Society (EKS) journal y de Journal of Information Technology Research (JITR). Actualmente Coordinador del Programa de Doctorado en Formación en la Sociedad del Conocimiento de la USAL. ORC I D: orcid.org/ 0 0 0 0 - 0 0 0 1 - 9 9 8 7 - 5 5 8 4. Google Schol a r: http://goo.gl/sDwrr0. -
La Ingeniería Biomédica: de un desconocido comienzo a una madurez imprevista
Resumen de la conferencia
La Ingeniería Biomédica ha pasado de ser un campo poco reconocido a tener máximo interés. La necesidad de encontrar modelos de sistemas fisiológicos, de realizar búsquedas y clasificaciones entre la ingente cantidad de datos medidos en entornos clínico-hospitalarios, del control de procesos clínicos y de desarrollar sistemas la diagnosis han dado lugar a la Ingeniería Biomédica, donde las técnicas más novedosas nacidas de otras áreas aportan soluciones eficientes. En esta conferencia se presentará brevemente algunos logros de la Ingeniería Biomédica de los últimos años, y tres casos estudiados por el Grupo de Control Inteligente de la Universidad del País Vasco: la identificación y clasificación de eventos estresantes en las personas a través del análisis de señales fisiológicas no invasivas; técnicas de Inteligencia Computacional aplicadas a problemas de movilidad en miembros superiores; y finalmente una herramienta basada en Redes Neuronales para la mejora de los procesos de rehabilitación cardiovascular a través de cicloergómetrosCV de Eloy Irigoyen Gordo
El Dr. Eloy Irigoyen Gordo lleva impartiendo clases, simultaneándolo con investigación, en el área de Ingeniería de Sistemas y Automática, desde el año 1993. Ha trabajado en la Universidad Pública de Navarra, Universidad de Deusto y Universidad del País Vasco, donde desempeña actualmente su actividad desde el año 2001. Ha dirigido tres tesis doctorales, dos de ellas en el área de la Ingeniería Biomédica y actualmente dirige otras tres tesis más. En el ámbito de la investigación, el Dr. Eloy Irigoyen Gordo reúne más de 40 publicaciones en revistas de impacto, capítulos de libro, actas de conferencias e informes técnicos. En la actualidad lidera el Grupo de Investigación de Control Inteligente de la Universidad del País Vasco, donde desarrollan investigaciones en dos líneas: Control Inteligente a Ingeniería Biomédica. Además desarrolla parte de su actividad investigadora en diversas asociaciones y organismos como el Comité Español de la Automática, participa como organizador o dentro del comité técnico de diferentes congresos internacionales, realiza tareas de revisor en revistas internacionales con índice de impacto, además de otro tipo de acciones más puntuales. -
Barcelona Supercomputing Center, Generador de Riqueza
Resumen de la conferencia
El Barcelona Supercomputing Center (BSC) fue establecido en 2005 y alberga el MareNostrum, uno de los superordenadores más potentes de España. Somos el centro pionero de la supercomputación en España. Nuestra especialidad es la computación de altas prestaciones - también conocida como HPC o High Performance Computing- y nuestra misión es doble: ofrecer infraestructuras y servicio de supercomputación a los científicos españoles y europeos, y generar conocimiento y tecnología para transferirlos a la sociedad. Somos Centro de Excelencia Severo Ochoa, miembros de primer nivel de la infraestructura de investigación europea PRACE (Partnership for Advanced Computing in Europe), y gestionamos la Red Española de Supercomputación (RES). Como centro de investigación, contamos con más de 456 expertos de 45 países, organizados en cuatro grandes áreas de investigación: Ciencias de la computación, Ciencias de la vida, Ciencias de la tierra y aplicaciones computacionales en ciencia e ingeniería.CV de Mateo Valero
Desde 1983, es catedrático de la Universidad Politécnica de Cataluña (UPC). Ha publicado más de 700 artículos en el área de la arquitectura de los computadores de altas prestaciones. Director del Barcelona Supercomputing Center – Centro Nacional de Supercomputación. Entre sus premios, el premio Eckert-Mauchly 2007, otorgado por el IEEE-ACM; premio Seymour Cray 2015, otorgado por el IEEE; premio “Harry H. Goode” 2009 otorgado por el IEEE; premio ACM Distinguished Service Award 2013; dos premios nacionales de investigación que son: el "Julio Rey Pastor" en Informática y Matemáticas y el “Leonardo Torres Quevedo” en Ingeniería; premio Rey Jaime I de Investigación de la Generalitat Valenciana, “Hall of Fame” en el marco del ICT European Program, seleccionado como uno de los 25 investigadores europeos más influyentes en IT, Tecnologías de la Información. Fellow del IEEE, Fellow distinguido de Intel y Fellow del ACM. Es Doctor Honoris Causa de las Universidades de Chalmers, Belgrado, Las Palmas, Veracruz, Zaragoza, Complutense de Madrid, Cantabria,Granada y CINVESTAV México. -
Swiss-knife Security Kit for Implantable Medical Devices
Resumen de la conferencia
La nueva generación de dispositivos médicos implantables (IMDs) son una realidad, mientras que los problemas de seguridad ligados principalmente a la inclusión de conectividad inalámbrica parece que no han recibido la atención adecuada. La inclusión de mecanismos de seguridad tiene que garantizar un equilibrio entre la seguridad del paciente y la seguridad del propio dispositivo – o lo que es lo mismo, un balance entre el modo de funcionamiento normal y el modo de emergencia. Una vez presentadas las particularidades y riesgos de seguridad de estos dispositivos, se revisaran diferentes soluciones en el contexto de la identificación, establecimiento de claves, generación de números aleatorios, etc.CV de Pedro Peris López
PEDRO PERIS LÓPEZ es Ingeniero de Telecomunicación (2004) y Doctor en Ciencia y Tecnología Informática (2008) por la Universidad Carlos III de Madrid. Durante el periodo comprendido entre octubre del 2004 y diciembre del 2008 fue Profesor ayudante en la Universidad Carlos III de Madrid realizando tanto tareas docentes como de investigación. En enero de 2009 se incorporó, como investigador posdoctoral, a la Delft University of Technology, donde su actividad investigadora fue muy intensa y fortaleció su red de contactos internacionales. Entre septiembre del 2010 y septiembre de 2011 compaginó su actividad en la Universidad de Delft con la de profesor asociado en la Universidad Carlos III donde impartía un día a la semana cursos de grado y máster – en su mayoría en inglés. Desde septiembre de 2011 es profesor Visitante de la Universidad Carlos III de Madrid (COSEC Lab; Departamento de Informática) donde tanto la actividad docente como investigadora han sido muy intensas. En 2016 ha realizado una estancia de investigación, con una duración de 4 meses, en la prestigiosa Universidad de Aalto (Finlandia). Ha recibido el Wikes Award por la revista Computer Journal en 2014 y tres de sus publicaciones han sido galardonadas con el “Best Honorable Mention” en 2015, y el “Best paper Award” en 2014 y 2010, respectivamente. -
Managing Workflows in a Big Data world
Resumen de la conferencia
Big Data is a hot topic across firms these days. Large volumes of data are generated and processed on a daily basis having machine to machine communication as an expected “standard”. At the same time storage becomes less expensive and processing power is getting faster. In this hectic era managing Business Workflows can be a real challenge since algorithms are called to augment decision support on hundreds or thousands of business processes that run in parallel and may depend on each other. This talk will discuss challenges in modern business workflows using Big Data/Machine Learning techniques as well as present intelligent approaches in the context of a real life case study.CV de Stylianos (Stelios) Kapetanakis
Dr Stelios Kapetanakis is an Associate Professor in Business intelligence and Enterprise in the School of Computing, Engineering and Mathematics, University of Brighton. He has a PhD from the University of Greenwich and an MBA in Knowledge and Innovation Management. For the past 12 years Dr Kapetanakis is working closely with EU SMEs and large organisations, having an extended portfolio of Innovate UK funded projects, Research consultancies and EU funding. Dr Kapetanakis has also worked as an independent consultant for the EU Banking sector, the UK Railways, the US Healthcare, Clarksons and Airbus. His research interests include large scale Data Mining and Machine Learning, Case-based Reasoning and Spatial-Temporal reasoning. -
Modelos de Desarrollo Seguro de Software
Resumen de la conferencia
La poca importancia que tradicionalmente se da a la seguridad hace que todas las tareas relacionadas con pruebas de seguridad se releguen a las fases finales del desarrollo del software. Precisamente una gran parte de las vulnerabilidades podrían solucionarse considerando un ciclo de vida del software seguro, donde la seguridad se integre plenamente en todo el proceso de ingeniería del software. Así podrían corregirse errores en los procesos de análisis, diseño y desarrollo de software, evitando que se transformen en errores de implementación en el producto final y, por ende, en vulnerabilidades. Nuestras investigaciones se centran en proponer una metodología propia de desarrollo seguro, adaptada a una Factoría de Software actual (ViewNext en nuestro caso). Para ello, se ha realizado un análisis de metodologías enfocadas al desarrollo de software seguro, identificando las actividades de seguridad fundamentales para cualquier proceso de construcción de software seguro. Junto a estas actividades, se incorporan otras actividades necesarias, conformando así la metodología propia.CV de Andrés Caro Lindo
Andrés Caro, Doctor e Ingeniero en Informática, es Profesor Titular de Universidad en el Departamento de Ingeniería de Sistemas Informáticos y Telemáticos de la Universidad de Extremadura (área de Lenguajes y Sistemas Informáticos). Desde el año 2000 imparte docencia en la Escuela Politécnica (Cáceres), siempre en las titulaciones de Ingeniería e Ingeniería Técnica en Informática. En la actualidad, su docencia se desarrolla en los Grados de Ingeniería Informática (Ingeniería del Software / Ingeniería de Computadores) y en el Máster de Ingeniería Informática, en asignaturas de programación de bases de datos, calidad de procesos y de productos software, auditoría y legislación informática, protección de datos, análisis forense y peritaje informático, hacking ético... Ha participado en la organización de varios cursos de formación del Colegio de Ingenieros en Informática de Extremadura, sobre Auditoría de Sistemas Informáticos, Seguridad Informática, LOPD, Esquema Nacional de Seguridad... Autor de diversos artículos, ponencias e informes periciales, ha sido recientemente premiado (septiembre-2015, en las Jornadas Nacionales de Investigación en Ciberseguridad) por el Instituto Nacional de Ciberseguridad (INCIBE) por uno de sus trabajos, relacionado precisamente con la Informática Forense. -
Resumen de la conferencia
From last four decades of research it is well-established that all electrophysiological signals are nonlinear, irregular and aperiodic. Since those signals are used in everyday clinical practice as diagnostic tools (EMG, ECG, EEG), a huge progress in using it in making diagnostic more precise and even personally oriented medicine, could be made. One of the obstacles is deeply rooted application of linear methods of analysis which are present even in all the machine software for recording of mentioned signals. Health practitioners are used to it. But they are not used to nonlinear methods of analysis of electrophysiological data, although it is proved many times that in comparison to widely accepted FFT. One of examples is very highly accurate method for classification of recurrent depressive disorder by employing nonlinear characterization of EEG and several machine learning methods in order to detect not only patients from controls but also differences between those who suffer from depressive disorders. Clinicians are aware of close to impossible task for present diagnostic tools to make distinction between exacerbation and remission, which is very dangerous deficiency.CV de Milena Cukic
Electroingeneer of biomedical electronics and measurements, she got her PhD from the field of Biophysics and Neuroscience on University of Belgrade. She is Post-Doctoral Fellow on University of Belgrade, and her main interest is the application ofo knowledge from biomedical engineering and nonlinear analysis of electrophysiological data in clinical settings. In her entire education and research several different fields’ interests merged into original ideas of application of knowledge from physics,electrodynamics and theory of complex systems in medical practice. Additionally methods taken from machine learning could be applied with very high accuracy on solving several different medical problems, like depressive disorders detection and classification and movement disorders early prediction and detection. Those methods are not only cost-effective but also computationally fast and easy to implement. Currently she is working on several different project with colleagues form Italy, Serbia, UK, Netherlands and Spain in order to outline a multidisciplinary setting for implementing present knowledge in much more effective clinical diagnostics in psychiatry and neurology. -
Inteligencia Artificial para frenar el ciber espionaje y la ciber delincuencia
Resumen de la conferencia
En los últimos años, se han repetido ciberataques a grandes organizaciones, ya sea con fines lucrativos como los ataques a grandes multinacionales como Visa, MasterCard o Yahoo! que resultaron en el robo de información de sus usuarios, o con motivaciones políticas como los ataques rusos dirigidos a interferir en las últimas elecciones americanas. El daño causado por estos ataques varía, pero puede ser crítico para el correcto funcionamiento de las organizaciones atacadas e incluso para su supervivencia a largo plazo. Es por esto que la seguridad de la información se ha convertido en un área crítica para toda organización. Mediante ejemplos reales, se explicarán conceptos básicos de defensa de la información, así como el concepto de las amenazas persistentes avanzadas (APT). Introduciremos las mayores dificultades a la hora de combatir ciber ataques, así como las tendencias actuales y futuras de la prácticas de ciber seguridad con especial hincapié en las técnicas basadas en inteligencia artificial. Por último, el ponente compartirá su visión personal de las oportunidades actuales de formación, investigación, y de recorrido profesional en el ámbito de la ciber seguridad.CV de Ignacio Arnaldo Lucas
Ignacio Arnaldo es Chief Data Scientist en PatternEx (https://www.patternex.com/), una startup de Silicon Valley que ha desarrollado una herramienta basada en inteligencia artificial para la detección y mitigación de ciber ataques. Anteriormente trabajó como Postdoc en el laboratorio de informática e inteligencia artificial del MIT (CSAIL), donde desarrolló sistemas de software diseñados para optimizar procesos de ciencias de datos. Su investigación ha sido publicada tanto en revistas técnicas de alto impacto como en prensa general (Wired, CBS News). Ignacio es doctor en Informática por la Universidad Complutense de Madrid. -
Resumen de la conferencia
Adaptarse a las nuevas formas de crear y compartir contenidos digitales constituye un reto para la preparación de profesionales en los perfiles emergentes de disciplinas ajenas a la informática y la computación. Los lenguajes y las herramientas de creación digital no están muchas veces pensados para su utilización por parte de usuarios de estos campos. Un reto en el campo de la computación creativa es la posibilidad de incorporar capacidades interactivas multimodales, junto con realidad virtual y realidad aumentada, en las herramientas de autoría con las que se elaboran los materiales y diseños de aprendizaje. El objetivo general de la charla es motivar la investigación sobre la computación creativa, así como mostrar desarrollos diversos alrededor de un marco de trabajo que aspira a fomentar las habilidades de diseño, creación y despliegue de experiencias educativas con capacidades analíticas para el aprendizaje y la evaluación en un contexto multidisciplinar.CV de Juan Manuel Dodero Beardo
Licenciado en Informática por la UPM y doctor en Ingeniería Informática por la UC3M. Profesor Titular del Departamento de Ingeniería Informática de la UCA. Su campo principal de investigación es la ciencia y las tecnologías del software, con especial interés en las tecnologías de mejora del aprendizaje y el diseño de procesos de aprendizaje. En estos campos ha participado y coordinado proyectos nacionales y europeos y generado numerosas publicaciones de impacto y contribuciones a congresos internacionales. En su universidad actual ha sido director de la Oficina de Software Libre y Conocimiento Abierto y coordinador del Máster en Ingeniería Informática. Tiene reconocidos dos periodos de investigación y tres de docencia. -
Bioinformática aplicada al estudio del control de la expresión de genes en el cerebro humano
Resumen de la conferencia
UKBEC (United Kingdom Brain Expression Consortium) has the aim of studying the mechanisms of gene expression regulation in human brain. For that, it works on the creation of regulation models based on (1) expression quantitative trait loci, (2) allele specific expression and (3) co-expression networks. During the first data release from the consortium, braineac.org was created to facilitate sharing results with the research community. Braineac is a database of gene expression and its regulation for 10 brain regions based on samples collected by the Medical Research Council (MRC) Sudden Death Brain and Tissue Bank, Edinburgh, UK from 134 neuro-pathologically normal individuals. Gene expression profiling were based on Affymetrix Human Exon 1.0 ST Arrays. Genotyping were performed with Illumina Infinium Omni1-Quad BeadChip and on Immunochip. We will introduce this resource, currently hosted at Universidad de Murcia, and explain how it can help researchers working on brain diseases. On a second part of the talk, we will focus on the creation of the second release of the Braineac resource, based on RNA-seq technology that allows a genome-wide study of regulation mechanisms.CV de Juan Botía Blaya
Juan A. Botía is Profesor Titular in Universidad de Murcia, Spain. Currently, he enjoys a a research stay as Invited Researcher at Middlesex University, London. His research areas are Machine Learning and Agents and Multi-agent systems. He developed a general framework for meta-learning in this Ph.D. dissertation. He has focused his research to the application of Artificial Intelligence techniques to real world engineering problems. He has applied a number of intelligent techniques (e.g. Neural Networks, Decision Rule Learning, Hidden Markov models, Genetic Algorithms, Fuzzy and Neuro-fuzzy Systems) to the following domains: agriculture, robotics, entertainment, TV broadcasting, telecommunications, home care of elderly people and intelligent buildings. Regarding agents and multi-agent systems, he is centered on the simulation of large agent societies and its application to different issues as human behavior simulation. He has authored and co-authored more than a hundred publications including international journals with high impact, conferences, books and book chapters. -
Competencias del Director de Proyectos en la Cuarta Revolución Tecnológica
Resumen de la conferencia
Estamos asistiendo a una cuarta revolución tecnológica, caracterizada por la proliferación masiva de los sistemas ciberfísicos. La integraciónn de tecnologías como Internet de las Cosas, Cloud Computing, Bid Data, Inteligencia Artificial, Robótica, Impresión 3D, etc., va a cambiar la forma en que se desarrolla nuestra vida, los modelos de negocio y la sociedad en su conjunto. La implementación de esta revolución se desplegará a través de miles de proyectos, que debe ser gestionados eficientemente para conseguir su éxito. En esta conferencia, abordamos cuáles son las competencias profesionales y personales que debe tener un director/a de proyectos para poder abordar la complejidad de este tipo de proyectos, en los que confluyen diferentes tecnologías y profesionales de distintos ámbitos.CV de Javier Pajares
Profesor Titular de la Universidad de Valladolid. Doctor Ingeniero Industrial por la Universidad del País Vasco e Ingeniero Industrial por la Universidad de Valladolid. Realiza su actividad investigadora INSISOC (Social Systems Engineering Centre), grupo de investigación dedicado al modelado, análisis y gestión de sistemas socio-tecnológicos complejos. Sus áreas de especialización son Dirección de Proyectos, Gestión de la I+D+i y Gestión de la Complejidad. Autor de numerosos artículos en revistas científico técnicas, participa y ha participado en diferentes proyectos de I+D+i europeos, nacionales y regionales, así como en proyectos de I+D de financiación privada. Certificado como Director de Proyectos nivel C por la International Project Management Association (IPMA), es evaluador de IPMA-AEIPRO de competencias profesionales en Dirección de Proyectos y vocal de la Asociación Española de Dirección e Ingeniería de Proyectos (AEIPRO). -
Resumen de la conferencia
En esta charla presentaremos las ultimas propuestas del Barcelona Supercomputing Center (BSC) al modelo de programación paralela OpenMP relacionadas con el modelo de tareas. Nos centraremos en las oportunidades que presentan dichas extensiones al runtime que da soporte a la ejecución paralela y al co-diseño de arquitecturas runtime-aware. En la ultima parte de la charla se presentará como dicho modelo basado en tareas forma el eje central de las dos asignaturas de paralelismo en la Facultad de Informatica de Barcelona (FIB) de la Universitat Politècnica de Catalunya (UPC).CV de Eduard Ayguadé
Eduard Ayguadé received the Engineering degree in Telecommunications in 1986 and the Ph.D. degree in Computer Science in 1989, both from the Universitat Politècnica de Catalunya (UPC), Spain. Currently, and since 1997, he is full professor of the Computer Architecture Department at UPC. Prof. Ayguadé is also involved in the Computer Architecture and Technology PhD Program at UPC, where he has (co-)advised more than 20 PhD thesis, in topics related with his research interests: multicore architectures, parallel programming models and their architectural support and compilers for HPC architectures. In these research topics, Prof. Ayguadé has published more than 350 papers and participated in several research projects in the framework of the European Union and research collaborations with companies related with HPC technologies (IBM, Intel, Samsung, Nvidia and Microsoft). Currently Prof. Ayguadé is associated director for research on the Computer Sciences Department at the Barcelona Supercomputing Center (BSC-CNS), the National Center for Supercomputing in Spain located in Barcelona. -
Autonomy for Robotic Planetary Exploration Missions: Perception and Navigation for Autonomous Rovers
Resumen de la conferencia
Robotic space missions are a complex field of study, usually undertaken by national space agencies like NASA, ESA or international consortia. They involve multiple disciplines such as mechanical design, electronics, astronomy, propulsion technology, robotics, artificial intelligence, critical software and Communications. A growing and fundamental requirement in this type of missions is autonomy, understood as the ability of a vehicle to make its own decisions, minimizing the dependence of ground operators. This talk presents an overview of space exploration using robots, focused mainly on their autonomous navigation abilities, which allow vehicles to move from one location on the surface of the planet to another avoiding obstacles and dangers, discussing also the necessary elements to develop and validate this technologyCV de Raúl Correal Tezanos
Raúl Correal obtuvo su tesis doctoral en Ingeniería Informática por la Universidad Complutense de Madrid en al ámbito de la percepción en robótica basada en la aplicación de técnicas de visión estereoscópica para reconstrucción de la estructura tridimensional de la escena. Previamente se graduó en robotics and computer science en la University of Southern California. Actualmente desarrolla su actividad profesional en la empresa IXION basada en la aplicación de temas de robótica, exploración planetaria, visión por computador y vehículos autónomos en diferentes proyectos de I+D+i con una clara transferencia tecnológica. Compatibiliza la actividad profesional con su actividad docente en la Facultad de Informática de la Universidad Politécnica de Madrid. -
Conditional Entropy and Failed Error Propagation in Software Testing
Resumen de la conferencia
In failed error propagation (FEP), an erroneous program state (that occurs in testing) does not lead to an observed failure. FEP is known to hamper software testing, yet it remains poorly understood. If we could, for example, assess where FEP is likely to occur then we might be able to produce more effective notions of test coverage that would incorporate an element of semantics. This talk will describe an information theoretic formulation of FEP that is based on conditional entropy. This formulation considers the situation in which we are interested in the potential for an incorrect program state at statement s to fail to propagate to incorrect output. The talk will explore the underlying idea, metrics that have been defined to try to estimate the probability of FEP, and experimental evaluation.CV de Robert M. Hierons
Rob Hierons received a BA in Mathematics (Trinity College, Cambridge), and a Ph.D. in Computer Science (Brunel University). He then joined the Department of Mathematical and Computing Sciences at Goldsmiths College, University of London, before returning to Brunel University in 2000. He was promoted to full Professor in 2003. Rob Hierons’ main research largely concerns the automated generation of efficient, systematic test suites on the basis of program code, models or specifications. He also has a significant interest in program analysis and automated transformation techniques such as program slicing. He is joint Editor of the Journal of Software Testing, Verification, and Reliability (STVR). He has organised or been on the steering committee of several international conferences and workshops. He has published over 150 papers in international workshops, conferences and journals including in top journals such as SIAM Journal of Computing, IEEE Transactions on Computers, IEEE Transactions on Software Engineering, and ACM Transactions on Software Engineering and Methodology -
Just Enough is More: Achieving Sustainable Performance in Thermally-Constrained Mobile Devices
Resumen de la conferencia
Mobile processors integrate low-power and power-hungry cores together to combine energy efficiency with high performance. While running computationally demanding applications, current system management techniques greedily maximize quality-of-service (QoS) within thermal constraints using power-hungry cores. This talk first shows that such an approach delivers short bursts of high QoS, but also causes severe QoS loss over time due to thermal throttling. To provide mobile users with sustainable QoS over extended durations, we have designed "QScale" at PeacLab. QScale is a novel thermally-e fficient QoS management framework for mobile devices with (heterogeneous) multi-core CPUs. QScale leverages thread heterogeneity and on-chip thermal coupling information during runtime thread allocation. QScale coordinates closed-loop frequency control with its thermally-efficient allocation to deliver the desired QoS with minimal exhaustion of processor thermal headroom. Experiments on state-of-the-art mobile platforms show that QScale meets target QoS levels while minimizing heating, achieving up to 8x longer durations of sustainable QoS.CV de Ayse Kivilcim Coskun
Ayse K. Coskun is an associate professor in the Electrical and Computer Engineering Department at Boston University. She received her MS and PhD degrees in Computer Science and Engineering from University of California, San Diego. Coskun’s research interests include energy-efficient computing, novel computer architectures including using 3D stacking, embedded systems, emerging cooling methods, and intelligent management of data centers. Prof. Coskun has worked at Sun Microsystems (now Oracle), San Diego prior to her current position at BU. Coskun is a recipient of the NSF CAREER award and currently serves as an associate editor for IEEE Transactions on CAD. She also authors a bimonthly column on green computing in the Circuit Cellar magazine. -
Design and Validation of cloud storage systems using Maude
Resumen de la conferencia
To deal with large amounts of data while offering high availability and throughput and low latency, cloud computing systems rely on distributed, partitioned, and replicated data stores. Such cloud storage systems are complex software artifacts that are very hard to design and analyze. We argue that formal specification and model checking should be beneficial during their design and validation. In particular, we propose rewriting logic and its accompanying Maude tools as a suitable framework for formally specifying and analyzing both the correctness and the performance of cloud storage systems. This talk gives an overview of the use of rewriting logic at the University of Illinois' Assured Cloud Computing center on industrial data stores such as Google's Megastore and Facebook/Apache's Cassandra. We also briefly summarize the experiences of the use of a different formal method for similar purposes by engineers at Amazon Web ServicesCV de Peter Csaba Ölveczky
Peter Ölveczky received his PhD in computer science from the University of Bergen, Norway, in 2000, having performed his thesis research at SRI International. He was assistant and then associate professor at the University of Oslo 2001-2008, and has been a full professor there since 2008. He was also a post-doctoral researcher at the University of Illinois at Urbana-Champaign (UIUC) 2002-2004, and has been a visiting researcher at UIUC since 2008. Ölveczky's research focuses on formal methods, in particular for real-time systems. He is the developer of the Real-Time Maude tool, which has been used to formally model and analyze a large range of advanced systems, including scheduling protocols, distributed data stores, wireless sensor network algorithms, the human thermoregulatory system, mobile ad hoc networks, avionics systems, and so on. Ölveczky has organized 10 international scientific workshops/conferences, and has edited a number of scientific books and journal issues. -
Procesamiento de eventos complejos aplicado al ámbito de las smart cities
Resumen de la conferencia
El procesamiento de eventos complejos (CEP) es una tecnología emergente que permite procesar, analizar y correlacionar ingentes volúmenes de datos con el fin de detectar en tiempo real situaciones críticas o relevantes para un dominio en particular. Los lenguajes de procesamiento de eventos (EPL) permiten implementar los patrones de eventos a registrar en motores CEP para detectar dichas situaciones. Para llevar a cabo esta tarea, el usuario debe tener un alto grado de experiencia en estos lenguajes. Sin embargo, los usuarios suelen tener un vasto conocimiento en el dominio para el que se necesitan definir ciertos patrones, pero que son inexpertos tanto en EPL como en el lenguaje requerido para implementar las acciones a ejecutar tras la detección de los eventos en sus sistemas de información. En esta charla, se introducirán los fundamentos de esta tecnología y se presentarán varios casos prácticos en el ámbito de las smart cities haciendo uso de MEdit4CEP, una solución dirigida por modelos para CEP en arquitecturas orientadas a servicios y dirigidas por eventos.CV de Juan Boubeta-Puig
Juan Boubeta-Puig es Doctor en Ingeniería y Arquitectura por la Universidad de Cádiz (UCA, 2014). En 2009, se incorporó como profesor al Departamento de Ingeniería Informática de la UCA, donde continúa actualmente su labor docente e investigadora. Además, es miembro del grupo de investigación UCASE (Software Engineering Research Group), donde desarrolla su labor investigadora centrándose en el procesamiento de eventos complejos en arquitecturas orientadas a servicios y dirigidas por eventos (SOA 2.0), el Internet de las cosas y el desarrollo dirigido por modelos de interfaces de usuario avanzados. Cuenta con numerosas publicaciones en foros y revistas internacionales de reconocido prestigio. Ha recibido el Premio Extraordinario de Doctorado en el Área de Ingeniería y Arquitectura de dicha Universidad, y el Premio Nacional a la Mejor Tesis Doctoral 2016 en el ámbito de la Sociedad de Ingeniería de Software y Tecnologías de Desarrollo Software (SISTEDES).
-
Parallel programming for resiliency and energy efficiency in HPC
Resumen de la conferencia
The quest for higher energy-efficiency in future HPC systems is strongly connected with the need for enhanced resilience as resilience techniques have a non-trivial energy cost. In addition, ongoing efforts to further improve the energy-efficiency at the device level (such as operating hardware below its nominal margins or replacing DDR technology with non-volatile memory technologies) may compromise hardware reliability, asking for solutions in the software. In this talk we will review the interactions between reliability and energy efficiency in HPC linear algebra libraries, by discussing a collection of techniques such as software fault tolerance, approximate computing, asymmetry-aware scheduling, and thread-level malleability.CV de Enrique S. Quintana-Ortí
Enrique S. Quintana Orti received his Ph.D. degree from the UPV, in Valencia, Spain, in 1996. Currently, he is full professor in Computer Architecture at Universidad Jaime I of Castellon, Spain. His research is focused in high performance computing, having published 300+ research papers. He has also served on the program committees for 50+ international Conferences in the field of high performance computing, and is currently Subject Area Editor for Parallel Computing. In the last 5 years, he has also participated in two H2020 EU projects, on Energy Efficiency for Numerical Libraries and Approximate Computing. Enrique received the 2008 NVIDIA Professor Partnership Award as well as two Awards from NASA (National Aeronautics and Space Administration) for his technical contributions in the area of resilient linear algebra libraries. -
Modeling and machine learning for estimation, simulation, and optimization
Resumen de la conferencia
Currently, we observe a certain hype around big data technologies. The exponential amounts of data generated and stored globally offer huge potentials for new products and services and have reignited interest in machine learning and artificial intelligence. However, many jump onto the machine learning bandwagon without a clear understanding of the underlying concepts and believe that given enough data, ML can be used to solve all kinds of problems automatically. In this talk I’ll give an introduction to the fundamentals of data-based modeling, simulation and optimization with examples of real-world applications in engineering. I’ll describe alternative approaches for systems optimization to highlight situations where data-based modeling and simulation are especially effective and I’ll describe methods for data-based modeling briefly. Practical examples will be demonstrated using HeuristicLab – an open source software environment for heuristic optimization (http://dev.heuristiclab.com).CV de Gabriel Kromberger
Dr. Gabriel Kronberger has studied informatics and technical sciences at the Johannes Kepler University in Linz and has worked as a research assistant in the Heuristic and Evolutionary Algorithms Laboratory (HEAL) at the University of Applied Sciences Upper Austria where he also completed his dissertation on Symbolic Regression for Knowledge Discovery. Currently, he is professor for data engineering and business intelligence at the School for Informatics, Communication and Media at the University of Applied Sciences Upper Austria. His main topic of research are algorithms for identification and optimization of empirical models, especially identification of symbolic regression models using genetic programming. He is in active collaboration with several international companies using symbolic regression techniques for modeling and optimization. -
Aplicaciones HPC para planeamiento rural y visualización masiva de datos
Resumen de la conferencia
La computación de altas prestaciones (HPC) proporciona la posibilidad de realizar simulaciones sobre conjuntos masivos de datos en múltiples ámbitos científicos, dando lugar además a experiencias de trabajo multidisciplinares que amplían de forma sustancial el potencial de impacto a nivel social de las tecnología HPC. En esta charla se presentan algunas de estas aplicaciones y su despliegue sobre recursos HPC desarrolladas dentro del Grupo de investigación en Arquitectura de Computadores de la Univ. de A Coruña, haciendo énfasis en aquellas centradas en el planeamiento rural y la visualización de datos LiDAR ((Light Detection and Ranging).CV de Ramón Doallo
Arquitectura de Computadores desde 1994. Posee 28 años de experiencia investigadora en las áreas de arquitectura de computadores, supercomputación, computación paralela y distribuida, cloud computing, procesamiento Big Data, y sistemas de información geográfica. Ha publicado en estos campos más de 200 artículos en revistas y congresos internacionales, y ha dirigido 10 tesis doctorales. Sus publicaciones incluyen 80 artículos en revistas JCR , 42 de ellas publicadas en los últimos cinco años, así como numerosos trabajos en congresos de gran prestigio en su área . A fecha 06/04/2016 sus publicaciones han recibido un total de 5193 citas en Google Scholar. Ha participado en 118 acciones de I+D públicas y privadas (proyectos, contratos, redes…), en 78 de ellas como Investigador Principal. De estas acciones, 61 se corresponden con contratos con empresas y administraciones públicas. -
Resumen de la conferencia
The soul is defined as a “distinguishing mark of living things, responsible for planning and practical thinking”. Logic has been present in the origin and many important developments in Computer Science. Hilbert’s quest for effective methods to mechanically prove theorems stimulated some of the brightest minds of the 20th century to prove it unfeasible. Eigthy years ago, Church and Turing advanced the thesis that lambda calculus and a-machines formalize the notion of effective method, and displayed sentences which could not be proved or disproved. This was the end of Hilbert’s dream and the birth of Computer Science. The Universal Turing Machine became the abstract model of our current notion of computer. Since then, we can find logic wired into the electronic devices that make computers alive; providing a communication language with the computer; guiding verification methods to prove programs correct; and providing the basis for the semantic web. We’ll review these epiphanies so you’ll be hopefully ready to agree that Logic is the Soul of Computer Science.CV de Salvador Lucas Alba
Salvador Lucas es Catedrático de Lenguajes y Sistemas Informáticos de la Universidad Politécnica de Valencia. Ha publicado más de 100 trabajos en revistas y conferencias internacionales, y ha participado en varios comités científicos y editoriales de ámbito internacional. Su actividad investigadora se centra en el desarrollo de técnicas para mejorar la fiabilidad y eficiencia del software; el empleo de métodos rigurosos, con una sólida base matemática, ha sido fundamental en la metodología utilizada para abordar dicho objetivo. El estudio de procesos automáticos para mejorar la eficiencia y garantizar las buenas propiedades de los sistemas software también ha sido una constante en su trabajo. Su investigación ha intentado siempre que los resultados teóricos se vieran reflejados en herramientas que cualquier usuario interesado en el tipo de problemas abordados pudiera utilizar con facilidad. Las más recientes están disponibles como aplicaciones web, siendo a menudo el resultado de un esfuerzo conjunto de estudiantes e investigadores a lo largo de muchos años. -
Languages, ontologies and automatic grammar generation
Resumen de la conferencia
In this talk I intend to review some basic and high-level concepts like formal languages, grammars and ontologies. Languages to transmit knowledge from a sender to a receiver; grammars to formally specify languages; ontologies as formals specifications of specific knowledge domains. After this introductory revision, enhancing the role of each of those elements in the context of computer-based problem solving (programming), I will talk about a project aimed at automatically infer and generate a Grammar for a Domain Specific Language (DSL) from a given ontology that describes this specific domain. The transformation rules will be presented and the system, Onto2Gra, that fully implements that "Ontological approach for DSL development" will be introduced.CV de Pedro Rangel Henriques
Pedro Rangel Henriques got a degree in "Electronics Engineering", at FEUP (Porto University), and finished a Ph.D. thesis in "Formal Languages and Attribute Grammars" at Minho University. In 1981 he joined the Computer Science Department of University of Minho, where he is a teacher/researcher. Since 1995 he is the coordinator of the "Language Processing group" at "Algoritmi Research Center". He teaches different courses in the broader area of programming: Programming Languages and Paradigms; Compilers; Language Engineering; etc. Grammar Engineering and Software Analysis and Transformation; etc. Pedro Rangel Henriques has supervised 13 Ph.D. thesis, and more than 30 M.Sc. thesis, and many graduating trainingships/projects, in the areas of: language processing (textual and visual), and structured document processing; code analysis, program visualization/animation and program comprehension; knowledge discovery from databases, data-mining, and data-cleaning. He is co-author of the "XML & XSL: da teoria a prática " book, publish by FCA in 2002, has published 6 chapters in books, and 26 journal papers, and has been enrolled in 28 R&D projects -
Analyzing large multimedia collections in an urban context
Resumen de la conferencia
In this talk I will consider the analysis of social media data in an urban context, in particular we look at textual data, visual data and all their metadata to understand social and business phenomena. Analyzing such complex and diverse data poses major challenges for the analyst as the insight of interest is a result of an intricate interplay between the different modalities, their metadata and the evolving knowledge the analyst has about the problem. Our multimedia analytics solutions brings together automatic multimedia analysis and information visualization to give the analyst the optimal opportunities to get insight in complex datasets and use them in applications such as recommending venues to tourists, measuring the effect of city marketing campaigns, or seeing how social multimedia redefines urban borders.CV de Marcel Worring
Marcel Worring is a professor in Data Science for Business Analytics at the University of Amsterdam. He has affiliations with both the Amsterdam Business School and the Informatics Institute. In addition to this he is one of the associate directors of Amsterdam Data Science an organization bringing together researchers from four research institutes in Amsterdam (Amsterdam University of Applied Sciences, Center for Mathematics and Computer Science, VU University Amsterdam, University of Amsterdam). He is an active research in the area of multimedia with over 200 publications in the field. His research interests are in multimedia analytics bringing together visual analytics and multimedia analysis and realizing the highest synergy between the two. Among other activities he is one of the general chairs of the ACM Multimedia 2016 in Amsterdam, the leading conference on the topic. -
Sin dejarse atrás términos lambda-valor resolubles
Resumen de la conferencia
El cálculo lambda es bien conocido por su importancia en la teoría de la computabilidad así como en el estudio de los lenguajes de programación y sistemas de demostración asistida. Un concepto fundamental del cálculo lambda puro es la de término resoluble. Un término resoluble es aquel cuya reducción o bien termina (tiene forma normal) o bien aunque la reducción del mismo no termina, su aplicación a argumentos termina (es decir, el término es operacionalmente relevante al usarse como función). Los términos irresolubles son operacionalmente irrelevantes y pueden igualarse manteniendo la consistencia de la teorías lógicas de reducción y conversión del cálculo (lo que no ocurre con los términos sin forma normal). El cálculo lambda-valor fue introducido para dar fundamento teórico a los lenguajes funcionales con paso de parámetro por valor. Existe una definición de resolubilidad para dicho cálculo que es problemática entre otras cosas porque hay términos en forma normal que son irresolubles, y las teorías lógicas resultantes no son "del todo" consistentes. En esta charla dirigida a no expertos introduciré el cálculo lambda, la resolubilidad, el cálculo lambda-valor, y la definición de resolubilidad existente para este último. Después mostraré una definición alternativa de resolubilidad para lambda-valor que, entre otros resultados, permite dar una teoría lógica consistente igualando los irresolubles según un orden. El trabajo aparecerá publicado en la revista Logical Methods in Computer Science.CV de Pablo Nogueira Iglesias
Pablo Nogueira es doctor en informática por la Universidad de Nottingham (Reino Unido) y ha sido Profesor Ayudante Doctor en la ETSI Informáticos de la UPM hasta su incorporación como investigador en el Instituto IMDEA Software. Es también miembro del grupo de investigación Babel de la UPM. Pablo Nogueira ha publicado trabajos en diferentes subareas del campo de los lenguajes de programación tales como la programación genérica funcional, tipos abstractos, depuración guiada por demostraciones, algebra relacional y unificación, verificación y optimización mediante transformación de programas, semántica operacional y cálculo lambda. -
Towards dynamic updates in service composition
Resumen de la conferencia
We present adaptable processes as a way of overcoming the limitations that process calculi have for describing patterns of dynamic process evolution. Such patterns rely on direct ways of controlling the behavior and location of running processes, and so they are at the heart of the adaptation capabilities present in many modern concurrent systems. Adaptable processes have named scopes and are sensible to actions of dynamic update at runtime; this allows us to express dynamic and static topologies of adaptable processes as well as different evolvability patterns for concurrent processes. We then consider distributed adaptability, where a process can update part of a protocol by performing dynamic distributed updates over a set of protocol participants. Dynamic updates in this context are presented as an extension of our work on choreographies and behavioural contracts in multiparty interactions. We show how update mechanisms considered for adaptable processes can be used to extend the theory of choreography and orchestration/contracts, allowing them to be modified at run-time by internal (selfadaptation) or external intervention.CV de Mario Bravetti
Mario Bravetti is an Associate Professor (with national Full Professor habilitation) at the Computer Science and Engineering Department of University of Bologna. He is also member of the FOCUS (FOundations of Component-based Ubiquitous Systems) team which is part of the INRIA Sophia Antipolis - Méditerranée research center. He he is cofounder and member of the steering committee of the international workshop on Web Services and Formal Methods (WS-FM). He has been organizer/program committee chair of several international conferences and events, such as the 11th International Conference on Software Engineering and Formal Methods (SEFM 2013), the 20th International conference on Concurrency Theory (CONCUR 2009), and the meeting on the 25th anniversary of Process Algebra. His current research interests include behavioural contracts for service composition. -
Desarrollo de robots sociales con RoboComp
Resumen de la conferencia
El diseño, construcción y desarrollo de robots sociales que convivan con los humanos facilitándoles sus condiciones de vida es uno de los retos tecnológicos más importantes de la actualidad. En esta presentación describiremos el camino seguido en esta línea desde RoboLab a través de un framework de desarrollo para robótica basado en componentes llamado RoboComp, de fuentes abiertas y creado durante los últimos 10 años en colaboración con varias universidades del país. Se presentarán brevemente los diferentes tipos de robots sociales que construidos en RoboLab, su uso y evolución con el tiempo. Todos ellos se han desarrollado sobre RoboComp que proporciona un conjunto de herramientas para asistir en el ciclo de vida de los componentes software. Entre éstas, se cuenta con un generador de código que usa varios lenguajes específicos de dominio para definir la conectividad y parte de la funcionalidad de los componentes. Finalmente, se describirá el estado actual de la nueva arquitectura cognitiva CORTEX, desarrollada sobre RoboComp y que, en colaboración con varios grupos de robótica, está siendo implementada y probada en varios proyectos y nuevos robots.CV de Pablo Bustos García de Castro
El Dr. Pablo Bustos es Ingeniero en Informática por la Universidad Politécnica de Madrid (1992) y doctor en Informática por la misma Universidad (1998). Desde 1989 a 1999 trabajó en el Instituto de Automática Industrial del Consejo Superior de Investigaciones Científicas, realizando allí la tesis doctoral durante la cual construyó su primer robot autónomo. Durante ese periodo realizó varias estancias de investigación en centros como la Universidad Heriot-Watt de Edimburgo con el profesor Robert L. Heuben, en el IMPAQT Center de la Universidad de Drexel, Philadelphia EEUU con el profesor Alex Meystel y en el Active Vision Laboratory de la Universidad de Oxford con el profesor Ian Reid, todas ellas financiadas en convocatorias públicas competitivas. Actualmente es profesor titular del área de Arquitectura y Tecnología de Computadores en la Universidad de Extremadura donde imparte clases de Robótica en la Escuela Politécnica de Cáceres y donde también codirige el Laboratorio de Robótica y Visión Artificial, RoboLab. Ha dirigido 4 tesis doctorales y cuenta con más de 100 publicaciones, de las cuales 22 son revistas internacionales y 7 capítulos de libro. Ha participado en más de 30 proyectos europeos y nacionales, dirigido 10 proyectos de investigación nacional, donde caben destacar cuatro proyectos financiados por el Plan Nacional de Investigación, un proyecto en la convocatoria INNPACTO y uno en el Plan Avanza I+D. También ha dirigido varios proyectos financiados por la Universidad y ocho proyectos de transferencia con empresas. Es revisor habitual de revistas y de congresos internacionales. Cabe destacar también la organización de diversos eventos tanto científicos como docentes en áreas como la introducción de la Robótica en la enseñanza primaria y secundaria, el desarrollo de la agro-tecnología en la Comunidad de Extremadura o el proyecto institucional SmartPoliTech, actualmente en desarrollo en la Escuela Politécnica de la Uex. Ha organizado el Workshop de Agentes Físicos en 2009. Ha sido miembro del comité de programa de varios congresos nacionales y es editor asociado de la revista JOPHA. -
Ingeniería informática, automática y robótica claves de la agricultura del futuro
Resumen de la conferencia
La población mundial, alrededor de 7.300 millones de personas, aumenta en 3 nuevos individuos cada segundo, lo que supone un total de 240.000 personas más por día. A este ritmo en 2050 la población mundial será de aproximadamente 9.600 millones de personas; 1.000 millones más de bocas que alimentar en los próximos 12 años. Las predicciones apuntan a la necesidad de incrementar en un 70% la producción de alimentos con el fin de responder al ritmo de crecimiento de la población. Esta producción masiva, reduciendo a la vez el consumo de agua y pesticidas, es un reto excepcional en el que el desarrollo y uso de la alta tecnología será esencial.CV de Ángela Ribeiro Seijas
Ángela Ribeiro ha desarrollado su carrera de investigación en el CSIC desde 1990. En 2010 se integró en el Centro de Automática y Robótica (CSIC-UPM) donde es coordinadora de la Unidad de Investigación en Percepción Artificial. Desde 2007 es el líder del Grupo de Percepción Artificial. Sus intereses de investigación incluyen la percepción artificial, el reconocimiento de patrones, la visión artificial, la computación evolutiva, la representación del conocimiento espacial, el razonamiento espacial para los sistemas de apoyo a la toma de decisión, los sistemas distribuidos, la inteligencia colectiva, la robótica colectiva, y los sistemas multi-robot. Es autora de más de un centenar de publicaciones en revistas y actas, y varios capítulos de libro. Ha impartido diversos cursos de máster y doctorado en diferentes universidades nacionales e internacionales. Ha dirigido numerosos proyectos de investigación relacionados con la aplicación de las técnicas anteriores a la Agricultura de Precisión. Ha sido la Directora Científica y Técnica del proyecto europeo RHEA (Robot Fleets for Highly Effective Agriculture and Forestry Management - http: //www.rhea- project.eu). Actualmente es coeditora jefe de la revista “Computers and Electronics in Agriculture”. -
Investigación en Ingeniería Neural y Cognitiva
Resumen de la conferencia
En esta conferencia se describirán los trabajos de investigación más recientes en el área de la ingeniería neural y cognitiva en este grupo del CSIC en los que se abordan métodos y tecnologías para la rehabilitación física y cognitiva, interfaces hombre-máquina, modelado computacional y tratamiento de información neurofisiológica desde una perspectiva integral y orientada al reto social de salud y bienestar del ser humano.CV de María Dolores del Castillo Sobrino
M.ª Dolores del Castillo, Dra. en Ciencias Físicas e investigadora del CSIC, ha centrado sus trabajos de investigación y desarrollo en el campo del aprendizaje automático y su aplicación en el descubrimiento de conocimiento, en arquitecturas cognitivas para aprendizaje multiestratégico, en el tratamiento inteligente de la información digital, en modelos computacionales de procesos cognitivos como la toma de decisiones o el lenguaje y en el análisis de datos neurofisiológicos para construir modelos de comportamiento. En todo ello ha buscado siempre, a través de los distintos proyectos que han sustentado sus trabajos y de las publicaciones generadas, la transferencia de conocimiento y su aplicación práctica en distintos sectores de la sociedad. -
Métodos computacionales para el estudio de modelos epidemiológicos con incertidumbre
Resumen de la conferencia
La introducción de la incertidumbre en modelos epidemiológicos es un área de incipiente actividad en la actualidad. En la mayor parte de los enfoques adoptados se asume un comportamiento gaussiano en la formulación de dichos modelos a través de la perturbación de los parámetros vía el proceso de Wiener o movimiento browiniano u otro proceso discretizado equivalente. En esta conferencia se expone un método alternativo de introducir la incertidumbre en modelos de tipo epidemiológico que permite considerar patrones no necesariamente normales o gaussianos. Con el enfoque adoptado se determinará en contextos epidemiológicos que tienen un gran número de aplicaciones, la primera función de densidad de probabilidad del proceso estocástico solución. Esto permite la determinación exacta de la respuesta media y su variabilidad, así como la construcción de predicciones probabilísticas con intervalos de confianza sin necesidad de recurrir a aproximaciones asintóticas, a veces de difícil legitimación. El enfoque adoptado también permite determinar la distribución probabilística de parámetros que tienen gran importancia para los epidemiólogos, incluyendo la distribución del tiempo hasta que un cierto número de infectados permanecen en la población, lo cual, por ejemplo, permite tener información probabilística para declarar el estado de epidemia o pandemia de una determinada enfermedad. Finalmente, se expondrá algunos de los retos computacionales inmediatos a los que se enfrenta la técnica expuesta.CV de Juan Carlos Cortés López
Juan Carlos Cortés López es catedrático de universidad en el área de Matemática Aplicada y su principal línea de investigación son las ecuaciones diferenciales con incertidumbre y su aplicación a la modelización, prestando especial atención al desarrollo de métodos computacionales. Actualmente ocupa la subdirección del Instituto Universitario de Matemática Multidisciplinar de la Universitat Politécnica de València. Es autor de más de 80 artículos de investigación publicados en revistas internacionales, 70 de los cuales están indexados en revistas del JCR (Journal Citation Report). Ha sido organizador de 6 congresos internacionales y ha formado parte del comité científico en 12 congresos internacionales. Ha sido editor invitado de diferentes revistas internacionales indexadas en JCR (Journal of Computational and Applied Mathematics, Mathematical and Computer Modelling, etc.). Ha sido Investigador Principal de diferentes proyectos de investigación, siendo en la actualidad co-Investigador Principal del Proyecto “Ecuaciones Diferenciales Aleatorias: Teoría y Aplicaciones” (MTM2013-41765-P). -
¿Pueden los androides aprender lo que es una oveja mecánica?
Resumen de la conferencia
Los diferentes métodos de aprendizaje automático se pueden clasificar de varias maneras. Una de ellas distingue entre métodos discriminativos y generativos. En esta charla daremos una visión global de ambos, repasando sus ventajas, inconvenientes y aplicaciones más frecuentes; aunque nos detendremos un poco más en los métodos generativos, mostrando las técnicas más usuales y algunas novedades. El recorrido nos llevará por métodos como Máquinas de Vectores Soporte, Redes Neuronales, Modelos ocultos de Markov o Redes bayesianas; y aplicaciones como reconocimiento del habla, reconocimiento facial, secuenciación genética, detección de fraude en comercio electrónico o vigilancia de pacientes en la UCI. Al final de la charla reflexionaremos brevemente sobre hasta qué punto es acertado decir que la máquina está aprendiendo.CV de Alfredo Cuesta Infante
Alfredo Cuesta es Profesor Visitante en el Departamento de Informática y Estadística de la Universidad Rey Juan Carlos. Su investigación actual está centrada en modelos generativos, con aplicaciones en predicción, clasificación y agrupamiento. Ha publicado en artículos en revistas indexadas (JCR) y congresos de reconocido prestigio (Core A y A*). Ha participado en diferentes proyectos de investigación con aplicaciones en control bajo incertidumbre, estimación de recursos eólicos, ciberseguridad y visión artificial; colaborando con grupos tanto de España como de EEUU. Cabe destacar que tiene reconocida una patente en España y otra en EEUU en la última fase de evaluación. -
Like Alice in Wonderland: Unraveling reasoning and cognition using analogies and concept blending
Resumen de la conferencia
Analogy is one of the most studied representatives of a family of non-classical forms of reasoning working across different domains, usually taken to play a crucial role in creative thought and problem-solving. In the first part of the talk, I will shortly introduce general principles of computational analogy models (relying on a generalization-based approach to analogy-making). We will then have a closer look at Heuristic-Driven Theory Projection (HDTP) as an example for a theoretical framework and implemented system: HDTP computes analogical relations and inferences for domains which are represented using many-sorted first-order logic languages, applying a restricted form of higher-order anti-unification for finding shared structural elements common to both domains. The presentation of the framework will be followed by a few reflections on the "cognitive plausibility" of the approach motivated by theoretical complexity and tractability considerations. In the second part of the talk I will discuss an application of HDTP to modeling essential parts of concept blending processes as current "hot topic" in Cognitive Science. Here, I will sketch an analogy-inspired formal account of concept blending —developed in the European FP7-funded Concept Invention Theory (COINVENT) project— combining HDTP with mechanisms from Case-Based Reasoning.CV de Tarek Besold
Tarek R. Besold (https://sites.google.com/site/tarekbesold/) is a PostDoc in the KRDB Research Centre at the Faculty of Computer Science of the Free University of BozenBolzano (South Tyrol, Italy). Before that, he was a member of the AI Research Group at the Institute of Cognitive Science of the University of Osnabrück (Germany), and an academic visitor at the Centre for Intelligent Systems and their Applications (CISA) within the School of Informatics at the University of Edinburgh (Scotland, UK). Among his main fields of scientific interest are cognitively-inspired forms of non-classical reasoning, human-level Artificial Intelligence, neural-symbolic integration, and computational creativity. -
A transformational approach to resource analysis with typed-norms
Resumen de la conferencia
In order to automatically infer the resource consumption of programs, analyzers track how data sizes change along a program’s execution. Typically, analyzers measure the sizes of data by applying norms which are mappings from data to natural numbers that represent the sizes of the corresponding data. When norms are defined by taking type information into account, they are named typed-norms. We define a transformational approach to resource analysis with typed-norms. The analysis is based on a transformation of the program into an intermediate abstract program in which each variable is abstracted with respect to all considered norms which are valid for its type. We also sketch a simple analysis that can be used to automatically infer the required, useful, typed-norms from programs.CV de Raúl Gutiérrez
Raúl Gutiérrez Gil es doctor en informática desde 2010 por la Universitat Politècnica de València en el programa "Programación declarativa e ingeniería de la programación", cuya tesis fue dirigida por el catedrático Salvador Lucas. Durante su tesis llevó a cabo varias estancias largas en la RWTH Aachen con el catedrático Jürgen Giesl, trabajando en la adaptación del marco de pares de dependencia a la reescritura sensible al contexto. Además, durante su tesis colaboró con el profesor Xavier Urbain, de la Université Paris-Sud, en la modularidad de la terminación de la reescritura sensible al contexto. Una vez acabada su tesis, fue contratado por el catedrático de universidad José Meseguer en la University de Illinois at Urbana-Champaing, donde estuvo algo más de dos años trabajando en la construcción de un nuevo demostrador de teoremas para Maude basado en resolución. Durante ese periodo, colaboró con Mark E. Stickel en la definición de la estructura del nuevo demostrador de teoremas. En 2013, al acabar su estancia en Urbana-Champaign, es contratado por el grupo de la profesora Elvira Albert de la Universidad Complutense de Madrid, en la que trabaja en la definición de un nuevo tipo de normas para medir la complejidad de programas concurrentes. En 2014, obtiene una beca Juan de la Cierva del Ministerio de Economía y Competitividad con el grupo de investigación del catedrático Salvador Lucas en la Universitat Politècnica de València, donde la investigación se centra en el desarrollo de técnicas para la automatización de la terminación operacional de programas Maude y la resolución de restricciones usando dominios convexos. -
Cognitive computers: the next wave of computing innovation
Resumen de la conferencia
The computing ecosystem is at the verge of an important transformation. After the pioneer large computer systems, a first revolution was sparked by the personal computer by making computing accessible to every single person not only at work but also at home for personal uses. These personal computers have evolved to more powerful and smaller systems and have expanded into a variety of form factors such as ultrabooks, tablets and smartphones. These personal devices, or evolutions of them, will keep being important systems for the end-user in the future, but at the same time, a new generation of computing devices are emerging. We envision a world where computing will expand from business and personal uses to be present everywhere: in our cars, in the lighting system of a city, in our shoes, and in the clothes we wear just to name a few. These devices will be interconnected and interoperable, will have the capability of understanding the world around them and provide real time responses in complex situations, emulating human perception and problem solving. In this talk we will discuss this trend and some of the research areas that will be key to make this vision a reality.CV de Antonio González
Antonio González received his Ph.D. degree from the UPC, in Barcelona, Spain, in 1989. He joined the faculty of the Computer Architecture Department of UPC in 1986 and became a Full Professor in 2002. He was the founding director of the Intel Barcelona Research Center from 2002 to 2014. His research has focused on computer architecture. In this area, Antonio holds over 40 patents, has published over 300 research papers and has given over 100 invited talks. He has also made multiple contributions to the design of the architecture of several Intel processors. Antonio has been program chair for ICS 2003, ISPASS 2003, MICRO 2004, HPCA 2008 and ISCA 2011, and general chair for MICRO 2008 and HPCA 2016 among other symposia. He has served on the program committees for over 100 international symposia in the field of computer architecture, and as an Associate Editor of the IEEE Transactions on Computers, IEEE Transactions on Parallel and Distributed Systems, IEEE Computer Architecture Letters, ACM Transactions on Architecture and Code Optimization, ACM Transactions on Parallel Computing, and Journal of Embedded Computing. Antonio’s awards include the award to the best student in computer engineering in Spain graduating in 1986, the 2001 Rosina Ribalta award as the advisor of the best PhD project in Information Technology and Communications, the 2008 Duran Farrell award for research in technology, the 2009 Aritmel National Award of Informatics to the Computer Engineer of the Year, the 2013 King James I award for his contributions in research on new technologies, and the 2014 ICREA Academia Award. He is an IEEE Fellow. -
Generación automática de contenidos para videojuegos mediante programación genética
Resumen de la conferencia
La pujante industria del videojuego requiere de amplios equipos de diseño y programación capaces de crear todos los contenidos necesarios para que los productos de calidad tengan éxito en el mercado: gráficos, sonido, mundos virtuales, argumento, guiones... Cada vez más se hace necesaria la utilización de métodos que permitan generar los contenidos de forma semiautomática, liberando así a los equipos de diseño y desarrollo de tareas que puedan ser mecanizables, y reduciendo por tanto los costes de desarrollo. En esta conferencia revisaremos la aplicación de técnicas evolutivas a la generación de contenidos. En particular hablaremos de Programación Genética y sus aplicaciones para crear familias de terrenos.CV de Francisco Fernández de Vega
Profesor Titular de la Uex en el área ATC de la Universidad de Extremadura. Licenciado en Informática por la Universidad de Sevilla en 1993, y Doctorado Europeo y premio extraordinario de Doctorado por la Universidad de Extremadura en 2001. Su investigación se centra en el estudio de modelos de cómputo paralelo y distribuido para la mejora de Algoritmos Bioinspirados, con aplicaciones en el mundo del Arte y la Música. Ha publicado más de 200 artículos científicos en revistas y congresos de impacto, y a editado números especiales en las revistas Soft Computing, Parallel Computing, Journal of Parall Journal of Parallel and Distributed, Natural Computing y ha editado los libros Parallel and Distributed Computational Intelligence and Parallel Architectures and Bioinspired Algorithms, con Springer. Actualmente es co-chair de la Task Force on Creative Intelligence, IEEE Computational Intelligence Society, y co-chair of EvoPar, parte de EvoApplications, la más relevante conferencia europea sobre aplicaciones de los algorithmos evolutivos. Su trabajo en el mundo de la creatividad, arte y videojuegos fue premiado con el 2013 ACM GECCO Art, Design and Creativity Competition. Dirigió el desarrollo del videojuego Chapas, primer videojuego 3D realizado en Extremadura con Software Libre. -
Tendencias de uso y diseño de redes de interconexión en computadores paralelos
Resumen de la conferencia
Los computadores actuales, desde los sistemas on-chip de los móviles hasta los más potentes supercomputadores, son paralelos. La escala va desde los 8 cores de un móvil hasta los millones desplegados por los grandes superomputadores. La necesidad de hacer visible la memoria del sistema a cada uno de sus cores se resuelve, independientemente de la escala, interconectando todos los cores con el rendimiento adecuado a unos costes acotados. En los sistemas de menor escala (MPSoCs), la memoria se comparte usando redes on-chip que transportan líneas de cache y comandos de coherencia. Unos pocos MPSoCs se interconectan formando servidores que usan mecanismos para extender la coherencia y compartir memoria usando una arquitectura CC-NUMA. Decenas de estos servidores se apilan en un rack y un número de racks (hasta centenares) constituyen un datacenter o un supercomputador. La memoria global resultante no puede ser compartida, pero sus contenidos son transferibles mediante el envío de mensajes a través de la red de sistema. Por ello, las redes son sistemas críticos y básicos en las arquitecturas de memoria de los computadores de cualquier gama. En esta charla se ofrecerá una visión argumentada de las elecciones que hacen diferentes fabricantes para el despliegue de las redes on-chip y de sistema que interconectan los computadores actuales.CV de Ramón Beivide
Ramón Beivide es doctor en Informática por la Universidad Politécnica de Cataluña (en 1.985) y catedrático de Arquitectura y Tecnología de Computadores de la Universidad de Cantabria (desde 1.991). Ha sido previamente profesor en las Universidades Autónoma de Barcelona, Politécnica de Cataluña y del País Vasco. Coordina, desde 1.991, el grupo de investigación de Arquitectura y Tecnología de Computadores de la Universidad de Cantabria que trabaja en temas relacionados con la arquitectura e ingeniería de computadores y con las comunicaciones de alto rendimiento. Ha dirigido más de 30 proyectos de investigación de ámbito nacional e internacional. Ha publicado más de 100 artículos en revistas y congresos internacionales y ha sido director de 11 tesis doctorales. -
Ciencia social computacional: Interacción entre personas y sistemas complejos socio-tecnológicos
Resumen de la conferencia
Se presenta el planteamiento de la ciencia social computacional actual como algo que va más allá del análisis de big data para enfocarse en desarrollar modelos del individuo y a través de ellos de la sociedad, en el espíritu de la física de sistemas complejos. Esta investigación involucra una combinación de experimentos, análisis de datos (machine learning) y modelos y simulaciones basadas en agentes. La presentación se centra en la clave del proyecto que es entender como interaccionamos unas personas con otras. Para ello se introducen ejemplos, desarrollados en nuestro grupo, de experimentos que tienen que ver con reputación en interacciones sociales en red, con clasificación de las personas, o con nuestro comportamiento comparado con los primates no humanos, incluyendo algún modelo construido a partir de las reglas deducidas de los resultados experimentales. Finalmente, se discuten perspectivas relevantes, como por ejemplo la diferencia entre experimentos y sistemas de pequeña escala con la gran escala característica de nuestras interacciones hoy en día, que es objeto de investigación del proyecto FET Open de H2020 IBSEN. Esta charla también se enmarca dentro de las actividades de difusión del proyecto MOSIAGIL (S2013/ICE-3019), financiado por la CAM y fondos FEDER.CV de Ángel (Anxo) Sánchez
El profesor Anxo Sánchez se doctoró en Física Teórica y Física Matemática con premio extraordinario en la Universidad Complutense de Madrid, en 1991. Fue becario Fulbright postdoctoral en el Los Alamos National Laboratory (USA) entre 1993 y 1994. Hoy en día es catedrático de Matemática Aplicada en la Universidad Carlos III de Madrid, en la que fundó el Grupo Interdisciplinar de Sistemas Complejos (GISC, www.gisc.es) en 1996. Es también investigador senior y miembro del Comité Científico del Instituto UC3M-Banco Santander de Big Data Financiero, e investigador asociado del Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza. Es autor de más de 150 artículos en revistas internacionales de prestigio, habiendo recibido más de 3500 citas (h=34), y ha sido conferenciante invitado en unas 50 conferencias nacionales e internacionales. Ha dirigido 18 proyectos de investigación, financiados por el Gobierno de España, la Comunidad de Madrid, la OTAN, la European Science Foundation y los programas Marco 7 y H2020 de la Unión Europea. Actualmente coordina el proyecto FET Open de la Unión Europea IBSEN (www.ibsen-h2020.eu). Es miembro del Consejo Editorial de las revistas Scientific Reports, PLOS ONE y Journal of Statistical Mechanics: Theory and Experiment. Su investigación se centra en las aplicaciones de la física de sistemas complejos a las ciencias sociales, y ha contribuido al avance científico en campos muy diversos, que van de la economía a la física de la materia condensada pasando por la ecología y la informática teórica. -
Aprendizaje automático en bases de datos de fusión nuclear
Resumen de la conferencia
Para hacer realidad la energía de fusión como una fuente energética limpia, inagotable, segura y económica, las bases de datos de los dispositivos actuales (tokamaks y stellarators) deben analizarse en su totalidad (actualmente el 90% de los datos permanece sin procesar). Estos análisis completos permitirán una óptima planificación de la operación de ITER, cuyos resultados, a su vez, serán básicos en el diseño de DEMO. Para efectuar el análisis masivo de datos, la alternativa que se propone es el uso rutinario de técnicas de aprendizaje automático. A partir de la utilización de estas técnicas se han podido resolver problemas reales y de gran importancia en la operación de los dispositivos experimentales de fusión actuales. El nucleo central de la conferencia versará en la presentación de problemas prácticos y la solución aportada a cada uno de ellos.CV de Sebastián Dormido Canto
Sebastián Dormido-Canto received the M.S. degree in Electronic Engineering from Madrid Pontificia de Comillas University, Madrid, Spain, in 1994 and the Ph.D. degree in Sciences from UNED, Madrid, in 2001. He is Associate Professor in the UNED Department of Computer Sciences and Automatic Control since 2003. His current research interests are the analysis and design of control systems via the Internet, automatic learning with big data and high performance interconnection networks for cluster of workstations. -
Panorámica de los procedimientos metaheurísticos
Resumen de la conferencia
La charla está enfocada a dar una panorámica genérica e histórica a los procedimientos metaheurísticos, término fue acuñado por Fred Glover en 1986 refiriéndose a una estrategia maestra que guía y modifica otras heurísticas subordinadas para producir soluciones más allá de los que normalmente se obtienen medio de optimizaciones locales. Las metaheurísticas son una de las técnicas más importantes y exitosas que se han utilizado para resolver una gran cantidad de problemas complejos y computacionalmente difíciles. Constituyen una familia muy diversa de algoritmos de optimización, incluyendo métodos tales como el recocido simulado, Búsqueda Tabú, Búsqueda Local Iterada, Búsqueda de Vecindad Variable, GRASP, Algoritmos genéticos, Algoritmos Meméticos, Colonias de hormigas o Búsqueda Dispersa.CV de Abraham Duarte Muñoz
Abraham Duarte es Profesor Titular de Universidad (acreditado a Catedrático de Universidad) en el Departamento de Informática y Estadística de la Universidad Rey Juan Carlos. Su investigación está centrada en la optimización exacta (Branch & Bound) y aproximada (metaheurísticas) de problemas de optimización con aplicaciones prácticas en ciencia e ingeniería. Ha publicado 41 artículos en revistas indexadas (JCR), 17 capítulos de libros, 9 artículos en revistas no indexadas y más de 80 publicaciones en actas de congresos nacionales, internacionales y charlas invitadas. Ha sido investigador principal en 5 proyectos competitivos y ha dirigido 3 tesis doctorales. Cabe destacar que tiene reconocida una patente y tiene solicitada otras dos que se encuentra en proceso de evaluación. -
Secuencias, un número detrás de otro
Resumen de la conferencia
Las secuencias de elementos son utilizadas en diversas áreas con diferentes usos. Son fundamentales para la aproximación numérica de integrales, en criptografía, para la localización de objetos en radar.... Dada la multitud de usos, muchas veces se requieren propiedades muy diversas e incluso contradictorias. Por ello, existen múltiples construcciones, adaptadas a resolver cada uno de los diferentes problemas. El objetivo de esta charla es dar una visión general de los usos de las secuencias. Esta charla estará dividida en tres bloques: En el primer bloque, se introducirá el estudio de secuencias desde el punto de vista de sus propiedades pseudo aleatorias con aplicaciones a la seguridad de la información. Esto incluye la generación de claves seguras eficientemente. Se discutirá la definición de pseudo aleatoriedad en múltiples dimensiones y la generación eficiente. En el segundo bloque se hablará de las secuencias para la aproximación numérica, utilizando muestreo automático. Esto es de especial aplicación en métodos quasiMonte Carlo con aplicación a la matemática financiera y en la predicción de varianza de estimadores sistemáticos. En el último bloque se hablará de las secuencias utilizadas en la localización de objetos mediante la técnica radar.CV de Domingo Gómez Pérez
Domingo Gómez Pérez es profesor contratado doctor en el departamento de Matemáticas, Estadística y Computación en la Universidad de Cantabria. Estudió en la Universidad de Cantabria, donde recibió su doctorado con calificación Cum Laude y mención de “Doctorado Europeo” en el año 2006. Trabajó como investigador Postdoctoral en el centro Johann Radon Institute for Computational and Applied Mathematics en Austria. Posteriormente, ha realizado estancias en diversos centros de investigación entre los que destacan Philips Research Eindhoven (2011-2012), Macquarie University (2013) y University of New South Wales (2014). Entre sus intereses se encuentran el estudio de secuencias con aplicaciones en seguridad informática, radar y sonar, medidas de pseudo aleatoriedad, métodos Monte Carlo y quasi-Monte Carlo y teoría de cuerpos finitos. Ha participado en varios proyectos de investigación a nivel nacional e internacional. Colaboró con la empresa Philips Research en el diseño y desarrollo del protocolo HIMMO destinado al intercambio seguro de claves en redes de sensores. Cuenta con más de 50 publicaciones científicas en diversas áreas y también ha formado parte del comité organizador de diversas conferencias de matemática discreta y criptografía. Durante este último año ha estado involucrado en la realización del HIMMO Challenge, en el desarrollo del Software CountEm para la estimación de manifestantes en fotografías aeréas y en la organización del Workshop on Mathematics in Communications 2016. -
Systems theory approach to video streaming
Resumen de la conferencia
A cornerstone of our digital society stems from the explosive growth of multimedia traffic in general and video in particular. Video already accounts for over 50% of the internet traffic today and mobile video traffic is expected to grow by a factor of more than 20 in the next five years. This massive volume of data has resulted in a strong demand for implementing highly efficient approaches for video transmission. Error correcting codes for reliable communication have been studied for several decades. However, ideal coding techniques for video streaming are fundamentally different from the classical error correction codes. In order to be optimized they must operate under lowlatency, sequential encoding and decoding constrains, and as such they must inherently have a convolutional structure. Such unique constrains lead to fascinating new open problems in the design of error correction codes. In this talk we aim to look from a system theoretical perspective at these problems. In particular we propose the use of convolutional codes.CV de Diego Napp Avelli
Diego Napp carried out his PhD at the University of Groningen (The Netherlands, 2008). His research interests lie in the intersection of the broad areas of Systems & control theory, Algebra and Coding theory. After a post-doc in Portugal and a Juan de la Cierva fellowship in Valladolid, he is currently holding a "FCT researcher" position (analogous to Ramon y Cajal) at the University of Aveiro in Portugal. In the last few years he has focused on convolutional codes which are basicaly linear systems over finite fields. In 2012, he was a visiting researcher in the Department of Mathematics of the Universities of Notre Dame (US) and Melbourne (Australia). He has giving invited talks at the he Departments of Mathematics of the Universities of British Columbia (Canada), Zurich (Switzerland), Notre Dame (US), Melbourne (Australia), Javeriana de Cali (Colombia) among many others. He has over 20 high quality publications in the different areas of applied mathematics, electrical engineer and coding theory. -
Resumen de la conferencia
La manera ideal de enseñar computación cuántica sería construir entre todos un ordenador cuántico. Dado que eso está fuera de nuestro alcance, intentaremos hacer lo segundo mejor: construir entre todos un simulador clásico de un ordenador cuántico. Es decir, un programa breve, que corra en un ordenador portátil y nos permita simular el comportamiento que creemos que tendrán los ordenadores cuánticos reales, cuando sean construidos. Utilizaremos el enfoque más prometedor en la actualidad, la computación cuántica adiabática (AQC), empleada, entre muchos otros, por D-Wave. En el seminario no asumiremos ningún conocimiento de mecánica cuántica, tan sólo conocimientos moderados de programación y de álgebra lineal. Tras la charla habilitaremos una página web de la que descargar el código descrito durante la misma.CV de Javier Rodríguez Laguna
Javier Rodríguez Laguna se doctoró en física teórica en la Universidad Complutense de Madrid en 2002, con una tesis sobre métodos numéricos para sistemas cuánticos de muchos cuerpos. Ha trabajado como investigador postdoctoral en la SISSA (Trieste), ICFO (Barcelona) y la Universidad Carlos III de Madrid, entre otros lugares, y actualmente trabaja en la UNED, en Madrid. Sus intereses abarcan la interacción entre computación y física, tanto cuántica como clásica, la computación y los simuladores cuánticos, los modelos de crecimiento fuera de equilibrio, la geometría aleatoria y los sistemas desordenados. -
Towards an algebra of contracts
Resumen de la conferencia
The formalisation of legal contracts has proved to be a particularly challenging domain in computer science. In particular when considering the interrelation of deontic operators in contracts between interacting parties, most work focusses on only one of the parties involved. In this talk, I will be presenting a formalism for the description and analysis of evolving contracts regulating the behaviour between interacting parties, and show how this can be used to build an algebra of contracts. Furthermore, I will be showing how such a formalism can be used to monitor and support automated contract analysis.CV de Gordon J. Pace
Gordon Pace is a Professor and Head of Department of Computer Science of the University of Malta where he has been a faculty member since 2002. He completed his DPhil in Oxford in 1998, and has also worked at Chalmers University in Gothenburg, Sweden, Laboratoire Verimag in Grenoble, France, INRIA Rhone-Alpes, France and Universidad de Buenos Aires, Argentina. His research interests lie in the field of formal methods, currently mostly working on runtime verification, contract analysis and domainspecific languages. He has collaborated with various colleagues on various other areas related to computer science, including functional programming, natural language processing, automated music analysis and bioinformatics. He is the author of Discrete Mathematics for Computer Science, an undergraduate textbook in mathematics of discrete structures, and various journal and conference papers. He enjoys far too many things beyond computer science to include in the last sentence of his bio. -
¿Estamos preparados para hacer frente a la ciberdelincuencia?
Resumen de la conferencia
La ciberdelincuencia plantea retos técnicos y humanos en la metodología de la investigación que difieren de la investigación tradicional que hemos conocido hasta el momento. La metodología investigativa del cibercrimen presenta unas peculiaridades técnico- jurídicas y procesales que requieren la puesta en marcha de medidas determinadas en las que la gestión del tiempo determina el éxito y la identificación de los propios autores. Durante la presentación, se tratarán aspectos básicos de la ciberinvestigación. El conocimiento de unos hechos presuntamente delictivos, la salvaguarda y preservación de las pruebas digitales y posibles indicios, el proceso de obtención de datos objetivos, cuestiones legales y procesales y las medidas judiciales disponibles para facilitar la operativa policial.CV de Silvia Barrera Ibáñez
Inspectora de la Policía Nacional, Jefa de la Sección de Tratamiento de Evidencias Digitales de la Unidad de Investigación Tecnológica. Representante por España en EUROPOL en materia de Ciberataques. Miembro del Grupo Mundial de Expertos en Cibercrimen de Interpol y del grupo (E.C.T.E.G) European Cybercrime Training and Education Group coordinado por EUROPOL. Participa como Conferenciante en Universidades, eventos sobre ciberseguridad y otras Instituciones en materia de Cibercrimen. Profesora colaboradora en el Grado de Criminología en la Universidad Complutense de Madrid y en el Máster de Derecho Tecnológico e Informática Forense de la Universidad de Extremadura. Escritora colaboradora para publicaciones oficiales del Ministerio del Interior, libros y artículos divulgativos sobre Ciberseguridad y para el grupo Atresmedia en la página web Tecnoxplora.com con su sección "Internet, Ciudad con Ley". -
Reconocimiento biométrico de firma manuscrita: fundamentos, avances y aplicaciones
Resumen de la conferencia
La conferencia comenzará con una breve introducción a los sistemas biométricos de reconocimiento y autenticación de personas, para después concentrarse en los sistemas biométricos basados en firma manuscrita. A partir de ahí se desarrollarán los fundamentos del reconocimiento automático de firmas manuscritas dinámicas capturadas con tabletas digitalizadoras y otro tipo de terminales táctiles, y el reconocimiento de imágenes de firmas escaneadas y otro tipo de información escrita. Finalmente se resumirán algunas aplicaciones industriales de este tipo de tecnologías que viene desarrollando el Grupo de Reconocimiento Biométrico ATVS de la Universidad Autónoma de Madrid, en concreto: 1) el sistema Biografo 2.0 de identificación de escritor desarrollado para el Servicio de Criminalística de la Dirección General de la Guardia Civil, y 2) el proyecto e-BioFirma, desarrollado con el patrocinio de Cecabank, que actualmente está incorporando funcionalidades de comparación automática de firmas manuscritas para más del 50% del sector bancario español.CV de Julián Fiérrez Aguilar
Julián Fiérrez es Doctor Ingeniero de Telecomunicación por la Univ. Politécnica de Madrid (2006), y ha estado vinculado al Grupo de Reconocimiento Biométrico ATVS desde 2002, primero en la UPM y desde 2004 en la Univ. Autónoma de Madrid, donde es Prof. Titular de Univ. desde 2010. Su investigación se centra en sistemas biométricos, con especial énfasis en huella, cara, firma, fusión, seguridad y evaluación de sistemas. Ha realizado varias estancias internacionales de investigación (incluyendo un postdoc Marie Curie en Michigan State University de 2 años), dirigido tres proyectos europeos del ámbito (TABULA RASA, BBfor2, y BEAT), actuado como Program Chair en varios de los eventos científicos más importantes del ámbito (p.ej., IAPR Intl. Conf. on Biometrics 2013 y 2016) y recibido numerosas distinciones por su investigación, incluyendo: 4 premios a mejor artículo en congresos internacionales, premio EBF de la industria biométrica europea en 2006, medalla a joven investigador de la Real Academia de Ingeniería en 2015, y recientemente el premio Miguel Catalán 2015 como mejor investigador de menos de 40 años en el área de ciencias de la Comunidad de Madrid. -
Term rewriting applied to cryptographic protocol analysis: the Maude-NPA tool
Resumen de la conferencia
Maude-NRL Protocol Analyzer (Maude-NPA) is a tool for the symbolic analysis of cryptographic protocols. It searches backwards from a pattern defining secrecy, authentication, or indistinguishability properties of a protocol and it is able to find an attack or prove the absence of any attack. Maude-NPA is designed to take account of the algebraic properties of the crypto systems involved (e.g., exclusive-or, Diffie-Hellman, etc.) in order to give a more complete representation of both the protocol and the attackers capabilities. During the development of the tool we have also defined new theoretical and practical frameworks such as variant-based unification, logical model checking, asymmetric unification, or state-space optimizations that will be presented during the course.CV de Santiago Escobar
Santiago Escobar is associate professor at the Universitat Politècnica de València (UPV), Spain. His research interests include formal methods, security, verification, model checking, rewriting, narrowing, and evaluation strategies. His works on narrowing have become essential for narrowing-based applications such as equational unification, model checking, or protocol analysis. In the security area, he has developed the Maude-NPA cryptographic protocol analyzer in collaboration with Catherine Meadows from the Naval Research Laboratory of Washington D.C. and Jose Meseguer from the University of Illinois at Urbana-Champaign. This is the state-of-the-art tool for verification of protocols with advanced cryptographic properties. He has published more than 60 papers on conferences and journals on formal methods, verification, and security. He has been program chair of specialized workshops on unification (UNIF 2015 & 2012), rewriting logic and applications (WRLA 2014), reduction strategies (WRS 2011), functional and (constraint) logic programming (WFLP 2009), automated specification and verification of web systems (WWV'07&08), and security and rewriting (SecReT'08). Dr. Escobar received a M.Sc. in 1998 and a Ph.D. in Computer Science in 2003 at the Universitat Politècnica de Valencia. For further details: http://www.dsic.upv.es/~sescobar
-
Smart health: improving health services within smart cities
Resumen de la conferencia
The new era of mobile health ushered in by the wide adoption of ubiquitous computing and mobile communications has brought opportunities for governments and companies to rethink their concept of healthcare. Simultaneously, the worldwide urbanization process represents a formidable challenge and attracts attention toward cities that are expected to gather higher populations and provide citizens with services in an efficient and human manner. These two trends have led to the appearance of mobile health and smart cities. In this talk we introduce the new concept of smart health, which is the context-aware complement of mobile health within smart cities. We provide an overview of the main fields of knowledge that are involved in the process of building this new concept. Additionally, we discuss the main challenges and opportunities that s-Health would imply and provide a common ground for further research.CV de Agustí Solanas
Agustí Solanas (Tarragona, Catalonia, Spain, 1980) is the Head of the Smart Health Research Group and Associate Professor in the Department of Computer Engineering and Mathematics at the Rovira i Virgili University (URV) of Tarragona, Catalonia, Spain. He is also with the UNESCO Chair in Data Privacy. He obtained his M.Sc. degree in Computer Engineering from URV in 2004 with honours (Outstanding Graduation Award). He received a Ph.D. in Telematics Engineering from the Technical University of Catalonia in 2007 with honours (A cum laude). In 2008, he worked as post-doctoral researcher in the CRISES Research Group. In 2012, he was a visiting researcher in the Department of Mathematics and Physics of the University of Rome Tre (Italy). In 2013, he was visiting researcher in the Department of Mathematics of the University of Padua (Italy). His fields of activity are mobile health, smart health, cognitive health, data privacy, ubiquitous computing, and artificial intelligence specifically: clustering, pattern recognition and evolutionary computation. He has participated in several European-, Spanish-, and Catalan-funded research projects. Currently he is the principal investigator in the URV of the EU Project SUAC3I, he is member of the Management Committee of the European CRYTACUS COST Action and the Spanish project SIMPATIC. He has authored over 100 publications and he has delivered several invited talks worldwide. -
Fundamentos de la evolución gramatical
Resumen de la conferencia
La Evolución Gramatical (expresión proveniente del inglés Grammatical Evolution), es una técnica de computación evolutiva cuya principal característica es la aplicación de una gramática en el proceso de decodificación de los individuos. El objetivo de esta conferencia es proporcionar una visión clara y detallada de las características fundamentales de esta técnica, mostrando además casos prácticos de aplicación donde se analizarán ventajas e inconvenientes en su uso.CV de José Manuel Colmenar Verdugo
José Manuel Colmenar es Ingeniero en Informática y Doctor por la Universidad Complutense de Madrid desde 2008. En el ámbito investigador, comienza sus pasos colaborando con el Departamento de Arquitectura de Computadores de la UCM, donde desarrolla su tesis doctoral, relacionada con el diseño y simulación de circuitos asíncronos. Tras la tesis, se interesa por los algoritmos evolutivos y bioinspirados, así como por su aplicación a problemas reales que van desde la optimización en el diseño de circuitos, hasta las aplicaciones biomédicas. Más recientemente, su interés por la optimización le ha llevado a realizar investigación en el campo de las metaheurísticas. Su experiencia docente en carreras y grados relacionados con la Informática comienza en el año 2001 y continua hasta la actualidad, mezclándose también con investigación en el ámbito de las tecnologías de la información aplicadas a la docencia. En su haber constan más de doce publicaciones indexadas en la base de datos JCR, así como decenas de publicaciones en congresos y revistas internacionales. Ha participado en el comité de programa de congresos como GECCO y EvoPar, y ha sido revisor en revistas como Soft Computing y Journal of Heuristics. -
Seguimiento de objetos en secuencias de imágenes
Resumen de la conferencia
El seguimiento en secuencias de imágenes consiste en localizar uno o varios objetos en el tiempo, utilizando para ello información visual procedente de una cámara. Esta área de investigación ha experimentado un desarrollo muy significativo durante los últimos años, debido al incremento en la capacidad de cómputo de los ordenadores de consumo y a la gran variedad de aplicaciones que posee. Los algoritmos de seguimiento se pueden encontrar formando parte de sistemas de videovigilancia inteligente, de evaluación de la motricidad humana (p. ej. Vicon), de deporte (p. ej., ojo de halcón), interfaces de usuario orientadas al entretenimiento (p. ej. Kinect), etc. El objetivo de esta charla consiste en presentar una visión de conjunto de este área de investigación, prestando atención a las aplicaciones, los problemas y las estrategias algorítmicas más extendidas para abordarlos (camshift, filtro de Kalman, filtros de partículas, métodos de optimización, enfoques híbridos).CV de Juan José Pantrigo Fernández
Juan José Pantrigo es Profesor Titular de Universidad en el Departamento de Ciencias de la Computación, Arquitectura de Computadores, Lenguajes y Sistemas Informáticos y Estadística e Investigación Operativa en la Universidad Rey Juan Carlos desde julio de 2011. Trabaja en temas de investigación diversos, relacionados con el área de Ciencia de la Computación e Inteligencia Artificial. Como resultado de su labor investigadora, ha publicado 21 artículos en revistas indexadas (JCR), 18 capítulos de libro (incluyendo LNCS), 5 artículos en revistas no indexadas y más de 60 publicaciones en actas de congresos nacionales e internacionales y charlas invitadas. Ha dirigido 1 proyecto de la URJC-CAM, 4 proyectos Art. 83 y un proyecto del Plan Nacional de I+D+I. Además, ha codirigido 3 tesis doctorales. -
Pruebas en el desarrollo de software dirigido por modelos
Resumen de la conferencia
El Desarrollo de Software Dirigido por Modelos (MDE, de las siglas en inglés) es un paradigma de Ingeniería del Software basado en el uso activo de modelos durante todas las fases del desarrollo, reduciendo o eliminando la necesidad de programar. De esta manera, los modelos dejan de ser únicamente documentación pasiva, y se utilizan para describir, simular, probar y generar código para la aplicación a construir. Los modelos que se utilizan en MDE pueden estar descritos con lenguajes de modelado de propósito general, como UML, o mediante Lenguajes de Dominio Específico (DSLs, del inglés Domain-Specific Languages) que ofrecen primitivas más adecuadas y potentes para un dominio de aplicación concreto (normalmente descritas mediante un metamodelo). Para el éxito de los proyectos basados en tecnologías MDE, se ha de garantizar la calidad de los distintos artefactos utilizados. Esto incluye por una parte los meta-modelos usados, y por otra las operaciones definidas sobre los modelos (simuladores, generadores de código, transformaciones). En esta charla se presentarán los prinicipios básicos del MDE, los retos actuales en cuanto a la validación y verificación en MDE, así como algunos enfoques para las pruebas de meta-modelos y transformaciones.CV de Juan de Lara Jaramillo
Juan de Lara es profesor Titular de Universidad en el departamento de Ingeniería Informática de la Universidad Autónoma de Madrid, donde dirige el grupo de investigación miso (Modelado e Ingeniería del Software, http://miso.es) Sus áreas de investigación se centran en el desarrollo de software dirigido por modelos, en particular en los lenguajes de dominio específico, las transformaciones de modelos y el modelado multi-nivel. Ha publicado más de 100 artículos en conferencias y workshops internacionales, así como más de 40 artículos en revistas con índice de impacto. Ha sido presidente del comité de programa de FASE'12 (ETAPS) e ICMT'12 (STAF). Ha realizado estancias de investigación en la U. de McGill (Canadá), TU Berlín (Alemania), Sapienza de Roma (Italia), y la U. de York (UK). Es miembro del comité editorial de la revista Software and Systems Modelling (Springer). -
Aprendizaje estadístico: fundamentos y aplicaciones
Resumen de la conferencia
En los últimos años los avances de la tecnología han facilitado la integración de grandes volúmenes de datos en formato digital. Esto ha despertado un gran interés en las técnicas estadísticas y de inteligencia artificial para extraer la información y para desarrollar sistemas de aprendizaje basados en los datos generados de forma dinámica. En esta charla se ilustrarán los aspectos fundamentales del aprendizaje estadístico, haciendo hincapié en los diferentes tipos de problemas que puede abordar. Se discutirán las propiedades de las herramientas existentes y los aspectos a considerar en su aplicación práctica.CV de Pedro Zufiria
Pedro J. Zufiria es Doctor Ingeniero de Telecomunicación por el Ministerio de Educación y Ciencia (MEC, 1991), Ingeniero de Telecomunicación por la Universidad Politécnica de Madrid (UPM, 1986), y Licenciado en Ciencias Matemáticas por la Universidad Complutense de Madrid (UCM, 1997). Asimismo, es Master of Science (Mech. Engineering), Master of Science (Elect. Engineering) y Doctor of Philosophy (Mech. Engineering) por la University of Southern California (USC, 1989). Es profesor en el departamento de Matemática Aplicada a las Tecnologías de la Información de la Universidad Politécnica de Madrid. Desde 1991 hasta 2005 fue fundador y responsable científico del Grupo de Redes Neuronales (GRN), y desde 2005 lo es del Grupo de Sistemas Dinámicos, Aprendizaje y Control (SISDAC). Sus intereses se centran en el modelado matemático, control y diagnóstico de fallos en sistemas dinámicos no lineales, el tratamiento de señal, el aprendizaje en máquinas y las redes complejas. Ha dirigido más de una docena de proyectos de investigación financiados por el Plan Nacional, la CAM y la UPM, y es autor de más de un centenar de publicaciones internacionales en dichos campos. -
Resumen de la conferencia
Desde 2008 la Guardia Civil participa en calidad de coordinador/socio/observador en varios proyectos de Investigación, Desarrollo e Innovación (I+D+i) financiados por el Séptimo Programa Marco y el Programa Horizonte 2020 de la Comisión Europea. Conscientes de la importancia que tiene para España el impulso de su actividad empresarial, la Guardia Civil participa activamente en calidad de usuario final desde hace años en determinados proyectos presentados en las convocatorias de financiación de los mismos por parte de la UE, y cuyo ámbito principal es el impulso de la I+D+i en materia de seguridad pública a nivel nacional y europeo. Evolucionando con ello, desde la figura de observador a socio de pleno derecho, a finalmente ser coordinador de un proyecto, gracias a lo cual la Guardia Civil ha adquirido visibilidad y relevancia a nivel europeo. Asimismo, la Guardia Civil, viendo la necesidad de continuar con este impulso transformador, se haya actualmente inmersa en la preparación, negociación y ejecución de numerosos proyectos tecnológicos dentro del escenario de H2020.CV de Nathalie Páez Jiménez
La Teniente Nathalie Páez Jiménez cursó estudios superiores en la Academia de Oficiales de la Guardia Civil y está en posesión del Curso de Policía Judicial y el Curso de Especialistas en Información. Actualmente es la responsable del Área de Innovación Tecnológica del Servicio de Innovación Tecnológica y Seguridad de la Información de la Guardia Civil. Asimismo, ha pasado recientemente a integrar la delegación española en el Comité de Gestión del programa Sociedades Seguras perteneciente al Programa Marco de la Unión Europea – Horizonte 2020. La Teniente Nathalie se incorporó al Servicio de Innovación en el año 2013. Desde entonces ha participado en la preparación de propuestas y gestión de proyectos pertenecientes tanto al Séptimo Progrma Marco como al nuevo Horizonte 2020, así como al estudio y análisis de las nuevas tecnologías en el ámbito de la investigación, desarrollo e innovación, susceptibles de ser utilizadas por el Cuerpo de la Guardia Civil. -
Crowdsourced research: collective intelligence for collective problems
Resumen de la conferencia
Crowdsourced research is becoming one of the most important topics on the scientific field. Why? Because when humans and computers work together they can take wiser decisions than them alone, leading to new discoveries, citizen participation and a more critical thinking in our society. In this conference I'll introduce the grassroots movement, citizen science, through real examples where professionals and amateurs have done an amazing work through the open science movement.CV de Daniel Lombraña González
A computer engineer by training, Daniel holds a PhD in parallel genetic programming. He has almost 10 years experience of citizen science projects and crowdsourcing technologies in the scientific field. Daniel is the co-founder and project lead of the Crowdcrafting platform and of PyBossa software. -
Resumen de la conferencia
It is well-known that today's computing platforms for the IoT big data server and network router infrastructure is highly energy-consuming. And scaling this to the exascale sizes and Tbps bandwidth handling, which are required for the future, looks implausible with incremental innovations. The exploding energy consumption in today's solutions is largely due to the requirement for maintaining a strong platform flexibility and programmability across a wide range of different tasks and services. But still, also some clear opportunities are emerging to reduce this energy compared to the state-of-the-art reference platforms of today. In the literature many proposals have been launched to better customize the computing nodes themselves. But also the importance of the memory organization for the typically data-intensive application loads has been identified. In this talk, the challenges to tackle this data memory organisation and some emerging opportunities are highlighted.CV de Francky Catthoor
Prof. Francky Catthoor is a fellow at IMEC, Heverlee, Belgium. He received the Eng. degree and a Ph.D. in El. Eng. from the K.U.Leuven, Belgium in 1982 and 1987 respectively. Since 1987, he has headed research domains in the area of architectural and system-level synthesis methodologies, within the DESICS (formerly VSDM) division at IMEC. His current research activities belong to the field of architecture design methods and system-level exploration for power and memory footprint within real-time constraints, oriented towards data storage management, global data transfer optimization and concurrency exploitation. Platforms that contain both customizable/configurable architectures and (parallel) programmable instruction-set processors are targeted. -
Estudio de la robustez del control inteligente frente a errores inducidos por radiación
Resumen de la conferencia
En la actualidad, la miniaturización de los circuitos integrados hace que éstos sean cada vez más sensibles a radiación, incluso a aquélla que se encuentra de manera natural a nivel del mar (por ejemplo, neutrones atmosféricos). En esta charla se abordarán la lógica fuzzy y las redes neuronales como técnicas que proporcionan robustez intrínseca a errores inducidos por radiación, difíciles de abordar a través de metodologías clásicas. Su implantación puede hacerlas buenas candidatas para aplicaciones espaciales.CV de Raoul Velazco
Dr. Raoul VELAZCO nació en Montevideo (Uruguay) en 1952. Recibió los diplomas de Ingeniero, PhD y Doctor ès Ciencias, respectivamente en 1979, 1982 y 1990, en el Instituto Nacional Politécnico de Grenoble (INPG, Grenoble- France). Desde 1984 es investigador del CNRS (Agencia francesa de investigación científica). Desde 1996 Dr. Velazco es coresponsable del grupo ARIS (Arquitecturas Robustas de circuitos Integrados y Sistemas) del laboratorio TIMA (Techniques de l’Informatique et de la Microélectronique pour l’Architecture de circuits et systèmes integrés. Univ. Des Alpes - Grenoble). Sus trabajos de investigación conciernen el test y diagnóstico de fallos de circuitos integrados complejos de tipo procesador, las metodologías y útiles para evaluar la sensibilidad de circuitos y sistemas integrados a los efectos de radiaciones y estudiar las soluciones potenciales para hacer frente a esa problemática y evaluarlas vía ensayos en aceleradores de partículas, y experimentos en el entorno real en que funcionará la aplicación estudiada (satélites científicos, balones estratosféricos, aviones, alta montaña...). Raoul Velazco fue el presidente general o presidente de programa de varias conferencias relacionadas con sus áreas de investigación. La más significativa es RADECS (RADiations and its Effects on integrated Circuits and Systems) de la cual fue presidente en 2001 y presidente del programa en 2012. Es también el fundador y co-presidente de la escuela internacional SERESSA (School on the Effects of Radiation in Embedded Systems for Space Applications). La edición 2015 de SERESSA tendrá lugar en Puebla (México) en Diciembre 2015. -
The application of grammar inference to software language engineering
Resumen de la conferencia
There are many problems whose solutions take the form of patterns that may be expressed using grammars (e.g., speech recognition, text processing, genetic sequencing, programming language development, etc.). Construction of these grammars is usually carried out by computer scientists working with domain experts. Grammar inference (GI) is the process of learning a grammar from examples, either positive (i.e., the pattern should be recognized by the grammar) and/or negative (i.e., the pattern should not be recognized by the grammar). and/or negative (i.e., the pattern should not be recognized by the grammar). This talk will present the application of grammar inference to software language engineering, including recovery of domain-specific language (DSL) specifications from example DSL programs and recovery of a meta model from instance models which have evolved independently of the original meta model. Recent advances in semantic inference will be presented as well.CV de Marjan Mernik
Marjan Mernik received the M.Sc. and Ph.D. degrees in computer science from the University of Maribor in 1994 and 1998, respectively. He is currently Professor of Computer Science at the University of Maribor, Slovenia. He is also Visiting Professor of Computer and Information Sciences at the University of Alabama at Birmingham, and at the University of Novi Sad, Faculty of Technical Sciences, Serbia. His research interests include programming languages, compilers, domain-specific (modeling) languages, grammar-based systems, grammatical inference, and evolutionary computations. He is a member of the IEEE, ACM, EAPLS, and the Editor-In-Chief of Computer Languages, Systems and Structures journal, as well as the Associate Editor of Applied Soft Computing journal. -
Towards energy-efficient computing: adaptive management strategies from software to systems
Resumen de la conferencia
Energy efficiency is a central issue in all computing domains. In data centers, operational and cooling costs impose significant sustainability challenges. In tandem, computing systems increasingly run complex, highly performance demanding workloads, making the well-studied energy management policies inadequate. High power densities also increase the chip temperatures and thermal variations, which degrade system reliability, add to the system design complexity, and increase monetary cost of cooling. Achieving the target exascale computing performance, and also, designing a sustainable cloud computing future require the design of dynamic and intelligent techniques that recognize the hardware-software characteristics and optimize the interplay among performance, energy, and temperature in an application-aware manner. This talk will discuss how to design adaptive workload management and power modulation methods in a servers and various types of data centers to help achieve a sustainable computing future.CV de Ayse K. Coskun
Ayse K. Coskun is an assistant professor in the Electrical and Computer Engineering Department at Boston University. She received her MS and PhD degrees in Computer Science and Engineering from University of California, San Diego. Coskun’s research interests are energy-efficient computing, 3D-stacked architectures, embedded systems, and intelligent management of data centers. Prof. Coskun worked at Sun Microsystems (now Oracle), San Diego prior to her current position at BU. Coskun received the best paper award at IFIP/IEEE VLSI-SoC Conference in 2009 and at High Performance Embedded Computing (HPEC) Workshop in 2011, and she is a recipient of the NSF CAREER award. She currently serves as an associate editor for IEEE Embedded Systems Letters and writes a bi-weekly column on green computing at the Circuit Cellar magazine. -
The role of ontologies in machine-machine communication
Resumen de la conferencia
In this talk I will analyse how the use of ontologies have evolved during the last two decades, moving from the notion of a shared understanding of a particular domain being used to communicate humans with computers towards a key modelling component that allows machine-machine communication and negotiation across different domains and spoken languages.CV de Asunción Gómez Pérez
Prof. Dr. Asunción Gómez-Pérez is Full Professor at the Univ. Politécnica de Madrid. She is the Director of the Artificial Intelligence Department (2008) and Director or the OEG at UPM (1995). Her main research areas are: Ontological Engineering, Semantic Web and Knowledge Management. She led at UPM the following EU projects: Ontoweb, Esperonto, Knowledge Web, NeOn, SEEMP, OntoGrid, ADMIRE, DynaLearn, SemSorGrid4Env, SEALS and MONNET. She coordinated OntoGrid and now she is coordinating SemSorGrid4Env and SEALS. She is also leading at UPM projects funded by Spanish agencies. The most relevants are: España Vitual, WEBn+1, GeoBuddies and the Spanish network on Semantic Web. She has published more than 150 papers and she is author of one book on Ontological Engineering and co-author of a book on Knowledge Engineering. She has been co-director of the summer school on Ontological Engineering and the Semantic Web since 2003 up to now. She was program chair of ASWC'09, ESWC'05 and EKAW'02 and co-organiser of many workshops on ontologies. -
Introducción a la plataforma Dafny de verificación de programas
Resumen de la conferencia
Dafny es una plataforma desarrollada por el grupo de Rustan Leino (Microsoft Research, Redmond) para asistir en la verificación de programas. Consta de un lenguaje de programación orientado a objetos, un lenguaje de asertos y un resolutor SMT (SAT Modulo Theories) para demostrar teoremas en lógica de predicados. El usuario suministra el programa, su especificación y los invariantes de los bucles, y la plataforma realiza las demostraciones oportunas que garantizan que el programa satisface dichos asertos. La conferencia introduce la teoría necesaria y los elementos de dicha plataforma e ilustra el proceso de verificación con ejemplos de programas.CV de Francisca Lucio
Profesora Titular. Docencia en: Métodos Formales de Desarrollo de Software (Grado en Ingeniería Informática) Razonamiento Automático (Máster en Ingeniería Informática) Areas de especialización en investigación: • Lógica • Epecificación, Transformacion y Verificación de Programas • Lenguajes declaractivos • Resolución de restricciones • Transformación de grafos • Razonamiento automático • Lógica Temporal • Métodos Formales en Programación Co-autora de unas 30 publicaciones en revistas y congresos de prestigio con revisión por pares -
Una introducción a la computación cuántica: ordenadores analógicos y gatos de Schrödinger
Resumen de la conferencia
Javier Rodriguez Laguna obtained a PhD in theoretical physics from Universidad Complutense de Madrid in 2002, with a thesis on numerical methods for quantum many-body systems. He has worked as a postdoc researcher at SISSA (Trieste), ICFO (Barcelona) and Universidad Carlos III de Madrid, among others, and currently works at UNED, in Madrid. His research interests span the interplay between computation and physics, both quantum and classical, quantum computation and simulators, non-equilibrium growth models, random geometry and disordered systems.CV de Javier Rodríguez Laguna
If the claims of D-Wave are correct, the first general purpose quantum computers are already here. How do they work? In this talk we will follow a pedestrian approach to quantum computation. We will travel back in time, to revisit the old fashioned analog computers, such as the spaghetti-sort or the soapy solution to the Steiner tree problem. Quantum adiabatic computation, the basic principle of the D-Wave device, is just an analog computer, but it profits from a spooky property of quantum mechanics called entanglement. In the last part of the talk we will address the (unanswered yet) question: what will be the real power of quantum computers, compared to classical ones? -
¿Cómo proteger las buenas ideas? Propiedad Industrial
Resumen de la conferencia
En esta conferencia se abordará la importancia de la protección de las invenciones por propiedad industrial como fuente de progreso de una sociedad y como fuente de ingresos para las investigaciones futuras. Se tratará con especial interés la gestión de los Algoritmos matemáticos y software en las patentes.CV de Pablo Estebaranz Ruiz
Ingeniero Electrónico por la Facultad de Ciencias Físicas de la UCM (2006). − Consultor Informático en Delaware Consultoría para Amena-Orange (julio 2006 julio 2007). − Consultor de Patentes especializado en patentes de software, en Ungria Patentes y Marcas, S.A. (julio 2007 – noviembre 2012). − Coordinador de Electro-Mecánica del Dpto. de Patentes Exterior de Ungria Patentes y Marcas, S.A. (noviembre 2012 - actualidad). − Curso de Derecho Europeo (septiembre 2011 - julio 2013). -
Resumen de la conferencia
Las disrupciones en dispositivos tokamak son eventos muy peligrosos para la integridad de los propios dispositivos de fusión. Su extremada complejidad y su dependencia de fenómenos altamente no lineales, ha impedido hasta la fecha el desarrollo de una teoría satisfactoria. Por tanto, se utilizan métodos de aprendizaje automático para predecir la ocurrencia de una disrupción y poder aplicar medidas de mitigación. Los dispositivos de fusión de siguiente generación (como ITER o DEMO) no podrán soportar muchas disrupciones. Por lo tanto, es necesario desarrollar predictores fiables que, con muy pocas muestras de entrenamiento, alcancen una alta tasa de aprendizaje. Se van a describir algunos de estos predictores que actualmente se encuentran funcionando en la red de tiempo real del JET (el mayor dispositivo de fusión del mundo que se encuentra situado en Culham, UK). El diseño, desarrollo y puesta en marcha de los predictores ha sido coordinado por la Unidad de Adquisición de Datos del Laboratorio Nacional de Fusión del CIEMAT.CV de Jesús Vega Sánchez
Jesús Vega es investigador en el Centro de Investigaciones Energéticas Medioambientales y Tecnológicas (CIEMAT) desde 1983. Recibió su grado de doctor por la Universidad Nacional de Educación a Distancia en 1997. Ha desarrollado y desarrolla importantes tareas de investigación y coordinación en métodos y dispositivos de fusión nuclear tanto a nivel nacional como internacional. Una gran parte de su actividad se ha centrado en la investigación en métodos de aprendizaje automático para el tratamiento masivo de datos (big data) generados por los reactores de fusión nuclear JET (Joint European Torus) y TJ-II, éste último instalado en el CIEMAT. Ha dirigido diversos proyectos nacionales e internacionales en el ámbito de la fusión nuclear, participando en consorcios europeos de reconocido prestigio en fusión nuclear, así como en diversos comités internacionales. Además, es autor de diversas publicaciones basadas en el desarrollo de técnicas de aprendizaje automático para la identificación de eventos producidos durante los procesos de fusión. -
Steganalysis of OpenPuff through atomic concatenation of MP4 flags
Resumen de la conferencia
OpenPuff is recognised as one of the leading tools in video steganography for its capability to securely hide information. This is in contrast to a number of video steganography tools that apply outdated and highly insecure techniques such as EOF data injection. However, even OpenPuff has subtle vulnerabilities that can be easily exploited. In this talk we propose a method to detect the presence of OpenPuff video steganography across MP4 files. By exploiting modifications to a files’ metadata, we successfully identify the existence of hidden content.CV de Julio César Hernández Castro
Julio C. Hernandez-Castro received the B.Sc. degree in mathematics from the Universidad Complutense de Madrid, Madrid, Spain, in 1995, the M.Sc. degree in coding theory and network security from the Universidad de Valladolid in 1999, and the Ph.D. degree in computer science from Carlos III University of Madrid in 2003. Currently, is a Lecturer in Computer Security at the School of Computing, University of Kent. His interests include Cryptology, Steganography & Steganalysis, Computer & Network Security, Computer Forensics, CAPTCHAs, RFID Security, and the application of NonStandard techniques to Cryptology. He is also associated with Kent Cyber Security Center. -
FairCoop y el uso social de las criptodivisas
Resumen de la conferencia
La aparición de las tecnologías criptográficas detrás de Bitcoin y otras criptomonedas, permite el surgimiento de un nuevo paradigma de enorme potencial. FairCoop es un ambicioso proyecto que, apoyado por estos avances, pretende abordar múltiples problemáticas y desarrollar innovaciones con impacto económico y socio-político. En este marco, tanto la criptomoneda como la identidad pueden operar de forma completamente distribuida (sin autoridad central), pero a la vez sin estar completamente desregulado (como en Bitcoin). Así, se propone una organización cooperativa de ámbito global con lógicas económicas distintas a las tradicionales, aportando herramientas y servicios financieros diseñados para la creación y reparto de riqueza común.CV de Pablo Gómez Prieto
Bioinformático postcapitalista, ha realizado investigaciones en CSIC, UCM, UPM, Centro de Astrobiología y Cooperativa Integral Catalana. Actualmente realiza experimentación en biohacking, e investiga las propiedades democráticas de la criptografía, la cadena de bloques y sus implicaciones socio-políticas, en el marco del proyecto FairCoop. -
Modelado basado en agentes para simular el pasado. Cooperación social en Tierra del Fuego
Resumen de la conferencia
La conferencia se enmarca en el proyecto Consolider SimulPast que tiene como objetivo simular el pasado (sociedades antiguas) para entender el comportamiento humano. El caso de estudio está centrado en el comportamiento cooperativo de una sociedad cazadora-recolectorapescadora de la parte sur de Tierra del Fuego (Argentina-Chile), los Yámana. En el trabajo se utilizan fuentes etnográficas y evidencia arqueológica para construir un modelo computacional basado en agentes que explica los fenómenos de agregación de la sociedad en torno a varamientos de ballena. El modelo analiza y explica la dinámica social cooperativa que emerge mediante sistemas de aviso con señales de humo y mecanismos basados en reciprocidad indirectaCV de José Manuel Galán Ordax
José Manuel Galán Ordax es Ingeniero Industrial por la Universidad de Valladolid y realizó su doctorado en la Universidad de Burgos, trabajando dentro del grupo de investigación INSISOC, Ingeniería de los Sistemas Sociales. Ha sido investigador visitante en el Macaulay Institute (Escocia) y en el Center for Social Complexity del Krasnow Institute for Advanced Studies de la George Mason University (USA). Actualmente es Profesor Titular en la Universidad de Burgos donde enseña Economía y Sistemas Complejos. Es autor de más de 40 trabajos en las áreas de sistemas complejos, modelado basado en agentes, teoría de juegos, redes sociales y el uso de modelos en general. -
From small sensors to big data: how the sensor web is changing our world
Resumen de la conferencia
In our increasingly digitized world almost everything we do creates a record that is stored somewhere, whether we are purchasing a book, calling a friend, ordering a meal, or renting a movie. And in the world of the sensor web this no longer limited to our online activities: exercising in the park, shopping for groceries, falling asleep, or even having a shower, are just some of our everyday activities that are likely to generate data. The world of the sensor web is all about understanding how we can (and whether we should) use this information to enable better decisions. Better decisions for where we might live or where to send our kids to school. Better decisions about the food we eat and the exercise we should take. Better decisions by our governments and policy makers when it comes to managing education, energy, infrastructure, and healthcare. And better decisions for business and enterprise when it comes to understanding customer needs and demands. In this talk we will discuss the origins of the sensor web and the attendant big data revolution. We will explore how these ideas suggest new ways of thinking about some of modern society's toughest challenges and how the resulting technologies will impact on our everyday lives in the future.CV de Barry Smyth
Barry holds the DIGITAL Chair of Computer Science at University College Dublin and is a member of the Royal Irish Academy. He is a Director of the Insight Centre for Data Analytics, a €100m research centre funded by Science Foundation Ireland and Industry. Barry’s own research interests include information discovery, personalisation and recommender systems. He has published more than 400 scientific papers and founded a number of companies to commercialise the outputs of his research. -
Desarrollo y evaluación de sistemas de inteligencia ambiental con UbikSim
Resumen de la conferencia
"Ambient Intelligence" (AmI) stems from the convergence of ubiquitous computing, ubiquitous communication and intelligent user-friendly interfaces and creates environments that will be characterized by their ubiquity, transparency and intelligence. AmI is of great interest to society because in a near future it can help us to do our work, improve our health, do house chore, and so on. However, the research on AmI presents new scientific challenges. Traditional usability engineering methods and tools fail in the development of the AmI. Established organizations such as the Usability Professional's Organization have recognized the need for new approaches to usability testing. When the AmI is applied to a large number of users, there is a point where the real tests aren't feasible. UbikSim try to provide solutions to these situations. Multi-agent based simulation, MABS, permits modelers to handle different levels of representation (e.g., "individuals'' and "groups'', for instance) within an unified conceptual framework. The versatility makes MABS one of the most favorite and interesting support for the simulation of complex systems. MABS is used in more and more scientific domains: sociology, biology, physics, chemistry, ecology, economy, etc. UbikSim is the use of MABS in AmI. Specifically, complex AmI applications with a large numbers of users will be treated. The testing of the social behavior of the users groups is interesting in these applications. That is, we are interested in the macro-social perspective. Therefore, the overall aim of our research is to increase the usability of this type of complex a AmI applications. UbikSim is an infrastructure to study complex AmI applications which involve a large number of users.CV de Emilio Serrano
El Dr. Emilio Serrano es un investigador postdoctoral en la Universidad Politécnica de Madrid (UPM). Obtuvo la Ingeniería en Informática por la Universidad de Murcia (UMU) con una Mención honorifica a la Excelencia Académica en 2006. Fue galardonado con la beca FPU del Ministerio de Ciencia e Innovación en el año 2008. Después de una estancia como investigador asociado en la Universidad de Edimburgo durante un año; recibió el doctorado con mención europea de la UMU en 2011. Su tesis recibió el premio extraordinario de doctorado en 2012. El Dr. Serrano ha participado en más de 40 publicaciones en congresos y revistas internacionales, destacando 15 artículos en el JCR (10 de ellos en Q1). También ha participado en varios programas de financiación tanto europea como nacional; tales como los proyectos del séptimo programa marco: smartopendata, eurosentiment y omelette. En cuanto a la docencia, ha asistido a más de 20 cursos en Ciencias de la Educación, impartido 8 asignaturas diferentes en la UMU y la UPM, y dado seminarios para estudiantes de postgrado en varias universidades. Su investigación está centrada en la inteligencia artificial y más concretamente: aprendizaje computacional, simulación social, análisis de redes sociales, tecnologías BigData, e inteligencia ambiental. -
Diabetes: Patrones ocultos en series temporales
Resumen de la conferencia
La diabetes mellitus es uno de los problemas más importantes de salud. Ha triplicado su prevalencia en los últimos 20 años y para el año 2025 se espera que existan casi 300 millones de personas con diabetes. Este hecho, junto con la morbimortalidad asociada a sus complicaciones vasculares, convierte a la diabetes en una carga para los sistemas sanitarios, sus recursos económicos y sus profesionales. No existe cura a esta enfermedad, de modo que el objetivo terapéutico del tratamiento de la diabetes se centra en la normalización de la glucemia intentando minimizar los eventos de hiperglucemia e hipoglucemia y evitar la aparición de complicaciones vasculares. El objetivo del trabajo presentado consiste en la mejora de la calidad y precisión de los modelos predictivos de los pacientes diabéticos para ser capaces de predecir la glucemia partiendo únicamente de la información suministrada por un dispositivo de medición continua con la precisión y anticipación necesaria para tener validez clínica. En este trabajo se identifican patrones que nos permitan conocer en qué perfil de día se encuentra el paciente para cada conjunto de datos. De la misma manera que las canciones de un mismo estilo de música comparten características comunes, las series de valores de glucosa de un paciente comparten patrones que son invisibles a análisis habituales. Los patrones compartidos por dos series temporales de glucosa pertenecen a situaciones del paciente similares o del mismo “Tipo de Día”, que se traducirán en comportamientos con un alto grado de similitud. Aplicar este procedimiento a datos de pacientes reales nos permitirá obtener conjuntos de días con la suficiente significancia para precisar de diferentes controladores.CV de Iván Contreras Fernández-Dávila
Doctor con Mención Europea en Ingeniería Informática. Conocimientos avanzados en sistemas de optimización (arquitecturas paralelas, heurísticas, algoritmos multiobjetivo) y análisis de series temporales (clustering, grafos, teoría de la información, estadística). Especializado en la aplicación de estas técnicas en los campos de la bolsa de valores y la diabetes mellitus. Desarrollo de Sistemas de Trading para bolsa y predicción de diabetes. Investigador por cinco años con múltiples colaboraciones en universidades nacionales e internacionales con más de 12 publicaciones. -
Model-driven engineering: a first glance at a ¿new? way of conceiving software development
Resumen de la conferencia
El lanzamiento de la iniciativa MDA (Model-Driven Architecture) en noviembre del 2000 supuso probablemente el nacimiento de la Ingeniería Dirigida por Modelos, un nuevo paso en el camino hacia la verdadera industrialización de la producción de software. El uso sistemático de modelos en las diferentes etapas del ciclo de vida se ha convertido en la base de un conjunto de paradigmas de desarrollo de software que permiten elevar el nivel de abstracción y potenciar el nivel de automatización en cualquier actividad relacionada con la Ingeniería del Software. La presente charla tiene por objeto proporcionar una primera introducción a los principios de la Ingeniería Dirigida por Modelos y ofrecer una vista general de las técnicas y herramientas que comprende.CV de Juan M. Vara
Juan M. Vara is an Associate Professor at the University Rey Juan Carlos of Madrid where he received his PhD in 2009. Head of the MSc in Information Systems Engineering, he is a member of the Kybele R&D group and his current research interests focus on Model-Driven Engineering, Service Science and human aspects of Software Engineering. He has been a doctoral researcher at the University of Nantes and a post-doctoral researcher at the European Research Institute in Service Science at the University of Tilburg. -
Ciencia Gestión e Ingeniería de Servicios - Service Science, Management and Engineering
Resumen de la conferencia
La charla proporcionará una introducción a la Ciencia Gestión e Ingeniería de Servicios, una disciplina emergente que integra aspectos de la gestión de empresas y negocios, tecnologías e ingeniería de la información y de las comunicaciones, y las ciencias sociales y psicología con el objetivo de ayudar a las organizaciones basadas en servicios a mejorar su productividad e innovación a través del uso de habilidades que no poseen las personas que trabajan en cada una de éstas disciplinas por separado.CV de Esperanza Marcos Martínez
Esperanza Marcos is a full Professor at the University Rey Juan Carlos of Madrid, where she is the Director of the Degree Programme in Service Science, Management and Engineering and she leads the Kybele R&D. She received her Ph.D. from the Technical University of Madrid in 1997 and her current research interests are focused on Service Science Management and Engineering and human aspects of Software Engineering. -
Estudio de la robustez frente a SEUs de algoritmos auto-convergentes
Resumen de la conferencia
La "self-convergence" es una propiedad de los sistemas distribuidos, que en caso de que sean perturbados o mal inicializados les permite recuperar una operación correcta en un numero finito de etapas de cálculo. Estos algoritmos son supuestos inmunes a todo tipo de error en las variables, pero no han sido precedentemente estudiados respecto a errores de tipo SEU (Single Event Upsets) en diversas zonas sensibles del sistema que los ejecutará. A través de inyección de fallos a diferentes niveles, hardware, software, RTL, se presentarán las ventajas y potenciales "talones de Aquiles" de una versión "benchmark" de un algoritmo auto-convergente.CV de Raoul Velazco
Dr. Raoul VELAZCO nació en Montevideo (Uruguay) en 1952. Recibió los diplomas de Ingeniero, PhD y Doctor ès Ciencias, respectivamente en 1979, 1982 y 1990, en el Instituto Nacional Politécnico de Grenoble (INPG, Grenoble- France). Desde 1984 es investigador del CNRS (Agencia francesa de investigación científica). Desde 1996 Dr. Velazco es co-responsable del grupo ARIS (Arquitecturas Robustas de circuitos Integrados y Sistemas) del laboratorio TIMA (Techniques de l’Informatique et de la Microélectronique pour l’Architecture de circuits et systèmes integrés) Univ. Des Alpes - Grenoble). Sus trabajos de investigación conciernen el test y diagnóstico de fallos de circuitos integrados complejos de tipo procesador, las metodologías y útiles para evaluar la sensibilidad de circuitos y sistemas integrados a los efectos de radiaciones y estudiar las soluciones potenciales para hacer frente a esa problemática y evaluarlas vía ensayos en aceleradores de partículas, y experimentos en el entorno real en que funcionará la aplicación estudiada (satélites científicos, balones estratosféricos, aviones, alta montaña...). Raoul Velazco fue el presidente general o presidente de programa de varias conferencias relacionadas con sus áreas de investigación. La más significativa es RADECS (RADiations and its Effects on integrated Circuits and Systems) de la cual fué presidente en 2001 y presidente del programa en 2012. Es también el fundador y co-presidente de la escuela internacional SERESSA (School on the Effects of Radiation in Embedded Systems for Space Applications). La edición 2014 de SERESSA tuvo lugar en Bariloche (Argentina) en Diciembre 2014. -
Managing dynamic concurrent tasks on low-power heterogeneous platforms
Resumen de la conferencia
The merging of computers, consumer and communication disciplines gives rise to very fast growing markets for personal communication, multi-media and broadband networks. Technology advances lead to heterogeneous platforms with enormous processing capacity that are however not matched with the increasing demand on energy efficiency combined with the required increase in handling system design productivity. One of the most critical bottlenecks is the very dynamic concurrent behaviour of many of these new applications. The main issue is that fully design-time based solutions as proposed earlier cannot solve the problem, and run-time solutions are too inefficient in terms of cost optimisation and are also not adapted for the real-time constraints. In order to deal with these dynamic issues, a "task concurrency management" (TCM) problem formulation will be proposed, where power/energy consumption while meeting performance requirements is one of the main objectives. The concept of Pareto curve based exploration is crucial in these formulations and their solutions.CV de Francky Catthoor
Prof. Francky Catthoor is a fellow at IMEC, Heverlee, Belgium. He received the Eng. degree and a Ph.D. in El. Eng. from the K.U.Leuven, Belgium in 1982 and 1987 respectively. Since 1987, he has headed research domains in the area of architectural and system-level synthesis methodologies, within the DESICS (formerly VSDM) division at IMEC. His current research activities belong to the field of architecture design methods and system-level exploration for power and memory footprint within real-time constraints, oriented towards data storage management, global data transfer optimization and concurrency exploitation. Platforms that contain both customizable/configurable architectures and (parallel) programmable instruction-set processors are targeted.