Logo LSI rótulo LSI Logo US

Docencia | Investigación | Personal | Información | Noticias | Enlaces | Descargas | Zona privada

Programa de Postgrado - Seminarios


Próximos seminarios

No hay seminarios previstos en las próximas fechas.

Seminarios pasados

Automatic Derivation of Service Candidates from Business Process Model Repositories

  • Fecha: 21/12/2012
  • Ponente: Jan Mendling
  • Descripción: Although several approaches for service identification have been defined in research and practice, there is a notable lack of automatic analysis techniques. In this talk we take the integrated approach by Kohlborn et al. as a starting point, and combine different analysis techniques in an novel way. Our contribution is an automated approach for the identification and detailing of service candidates. Its output is meant to provide a transparent basis for making decisions about which services to implement with which priority. The approach has been implemented and evaluated for an industry collection of process models.
  • Breve currículum del ponente: Prof. Dr. Jan Mendling is a Full Professor and head of the Institute for Information Business at Wirtschaftsuniversität Wien (WU Vienna), Austria. His research areas include Business Process Management, Conceptual Modelling and Enterprise Systems. He has published more than 200 research papers and articles, among others in ACM Transactions on Software Engineering and Methodology, IEEE Transaction on Software Engineering, Information Systems, Data & Knowledge Engineering, and Decision Support Systems. He is member of the editorial board of three international journals, one of the founders of the Berlin BPM Community of Practice («http://www.bpmb.de»), organizer of several academic events on process management, and member of the IEEE Task Force on Process Mining. His Ph.D. thesis has won the Heinz-Zemanek-Award of the Austrian Computer Society and the German Targion-Award for dissertations in the area of strategic information management.

Consolidated Modeling of Families of Business Processes

  • Fecha: 14/12/2012
  • Ponente: Marlon Dumas
  • Descripción: In business processes within large organizations, one will often find variations stemming from segmentation along customer types, product lines, business units or geographical regions. For example, a business process for handling claims in an insurance company will vary depending on whether the claim relates to a car accident, a property damage or a personal incident. Also, in an insurance company that operates in several jurisdictions or countries, one is likely to observe variations in the way insurance claims are handled across these political boundaries. Similarly, in company mergers, the merged organization often ends up with multiple models describing very similar processes previously executed separately in each organization prior to their merger. One way of managing such variations is to treat each process variant as a separate process, and to model and manage each variant separately and independently of one another. Under this approach, the above insurance company would model and manage its car accident claims handling process separately from its property damage claims handling process, without any connection without them. This approach has the risk of leading to redundancies, inconsistencies and inefficiencies due to fragmentation. The other extreme approach is to manage an entire family of process variants together, as if they were variations within a single consolidated process. This approach however has the risk of leading to higher complexity, as the consolidated (uber) process is hard to understand, implement and evolve. Moreover, organizational pressures may sooner or later cause the consolidated process to diverge into multiple ones if there is no strict framework for managing its evolution. It remains an open question how to best manage the tradeoff between maintaining families of process variants separately versus maintaining them in a consolidated manner, and how to effectively capture and maintain consolidated business process models. A range of approaches exist that strike different tradeoffs and can be placed at various points in the spectrum from fragmented to consolidated management of process variants. In this talk, we will review some existing techniques. In particular, the talk will discuss three consolidated process management approaches: consolidation based on "shared subprocesses", consolidation based on "configurable models", and consolidation based on "model synchronization".
  • Breve currículum del ponente: Marlon Dumas is Professor of Software Engineering at University of Tartu (Estonia). He is also Strategic Area Leader at the Software Technology and Applications Competence Centre - a collaborative research center that gathers ten IT companies and two universities with the goal of conducting industry-driven research in software service engineering and data mining. From 2000 to 2007, he worked in the Business Process Management research group at Queensland University of Technology (Australia) where he held a Queensland State Fellowship between 2004 and 2007. He has also been visiting professor at University of Grenoble (France), University of Nancy (France), University of Macau, and Visiting Researcher at SAP Research. Prof. Dumas has been co-recipient of best paper awards at ETAPS 2006 and BPM 2010. He is co-inventor of three granted patents in the field of business process technologies and co-author of an upcoming textbook "Fundamentals of Business Process Management" (Springer).

Simulación Multiparadigma de Procesos de la Ingeniería del Software

  • Fecha: 11/12/2012
  • Ponente: Mercedes Ruiz Carreira
  • Descripción: El modelado y simulación del proceso software (PSIM, Process Simulation Modeling) se puede utilizar para evaluar diferentes aspectos entre los que pueden citarse: la gestión estratégica del proceso, la adopción de una nueva herramienta o tecnología, el control y la gestión de los proyectos y el diseño de nuevos procesos o de mejoras para los ya existentes. PSIM se caracteriza por ser una herramienta flexible que puede ayudar a evaluar ideas de manera cuantitativa sin incurrir en los costes y los riesgos que conllevaría probar dichas ideas en el mundo real. En esta charla se introducirá la aplicación de la simulación en el ámbito de los procesos de la Ingeniería del Software recorriendo los diferentes paradigmas disponibles y destacando las ventajas y beneficios de utilizar la simulación multiparadigma en este ámbito, para finalizar con algunos ejemplos de aplicaciones concretas. (Hora: 18:30; Lugar: aula F0.10)
  • Breve currículum del ponente: Mercedes Ruiz pertenece al Dpto. Ingeniería Informática de la Universidad de Cádiz. Sus intereses de investigación se centran principalmente en las aplicaciones del modelado y simulación para la mejora de procesos de la Ingeniería del Software, Ingeniería de la Usabilidad y Gestión de Servicios TI. Obtuvo el título de Doctora en Ingeniería Informática por la Universidad de Sevilla en el año 2003. En la actualidad imparte su docencia en asignaturas de Ingeniería del Software dedicadas a la planificación y gestión de proyectos y las tecnologías avanzadas de las bases de datos. Dirige el grupo de investigación SPI&FM, Mejora del Proceso Software y Métodos Formales (TIC-195) y es responsable de proyectos de investigación de ámbito local y nacional. Ha publicado en revistas como Journal of Systems and Software o Software Quality Journal, capítulos de libros en Springer, Thomson, Netbiblo y WorldScientific. También ha participado en diferentes congresos nacionales e internacionales. Pertenece a los comités científicos de diversas conferencias. Ha dirigido y dirige varias tesis doctorales en la temática de simulación del proceso software, la gestión de los servicios TI y la aplicación de MDE en la simulación. Es miembro de SISTEDES, ACM y de ACM-SIGSE.

El proyecto QuaSAR: Una aplicación del estándar ISO/IEC 15504

  • Fecha: 27/11/2012
  • Ponente: Antonia Mas Pichaco
  • Descripción: El principal objetivo que se persigue en esta conferencia es transmitir la experiencia derivada de una aplicación real del estándar internacional ISO/IEC 15504 (SPICE) en PYMES de las Islas Baleares. En primer lugar y de manera muy resumida, se realizará una breve introducción a la Norma ISO/IEC 15504. En segundo lugar se presentará el proyecto QuaSAR II “Plan para la Evaluación, Mejora de Procesos y Certificación según la Norma ISO/IEC 15504”, cuyo principal objetivo ha sido el de mejorar la calidad de los procesos de software de las organizaciones participantes, 8 empresas de desarrollo de software de la Comunidad Balear, siguiendo las buenas prácticas recomendadas por SPICE. Se darán a conocer los objetivos del proyecto, los participantes y el plan de trabajo seguido. Finalmente, por una parte se mostrarán los resultados del proyecto, y por otra, se detallarán los costes de la implantación de dicho estándar en las organizaciones participantes. (Hora: 18:30; Lugar: aula F0.10)
  • Breve currículum del ponente: Antònia Mas Pichaco es Licenciada en Informática por la Universidad Autónoma de Barcelona (UAB) y Doctora en Informática por la Universidad de les Illes Balears (UIB). Es profesora Titular de Universidad del área de CCIA e imparte asignaturas de grado y de master relacionadas con la Ingeniería del software, la Gestión de proyectos y la Calidad de software. Es la Directora del título propio de Postgrado de la UIB denominado “Curso de Experto Universitario en Dirección de Proyectos (Project Management)”. Sus líneas de investigación abarcan los campos de la Mejora de los procesos de software, la Gestión de proyectos y la Gestión de servicios de TI. Más concretamente, se ha centrado en la adaptación de modelos, métodos, normas y estándares a las pequeñas y medianas empresas del sector del desarrollo de software. Los resultados de su grupo de investigación denominado MiProSoft (http://miprosoft.uib.es) han sido aplicados en sucesivas ediciones del proyecto QuaSAR (Calidad de Software Balear), un proyecto para la mejora de los procesos de desarrollo de software en pequeñas y medianas empresas de las Islas Baleares, que se inició en el año 2002 y que continúa aún vigente. Es evaluador principal de la norma ISO/IEC 15504 (SPICE). Management y ha sido la presidenta del Comité organizador de la conferencia internacional SPICE 2012 que se ha celebrado en Mayo de 2012 en Palma de Mallorca. Es la presidenta de la Asociación Balear de Project Managment, PM-IB (http://www.pmi-balear.org).

Dealing with Non-Functional Requirements in Practice: Report on Two Empirical Studies

  • Fecha: 23/11/2012
  • Ponente: Xavier Franch
  • Descripción: Dealing with Non-Functional Requirements (NFRs) has been in the last decades a challenge for software engineers. During all this time, many mechanisms have been proposed to improve the elicitation, specification, and validation of NFRs. Knowing more about the state of the practice on these topics may benefit both practitioners’ and researchers’ daily work. In this talk we show some of the findings that we obtained from two empirical studies. In the first one, 13 software architects were interviewed with questions such as: Who decides the NFRs? What types of NFRs are important to architects? How are NFRs documented? How are NFRs validated? In the second (ongoing) study, 15 technicians (not necessarily software architects) participating in OSS projects were interviewed with similar questions but in this particular context. We will present the findings and discuss possible relationships among the results of both studies.
  • Breve currículum del ponente: Xavier Franch is Associate Professor at the Service and Information System Engineering Department, UPC, Spain. He leads the Software Engineering for Information Systems research group, composed by 15 researchers. His research interests include Requirements Engineering (with special emphasis to goal-based RE and non-functional requirements issues), software architecture (relationships with RE and architectural knowledge), off-the-shelf-based software development (COTS&OSS) and service-oriented computing (service monitoring). He is principal investigator of the FP7 3-year project RISCOSS (Managing Risks and Costs in OSS Adoption, Nov. 2012-Oct. 2015). He leads a 3-year collaboration project with the Spanish-based consulting company Everis (April 2011-April 2014). He has authored or co-authored more than 150 publications in journals, conference proceedings and book chapters; receiving several awards. He was General Chair of RE 2008 (held at Barcelona). He is Steering Committee member of RE, CAiSE, REFSQ, CIbSE and JISBD. He was PC co-chair at CAiSE’12, REFSQ’11 and ICCBSS’06, and at the regional conferences CIbSE’10, JISBD’07 and WER’03. He was Workshop co-chair at CAiSE 2008 and now at CAiSE 2013. He has being or is being PB member at RE (2012, 201313), CAiSE (2011, 2013) and RCIS (2013), and participated in more than 100 PCs. He is Editorial Board member of Elsevier’s IST from 2012 and IGI Global’s IJISMD from 2010. Other relevant positions at conferences: Doctoral Symposium co-chair (RCIS, 2013), Mentor (RE, 2010-12), Proceedings co-chair (ICCBSS, 2005), Publicity Regional chair (RE, 2004). He has co-edited special issues in ISJ (2013), REJ (2012) and JSS (2008). He has co-organized the workshops: RECOTS (at RE conference, 2003-04); MPEC (ICSE, 2004-05); SOCCER (RE, 2005-06); APLE (SPLC, 2006); iStar (IDEAS, 2008; CAiSE, 2010; RE, 2011); and CMM (CAiSE, 2011). He is supporting member of the International Requirements Engineering Board (IREB).

La calidad de datos en los procesos de negocio

  • Fecha: 22/11/2012
  • Ponente: Dr. Ismael Caballero
  • Descripción: Una calidad de datos pobre puede tener graves repercusiones en la consecución de un proceso de negocio. Para entender por qué, es necesario hacer una introducción de los aspectos fundamentales de la calidad de datos, junto a su adaptación a los procesos de negocio. Ésto hace necesario introducir la metodología BPiDQ: A Methodology to Design DQ-Aware Business Processes, que permite guiar a un conjunto de expertos en el negocio y en calidad de datos en el trabajo de capturar e introducir requisitos de calidad de datos en el proceso de negocio. Como parte de esa metodología, se explicará también la extensión de BPMN 2.0 que se ha hecho para representar dichos requisitos, y la información que se tiene que gestionar sobre el proceso de negocio. (Hora: 10:00; Lugar: aula F1.84)
  • Breve currículum del ponente: Ismael Caballero es Doctor e Ingeniero en Informática por la Universidad de Castilla-La Mancha. Actualmente trabaja como profesor Contratado Doctor en el Departamento de Tecnologías y Sistemas de Información de la Universidad de Castilla-La Mancha. Su línea de investigación es gestión de calidad de datos. Ha publicado diversos artículos en congresos y revistas sobre el tema. Desde 2010 representa a España como experto nacional de AENOR en el ISO TC 184/SC4 WG13 que desarrolla estándares de calidad de datos y de información. Actúa como Project Editor en los estándares ISO 8000 partes 60 y 61 y es Project Leader de la parte 62. Ha liderado diversos proyectos de I+D a nivel nacional y regional.

How software services are described, and how they could be better described

  • Fecha: 21/11/2012
  • Ponente: Antonio Brogi
  • Descripción: The importance of contracts providing informative descriptions of software services is widely recognised. While different types of information – ranging from extra-functional properties to ontological annotations to behaviour descriptions – have been proposed for inclusion in service contracts, in practice only signature information is represented in a standard, machine-understandable way. After briefly recalling the role of signature and QoS information, and the objectives of ontology annotations, we will discuss the potentially huge advantages of exploiting behavioural information for service discovery and composition, and relate them to the cost of generating such information and to the needed trade-off between expressiveness, and cost and value of analysis. On such ground, we will also discuss the potential suitability of some well-known modelling approaches to become the de facto standard to represent service behaviour in contracts, also in view of contextual factors (such as shared know-how and current practices). Finally, we will conclude by illustrating some common tricks employed in the definition of the SLAs (Service Level Agreements) of some widely used software services.
  • Breve currículum del ponente: Antonio Brogi is full professor at the Department of Computer Science, University of Pisa (Italy) since 2004. Previously, he was associate professor (1998-2004) and assistant professor (1993-1998) at the same Department. From august 1994 to august 1995 he was visiting professor at the Department of Computer Science of UCLA (USA). He holds a Ph.D. in Computer Science (1993, University of Pisa). His research interests include service-oriented computing, coordination and adaptation of software elements, formal methods, and design of programming languages. He has published the results of his research in over 150 papers in international journals and conferences. He is member of the editorial board of the journals ”Advances in Computer Science and Engineering”, “Computer Languages, Systems and Structures”, and “International Journal of Web Science”. He has co-edited several special issues of international journals and has participated in the program committee of a number of international conferences and workshops in his areas of research. (A list of the program committees in which he has participated during the last years is available at http://www.di.unipi.it/~brogi/.) He has recently co-chaired the Twelfth Iberoamerican Conference on Software Engineering (CIbSE-IDEAS 2009), the Eight European Conference on Web Services (ECOWS 2010), and the Fourth Workshop on Formal Languages and Analysis of Contract-Oriented Software (FLACOS 2010). He is member of the steering committee of the CIbSE, ECOWS and FOCLASA conference series.

Análisis de experimentos mediante inferencia estadística: descripción y aplicación de test no paramétricos

  • Fecha: 20/11/2012
  • Ponente: Salvador García López
  • Descripción: El análisis de los experimentos llevados a cabo sobre una metodología propuesta es una tarea crucial en el desarrollo de la misma. En esta charla nos centramos en el uso de la inferencia estadística para analizar los resultados obtenidos en experimentos relacionados con la minería de datos y la inteligencia computacional. Presentamos algunos estudios con técnicas en diferentes ámbitos que pueden ser utilizados para la comparación rigurosa entre algoritmos. En particular, analizamos si la muestra con múltiples resultados obtenidos mediante la ejecución de varios algoritmos cumple con los requisitos para ser analizada con test paramétricos. En la mayoría de los casos, los resultados indican que el cumplimiento de estos requisitos depende del problema, lo que justifica el uso de test no paramétricos. Estudiamos un caso que se muestra el uso de test no paramétricos y finalmente damos una guía sobre cómo usar estos tests.
  • Breve currículum del ponente: Salvador García pertenece al Dpto. de Informática de la Universidad de Jaén, dentro del Área de Ciencias de la Computación e Inteligencia Artificial. Sus intereses de investigación se centran principalmente en la Minería de Datos, Preprocesamiento de Datos, Algoritmos Bioinspirados y Análisis Experimental mediante Inferencia Estadística. Obtuvo el título de Doctor en Ingeniería Informática por la Universidad de Granada en el año 2008. En la actualidad imparte su docencia en asignaturas de Inteligencia Artificial, como Metaheurísticas, Ingeniería del Conocimiento y Sistemas Inteligentes de Información. Es miembro del grupo de investigación SIMIDAT, Sistemas Inteligentes y Minería de Datos (TIC-207) y es responsable de proyectos de investigación de ámbito local. Ha publicado en revistas como Journal of Machine Learning Research, IEEE Transactions on Pattern Análisis and Machine Intelligence, IEEE Transactions on Knowledge and Data Engineering o IEEE Transactions on Evolutionary Computation. Cuenta en su currículum con más de 30 publicaciones en revistas internacionales indexadas y un total de más de 80 publicaciones contabilizando capítulos de libro y contribuciones a congresos. Pertenece a los comités científicos de diversas conferencias y comités editoriales de revistas. Dirige varias tesis doctorales en la temática de Preprocesamiento de Datos.

Enabling Flexibility in Process-aware Information Systems - Challenges, Methods, Technologies

  • Fecha: 31/5/2012
  • Ponente: Barbara Weber
  • Descripción: The economic success of enterprises increasingly depends on their ability to react to changes in their environment in a quick and flexible way. Companies have heretofore identified business agility as a competitive advantage to address business trends like increasing product and service variability and faster time-to-market and process-aware information systems (PAISs) are getting increasingly popular. In response to the need for flexible and easily adaptable PAIS, different paradigms and technologies for realizing flexible PAIS have emerged. Examples include adaptive, constraint-based and data‐driven approaches. This talk will present a comprehensive review of the challenges that exist for flexible PAIS, and it will give detailed insights into concepts, paradigms and technologies for their realization. Flexibility issues are discussed along the phases of the process lifecycle (i.e., design, modelling, configuration, execution, monitoring, and evolution). The talk not only covers flexibility requirements and enabling technologies for pre‐specified processes, but also for loosely specified ones.
  • Breve currículum del ponente: Barbara Weber obtained her Ph.D. in Economics at the Institute of Information Systems. Since 2004, she is researcher at the Department of Computer Science at the University of Innsbruck where she holds an Associate Professor position. She is a member of the Quality Engineering (QE) research group and head of the research cluster on business processes and workflows at QE. Her research areas include Business Process Management, Process Flexibility, Process Modeling, Integrated Process Lifecycle Support and Process Mining. She has published more than 80 papers and articles in, among others Data & Knowledge Engineering, Computers in Industry, Science of Computer Programming, Software Evolution and Maintenance, Requirements Engineering, and Enterprise Systems. Together with Manfred Reichert she has co-authored the book 'Enabling Flexibility in Process-aware Information Systems'. She has been co-chair of the successful BPI (business process intelligence) workshop series since 2007, is a member of the IEEE Task Force on Process Mining, and will be PC chair of next year's BPM conference.

Combining Agile and Model-Driven Development in Web Engineering

  • Fecha: 19/4/2012
  • Ponente: Gustavo Rossi
  • Descripción: In the last years, several Web methodological approaches were defined in order to support the systematic building of Web software. Together with the constant technological advances, these methods must be constantly improved to deal with a myriad of new feasible application features, such as those involving rich interaction features. Rich Internet Applications (RIA) are Web applications exhibiting interaction and interface features that are typical in desktop software. Some specific methodological resources are required to deal with these characteristics. This talk presents a solution for the treatment of Web Requirements in RIA development.
  • Breve currículum del ponente: Gustavo Rossi es Doctor por la PUC-Río, en Brasil desde 1996 bajo la dirección del Dr. Daniel Schwabe. Su tesis consistio en el desarrollo del enfoque OOHDM, que es hoy uno de los enfoques maduros para el desarrollo de aplicaciones Web. Actualmente es profesor en la Universidad de informática, en La Plata y director del LIFIA. Ha sido profesor invitado en las universidades de Lyon y de Montpellier en Francia y ha recibido la “Habilitation pour Diriger Recherches” (HDR) en el INSA-Lyon. Ha sido parte del comité de programa de las conferencias más importantes de su campo de investigación tales como Hypertexto de ACM, WWW, ICWE.

Business Intelligence based on data mining analysis

  • Fecha: 11/4/2012
  • Ponente: Stefanie Rinderle-Ma
  • Descripción: La minería de procesos es una técnica que permite el análisis de procesos de negocio basado en el estudio del log de eventos. La idea básica es extraer conocimiento sobre el modelo del proceso mediante el análisis de su comportamiento. La minería de procesos intenta la mejora de las técnicas y herramientas para el descubrimiento de los modelos que cubran el comportamiento observado, cuando dicho modelo no puede obtenerse de otra manera.
  • Breve currículum del ponente: Dr. Stefanie Rinderle-Ma is the head of Workflow Systems and Technologies in the University of Vienna. She obtained her PhD in Computer Science at the University of Ulm (Germany) in 2004 where she also finished her Habilitation in 2009. Between PhD and Habilitation, Stefanie had several postdoc stays (e.g., at the University of Twente, at the University of Ottawa, and at the Technical University of Eindhoven). Stefanie’s current research interests include adaptive process management technology with particular focus on integration and verification of semantic integrity constraints as well as security and privacy aspects in process-aware information. She has belonged to several program committees such as BPM, Coopis, HC-PAIS, BPMDS, ... She is the author of many papers in international conferences and important journals. She has also obtained important awards as "Merckle Research Award" in 2008, best paper in the 12th IEEE Int’l Enterprise Computing Conference, Dissertation Award by Ulmer University Society in 2006 or IFIP TC2 Manfred Paul Award for Excellence in Software Theory and Practice in 2005

Simulación aplicada a la mejora de los procesos de Gestión de Servicios TI

  • Fecha: 15/12/2011
  • Ponente: Elena Orta Cuevas
  • Descripción: La importancia, cada vez mayor, que tiene para las organizaciones gestionar adecuadamente sus servicios TI ha dado lugar a la aparición de nuevos marcos de trabajo, tales como, ISO/IEC 20000, ITIL, CMMI-SVC y COBIT, que ofrecen modelos de procesos de referencia y guías de buenas prácticas para la Gestión de Servicios. Sin embargo, a pesar de los beneficios que estos estándares y marcos de referencia proporcionan, su implantación en las organizaciones plantea una serie de problemas que es necesario resolver. En el contexto de esta problemática, se dará una visión global de las posibles aplicaciones de las técnicas de modelado y simulación en el ámbito de los procesos de gestión de servicios de ITIL V3 y se presentarán modelos de simulación construidos en el contexto de los procesos Generación de la Estrategia, Gestión de la Capacidad y Gestión de Incidencias. (Lugar: aula F0.31 de la Escuela Técnica Superior de Ingeniería Informática; Hora: 16:00 h.)
  • Breve currículum del ponente: Elena Orta Cuevas es Licenciada en Informática por la Universidad de Sevilla desde 1994 y Doctora en Ingeniería Informática por la Universidad de Cádiz desde julio del 2010. Su campo principal de investigación es la Ingeniería del Software con una dedicación especial al modelado y simulación de procesos. Es miembro del grupo de investigación ”SPI&FM: Mejora del Proceso Software y Métodos Formales” y actualmente investiga en la aplicación de las técnicas den modelado y simulación para la mejora de los procesos de gestión de servicios TI. Es coautora de varias publicaciones en revistas internacionales y de comunicaciones en conferencias nacionales e internacionales de investigación en ingeniería del software y en gestión de servicios.

DESARROLLO DE APLICACIONES WEB. USO DE APRENDIZAJE AUTOMÁTICO. Máquinas Núcleo y Aprendizaje por Refuerzo.

  • Fecha: 30/11/2011
  • Ponente: Cecilio Angulo Bahón
  • Descripción: El presente seminario tiene por objetivo exponer recientes avances en el campo de las máquinas núcleo, dentro de los sistemas clasificadores supervisados, así como introducir al alumno en el campo del aprendizaje por refuerzo y sus aplicaciones. Tales conocimientos se expondrán dentro de lo que sería el desarrollo de aplicaciones web, sobre todo en soluciones de movilidad, accesibilidad y usabilidad web. (Horario: 19 h., Lugar: aula F0.31 de la Escuela Técnica Superior de Ingeniería Informática)
  • Breve currículum del ponente: Cecilio Angulo Bahón es doctor en Ciencias por la Universitat Politècnica de Catalunya (2001). Compagina sus tareas docentes en el Departamento de Ingeniería de Sistemas, Automática e Informática Industrial de la Universitat Politècnica de Catalunya, con la investigación, que desarrolla como miembro del grupo GREC (Grupo de Investigación en Ingeniería de Conocimiento) de dicha universidad, en el seno del Centro de Estudios Tecnológicos para la Dependencia y la Vida Autónoma (CETpD). En la actualidad es el coordinador del máster universitario con mención de calidad en automática y robótica, secretario del capítulo español del IEEE en Computational Intelligence y miembro del consejo rector de la Asociación Catalana para la Inteligencia Artificial.

Simulación Multiparadigma de Procesos de la Ingeniería del Software

  • Fecha: 10/11/2011
  • Ponente: Mercedes Ruiz Carreira
  • Descripción: El modelado y simulación del proceso software (PSIM, Process Simulation Modeling) se puede utilizar para evaluar diferentes aspectos entre los que pueden citarse: la gestión estratégica del proceso, la adopción de una nueva herramienta o tecnología, el control y la gestión de los proyectos y el diseño de nuevos procesos o de mejoras para los ya existentes. PSIM se caracteriza por ser una herramienta flexible que puede ayudar a evaluar ideas de manera cuantitativa sin incurrir en los costes y los riesgos que conllevaría probar dichas ideas en el mundo real. En esta charla se introducirá la aplicación de la simulación en el ámbito de los procesos de la Ingeniería del software recorriendo los diferentes paradigmas disponibles y destacando las ventajas y beneficios de utilizar la simulación multiparadigma en este ámbito. (Lugar: aula F0.31 de la Escuela Técnica Superior de Ingeniería Informática, Horario: 16:00 h.)
  • Breve currículum del ponente: Mercedes Ruiz pertenece al Dpto. de Lenguajes y Sistemas Informáticos de la Universidad de Cádiz. Sus intereses de investigación se centran principalmente en las aplicaciones del modelado y simulación del proceso software a los ámbitos de gestión y mejora de dicho proceso, así como su integración con otras técnicas y su aplicación en otros ámbitos como la ingeniería de la usabilidad y el desarrollo de software orientado al servicio. Obtuvo el título de Doctora en Ingeniería Informática por la Universidad de Sevilla en el año 2003. En la actualidad imparte su docencia en asignaturas de ingeniería del software dedicadas a la planificación y gestión de proyectos y tecnologías avanzadas de las bases de datos. Dirige el grupo de investigación SPI&FM, Mejora del Proceso Software y Métodos Formales (TIC-195) y es responsable de proyectos de investigación de ámbito local y nacional. Ha publicado en revistas como Journal of Systems and Software o Software Quality Journal, capítulos de libros en Springer, Thomson, Netbiblo y WorldScientific. También ha participado en diferentes congresos nacionales e internacionales. Pertenece a los comités científicos de diversas conferencias (ICSP, CSSE, AMSM, ECC, etc.). Ha dirigido y dirige varias tesis doctorales en la temática de simulación del proceso software, sistemas interactivos y sistemas orientados al servicio. Es miembro de SISTEDES, ACM y de ACM-SIGSE.

Experimentación en la Ingeniería del Software

  • Fecha: 2/11/2011
  • Ponente: MARCELA FABIANA GENERO BOCCO
  • Descripción: Los objetivos de este seminario son: 1) Dar a conocer la imperiosa necesidad de validar empíricamente las tecnologías propuestas en Ingeniería del Software y 2) Mostrar cómo realizar experimentos controlados. (Lugar: salón de grados de la Escuela Técnica Superior de Ingeniería Informática. Hora: 18:00 h.)
  • Breve currículum del ponente: Profesora Titular de Universidad en el Departamento de Tecnologías y Sistemas de Información de la Universidad de Castilla-La Mancha, en Ciudad Real, España. En Enero de 2002 se graduó como Doctora en Informática en la Universidad de Castilla-La Mancha. Es Ingeniera en Informática, por la Universidad Nacional del Sur, en Bahía Blanca, Argentina (1989). Tiene numerosas publicaciones en revistas de prestigio internacional: International Journal on Software Engineering and Knowledge Engineering, Information Software and Technology, Data and Knowledge Engineering, Journal of Software Maintenance, Journal of Systems and Software, Data and knowledge Engineering, Software Quality Journal, Empirical Software Engineering, Information Sciences, Journal of Database Management, etc. Ha participado como editora, junto con Mario Piattini y Coral Calero de los libros ”Information and Database Quality” (publicado por Kluwer) y Metrics for Software Conceptual Models (publicado por Imperial Collage Press). Ha sido coautora de trabajos presentados en diferentes conferencias internacionales, como: SEKE, ER, CAISE, METRICS, ISESE, ESEM, UML/MODELS, etc. Es miembro de la red ISERN (International Software Engineering Research Network) y ha participado en numerosos comités de programas en congresos internacionales. Sus principales áreas de investigación son: calidad de modelos UML, calidad en MDD, Beneficios en el uso de UML, experimentación en la Ingeniería del Software, validación teórica y empírica de métricas, técnicas de análisis de datos empíricos, etc.

Classification, Clustering and Data Mining of Biological Data

  • Fecha: 21/7/2011
  • Ponente: Peter Revesz
  • Descripción: The proliferation of biological databases and the easy access enabled by the Internet is having a beneficial impact on biological sciences and transforming the way research is conducted. There are currently over 1100 molecular biology databases dispersed throughout the Internet. However, very few of them integrate data from multiple sources. To assist in the functional and evolutionary analysis of the abundant number of novel proteins, we introduce the PROFESS (PROtein Function, Evolution, Structure and Sequence) database that integrates data from various biological sources. PROFESS is freely available at http://cse.unl.edu/~profess/. Our database is designed to be versatile and expandable and will not confine analysis to a pre-existing set of data relationships. Using PROFESS, we were able to quantify homologous protein evolution and determine whether bacterial protein structures are subject to random drift after divergence from a common ancestor. After relevant data have been mined, they may be classified or clustered for further analysis. Data classification is usually achieved using machine-learning techniques. However, in many problems the raw data are already classified according to a set of features but need to be reclassified. Data reclassification is usually achieved using data integration methods that require the raw data, which may not be available or sharable because of privacy and legal concerns. We introduce general classification integration} and reclassification methods that create new classes by combining in a flexible way the existing classes without requiring access to the raw data. The flexibility is achieved by representing any linear classification in a constraint database. We also considered temporal data classification where the input is a temporal database that describes measurements over a period of time in history while the predicted class is expected to occur in the future. We experimented with the proposed classification methods on five datasets covering the automobile, meteorological and medical areas and showed significant improvements over existing methods. (Hora: 12:00, Lugar: aula F0.31)
  • Breve currículum del ponente: Peter Revesz holds a Ph.D. degree in Computer Science from Brown University. He was a postdoctoral fellow at the University of Toronto before joining the University of Nebraska-Lincoln, where he is a professor in the Department of Computer Science and Engineering. His current research interests are bioinformatics, geoinformatics and databases, in particular constraint, genome, spatial and temporal databases, and data mining. He is the author of the textbook Introduction to Databases: From Biological to Spatio-Temporal (Springer, 2010). He held visiting appointments at the IBM T.J. Watson Research Center, INRIA, the University of Hasselt, the Max Planck Institute for Computer Science, the University of Athens, and the U.S. Department of State. He is a recipient of an Alexander von Humboldt, a J. William Fulbright, and a Jefferson Science Fellowship.

Arquitecturas de Integración de Datos

  • Fecha: 28/4/2011
  • Ponente: Alberto Pan
  • Descripción: En esta charla se describen las principales tecnologías para integración de datos distribuidos existentes en la actualidad: la tradicional tecnología de Data Warehousing y las más novedosas Data Virtualization y Data Mashups. Se explican los conceptos básicos de las mismas y se discuten las diferencias entre ellas. También se se presentan diversos casos de uso reales y se detallan algunas lecciones aprendidas. (Lugar: aula de informática I2.33, hora:18:30).
  • Breve currículum del ponente: Alberto Pan. Profesor Contratado-Doctor en la Universidad de A Coruña. Sus temas de investigación incluyen la integración de datos distribuidos, automatización web y técnicas de integración de aplicaciones usando el enfoque de mashups. Ha publicado más de 40 artículos en revistas y congresos internacionales, incluyendo VLDB Conference, Data and Knowledge Engineering y IEEE/ACM Conference on Web Intelligence (WI). Es director de I+D de Denodo Technologies, empresa spin-off que comercializa la Plataforma Denodo, un sistema de Integración de Datos Distribuidos comercializado en España, el Reino Unido y los EstadosUnidos de América, que es utilizado en la actualidad por más de 50 empresas.

La empresa de Servicios TI y su Organización

  • Fecha: 25/1/2011
  • Ponente: Gregorio J. Carazo Dorado
  • Descripción: En esta conferencia se analizará la manera de traducir la formación recibida en las aulas universitarias a valor añadido en el mercado de trabajo. Se comentarán las necesidades del mercado actual y la manera de satisfacerlas, lo cual se hará mediante la descripción de los servicios que se prestan y la forma de organizarlos en una empresa concreta. (Lugar: salón de grados. Hora: 17:00)
  • Breve currículum del ponente: Gregorio Carazo es Ingeniero Industrial por la Universidad de Sevilla desde 1983 y ha completado su formación con el Máster en Economía y Dirección de Empresas del Instituto Internacional San Telmo. Tras un periodo inicial trabajando como Ingeniero Mecánico, comienza su trayectoria profesional en el sector TIC en el año 1985, cuando accedió a una beca de formación en IBM. En dicha empresa desempeñó, progresivamente, las labores de Ingeniero de Sistemas, Jefe de Proyectos y Consultor Tecnológico y de Negocio hasta 1997, año en el que pasa a dirigir el Departamento de Sistemas de Información de Rendelsur, concesionario de Coca-Cola para Andalucía y Extremadura. En los últimos años he compartido esta labor con el de apoyo a la gerencia de la empresa de servicios MGS.

Simulación aplicada a la mejora de los procesos de Gestión de Servicios TI

  • Fecha: 20/12/2010
  • Ponente: Elena Orta Cuevas
  • Descripción: La importancia, cada vez mayor, que tiene para las organizaciones gestionar adecuadamente sus servicios TI ha dado lugar a la aparición de nuevos marcos de trabajo, tales como, ISO/IEC 20000, ITIL, CMMI-SVC y COBIT, que ofrecen modelos de procesos de referencia y guías de buenas prácticas para la Gestión de Servicios. Sin embargo, a pesar de los beneficios que estos estándares y marcos de referencia proporcionan, su implantación en las organizaciones plantea una serie de problemas que es necesario resolver. En el contexto de esta problemática, nos centraremos en la aplicación de la simulación para la mejora de los procesos de gestión de servicios TI. En concreto, daremos una visión global de una metodología de construcción de modelos de simulación para la mejora de los procesos de gestión de servicios TI y de modelos de simulación construidos en el ámbito de los procesos Generación de la Estrategia, Gestión de la Capacidad y Gestión de Incidencias de ITIL V3. (Hora 18:30, Lugar: aula F0.31)
  • Breve currículum del ponente: Elena Orta Cuevas es Licenciada en Informática por la Universidad de Sevilla desde 1994 y Doctora en Ingeniería Informática por la Universidad de Cádiz desde julio del 2010. Su campo principal de investigación es la Ingeniería del Software con una dedicación especial al modelado y simulación de procesos. Es miembro del grupo de investigación ”SPI&FM: Mejora del Proceso Software y Métodos Formales” y actualmente investiga en la aplicación de las técnicas de modelado y simulación para la mejora de los procesos de gestión de servicios TI. Es coautora de varias publicaciones en revistas internacionales y de comunicaciones en conferencias nacionales e internacionales de investigación en ingeniería del software y en gestión de servicios.

Modelado y Simulación para la mejora del proceso software

  • Fecha: 13/12/2010
  • Ponente: Mercedes Ruiz Carreira
  • Descripción: El modelado y simulación del proceso software (PSIM, Process Simulation Modeling) se puede utilizar para evaluar diferentes aspectos entre los que pueden citarse: la gestión estratégica del proceso, la adopción de una nueva herramienta o tecnología, el control y la gestión de los proyectos y el diseño de nuevos procesos o de mejoras para los ya existentes. PSIM se caracteriza por ser una herramienta flexible que puede ayudar a evaluar ideas de manera cuantitativa sin incurrir en los costes y los riesgos que conllevaría probar dichas ideas en el mundo real. En esta charla se repasarán los objetivos, motivación y beneficios asociados con la aplicación de PSIM dentro de las organizaciones de software. De igual manera, se mostrarán ejemplos de cómo PSIM se ha implementado en algunas organizaciones para mejorar la consistencia y los resultados de sus procesos. (Lugar: aula F0.31, hora: 18:30)
  • Breve currículum del ponente: Mercedes Ruiz pertenece al Dpto. de Lenguajes y Sistemas Informáticos de la Universidad de Cádiz. Sus intereses de investigación se centran principalmente en las aplicaciones del modelado y simulación del proceso software a los ámbitos de gestión y mejora de dicho proceso, así como su integración con otras técnicas y su aplicación en otros ámbitos como la ingeniería de la usabilidad y el desarrollo de software orientado al servicio. Obtuvo el título de Doctora en Ingeniería Informática por la Universidad de Sevilla en el año 2003. En la actualidad imparte su docencia en asignaturas de ingeniería del software dedicadas a la planificación y gestión de proyectos y tecnologías avanzadas de las bases de datos. Dirige el grupo de investigación SPI&FM, Mejora del Proceso Software y Métodos Formales (TIC-195) y es responsable de proyectos de investigación de ámbito local y nacional. Ha publicado en revistas como Journal of Systems and Software o Software Quality Journal, capítulos de libros en Springer, Thomson, Netbiblo y WorldScientific. También ha participado en diferentes congresos nacionales e internacionales. Pertenece a los comités científicos de diversas conferencias (ICSP, CSSE, AMSM, ECC, etc.). Ha dirigido y dirige varias tesis doctorales en la temática de simulación del proceso software, sistemas interactivos y sistemas orientados al servicio. Es miembro de ACM y de ACM-SIGSE.

Modelo de Ayuda a la Decisión para Integración de Sistemas de Información en Cadenas de Suministro

  • Fecha: 3/12/2010
  • Ponente: Dania Pérez Armayor
  • Descripción: La necesidad de satisfacer a un cliente más exigente en un escenario donde los plazos de entrega deben ser cada vez menores y los costos reducirse para mantener la competitividad, unido al incremento de la incertidumbre respecto a la demanda, ha llevado a las organizaciones a colaborar formando cadenas de suministro. En la actualidad la competencia ya no se produce entre empresas, sino entre cadenas de suministro. La gestión de la cadena de suministros es un reto de colaboración y coordinación que implica la toma de decisiones con la información más actualizada y precisa de todos los miembros de la cadena. En la actualidad esta colaboración no es posible sin el empleo de sistemas de información automatizados. La evolución de los sistemas de información ha devenido en la coexistencia de una profusión de aplicaciones que no fueron diseñadas para comunicarse entre sí, en el momento de hacer frente a una creciente necesidad de integración y colaboración inter-organizacional. En aras de alcanzar el nivel de interoperabilidad requerido por las cadenas de suministro, comienzan a crearse soluciones de integración de sistemas de información, y en consecuencia se desarrollan múltiples tecnologías para ello. Es en ese contexto donde se introduce la Integración de Aplicaciones Empresariales (EAI por las siglas del término en inglés: Enterprise Application Integration) que reutiliza las tecnologías de integración de sistemas de información en el campo de aplicación inter-organizacional, incorporando funcionalidades de aplicaciones dispersas y orientándose hacia infraestructuras tecnológicas más baratas, funcionales y manejables, facilitando el retorno de las inversiones, la disminución de los costos y la colaboración entre miembros de la cadena. En el contexto actual la amplia variedad de estas tecnologías dificulta la selección de la combinación más apropiada, desde el punto de vista técnico y económico, para soportar la integración de una cadena de suministro específica. En esta charla se hablará sobre la investigación que está realizando la ponente y se propondrá un modelo de ayuda a la decisión basado en la lógica difusa compensatoria para facilitar la selección de tecnologías a utilizar en la integración de una cadena de suministro. (Lugar: sala de Juntas de la ETSI Informática; hora: 12:00)
  • Breve currículum del ponente: Dania Pérez Armayor, natural de la Habana, Cuba, es profesora asistente en el Instituto Superior Politécnico José Antonio Echeverría de la Habana, por el que obtuvo su título en Ingeniería Industrial. También es máster en Informática para negocios y desarrolla su actividad investigadora en el campo de la toma de decisiones para la integración en cadenas de suministro usando resultados del mundo de la lógica difusa.

Sobre la semántica de los lenguajes específicos de dominio de tiempo real

  • Fecha: 1/12/2010
  • Ponente: Francisco Durán
  • Descripción: Los lenguajes específicos de dominio y las transformaciones de modelos son las dos piezas clave en MDE. En esta charla se presenta una propuesta para definir formalmente los lenguajes de modelado específico de dominio. Se identifican dos vistas en esta definición: estructura y comportamiento, y se propone especificarlas como modelos independientes de cualquier dominio semántico. El modelo de estructura se define con un metamodelo. Para definir el modelo de comportamiento proponemos un lenguaje y herramienta, llamada e-Motions, que extiende la transformación de modelos in situ con un modelo de tiempo y un mecanismo para establecer propiedades sobre acciones. La solución propuesta evita la modificación de forma no natural de los metamodelos de los DSMLs (que definen la estructura del lenguaje) para incluir propiedades sobre acciones y tiempo (que están relacionados con el comportamiento del lenguaje). Además, la herramienta e-Motions permite usar la sintaxis concreta gráfica de los DSMLs para definir su correspondiente comportamiento, haciendo bastante intuitiva esta tarea, y refererirse y razonar acerca de ejecuciones de acciones. Una vez definidos los modelos de estructura y comportamiento, se han desarrollado un conjunto de transformaciones de modelos que permiten de manera automática obtener sus correspondientes especificaciones en lógica de reescritura en Maude, para así proveer a nuestro lenguaje con semántica, y poder hacer uso de las herramientas de simulación y análisis que Maude provee. Estas correspondencias semánticas también nos han permitido desarrollar en Maude un conjunto interesante de operaciones de gestión de modelos, tales como la diferencia y el subtipado de modelos. (Lugar: aula F0.31 Hora: 16:00)
  • Breve currículum del ponente: Francisco Durán es Titular de Universidad del Dpto. de Lenguajes y Sistemas Informáticos de la Universidad de Málaga. Sus líneas de investigación se centran fundamentalmente en torno a la especificación algebraica y a la utilización de los métodos formales en ingeniería del software. Forma parte del equipo internacional de investigadores que ha desarrollado y mantiene el lenguaje Maude, con dedicación especial a su extensión reflexiva Full Maude, su álgebra de módulos y algunas de las herramientas en su entorno formal, como son el Maude Termination Tool, el Church-Rosser Checker o el Coherence Checker. Entre sus áreas de interés relacionados con la ingeniería del software podemos destacar contribuciones en torno a ODP, servicios web, P2P y MDE. Más información sobre sus contribuciones áreas de interés están disponibles en http://www.lcc.uma.es/~duran.

Técnicas y Aplicaciones reales de los Problemas de Optimización y Satisfacción de Restricciones

  • Fecha: 23/11/2010
  • Ponente: Federico Barber
  • Descripción: Los problemas de satisfacción de restricciones (CSP) son problemas cuya solución debe satisfacer un conjunto de restricciones. Estos problemas aparecen en múltiples dominios de aplicación (sistemas de configuración y diseño, planificación y scheduling, sistemas de recuperación de la información, etc.) y son, en general, modelados por un conjunto de variables, sus dominios, y las restricciones de factibilidad entre las variables. Las principales técnicas de resolución de CSP corresponden a técnicas de inferencia/filtrado de nueva información y a técnicas heurísticas de búsqueda. Por otra parte, es habitual suponer que el conjunto de variables, dominios y restricciones que componen el CSP es totalmente conocido y fijo. Sin embargo, en situaciones reales, los problemas suelen ser dinámicos y no totalmente conocidos. Por ello, el CSP puede evolucionar con cambios o efectos inesperados. Los CSP dinámicos (DynCSP) requieren tratar con esa dinamicidad y, entre otros factores, persiguen obtener soluciones que sigan siendo válidas tras las incidencias, o que permitan obtener nuevas soluciones factibles cercanas a la original. Por otra parte, muchos problemas CSP requieren una solución que, además de satisfacer las restricciones, optimice también un determinado criterio. Esto conduce a los problemas de optimización y satisfacción (CSOP), que con una complejidad NP-hard, requieren técnicas metaheurísticas, constructivas o evolutivas, para poder obtener soluciones optimizadas en un tiempo razonable. En esta charla se revisaran los fundamentos de los problemas de optimización y satisfacción de restricciones, ilustrándolos con diversas aplicaciones reales de los mismos. Se presentarán las técnicas básicas y se remarcará el interés de obtener soluciones factibles, optimizadas, robustas y/o estables, de forma eficiente y en tiempos computacionales razonables. (Lugar: seminario F1.84, Hora: 12:15)
  • Breve currículum del ponente: Federico Barber es Catedrático de Universidad, del Dpto. de Sistemas Informáticos y Computación de la Universidad Politécnica de Valencia. Sus áreas de trabajo se centra fundamentalmente en los problemas de optimización y satisfacción de restricciones (scheduling, optimización, planificación temporal con recursos, razonamiento temporal, etc.), y en la ingeniería del conocimiento. Lidera el grupo de investigación “Inteligencia Artificial, Planificación y Scheduling (users.dsic.upv.es/grupos/gps/), encuadrado en el Instituto de Automática e Informática Industrial (www.ai2.upv.es). Ha participado/liderado diversos proyectos de investigación nacionales e internacionales, así como ha llevado a cabo diversos convenios de transferencia tecnológica, fundamentalmente orientados hacia la aplicación de tecnologías de IA. Es autor de diversos artículos sobre sus temas de interés, ha impartido diversos cursos, ponencias y conferencias, así como forma parte de diversos comités científicos nacionales e internacionales.

Recommender techniques and social models applied to Web services selection and composition

  • Fecha: 15/10/2010
  • Ponente: Prof. Leandro K. Wives
  • Descripción: Web services are paving the way applications are currently designed and developed. However, some obstacles like discovery and high availability still hinder the widespread acceptance of Web services by IT practitioners. Recommender systems may be used in this point, since they yield qualified advices about products and services that a user is interested in. However, the proper functioning of a recommender system depends on the information it has access to so that it can mine this information, create alternative solutions, and return appropriate advices. One important question is thus how to collect and analyze proper information about Web services functionalities and interactions. Recently, researchers started looking into Web services from a social perspective, in order to address Web services interactions. In this talk I will present the current issues for WS description, selection and composition and illustrate how we could capitalize on Web services interactions and descriptions to design and develop a social model to be used in a recommender system for these Web services. (Hora: 10:00 - 11:30. Lugar: seminario F1.84(b))
  • Breve currículum del ponente: Leandro Krug Wives is Associate Professor in the Institute of Informatics of the Federal University of Rio Grande do Sul (UFRGS), Brazil. He has a Ph.D. in Computer Science from the same institute (2004). In 2008 he worked as invited research in the Database`s research group at the TELECOM & Management SudParis, Évry, France. His research interests are text mining, information retrieval, and recommender systems. Currently he is working with the recommendation of Web services, and is supported by CNPq – Conselho Nacional de Desenvolvimento Científico e Tecnológico, Brazil.

Overview of Model-Oriented Research Projects at UFRGS

  • Fecha: 14/10/2010
  • Ponente: Prof. Marcelo Pimenta Soares
  • Descripción: The topics of the Model-Oriented or Model-Driven Development of our research group at UFRGS are centered around the integrated perspective of concepts, models and tools from Software Engineering and HCI areas. In this talk , an overview of some works related to Model-Orientation are presented, resuming some preliminary results and on-going activities, and introducing some specific research directions and projects. (Hora: 10:00-11:30. Lugar: seminario F1.84(b)))
  • Breve currículum del ponente: Marcelo S. Pimenta is an Associate Professor at Institute of Informatics, Federal University of Rio Grande do Sul (UFRGS), in Brazil. He received his PhD in Informatique at University of Toulouse 1, France, in 1997 and the bachelor and master´s degree in Computer Science at UFRGS in 1988 and 1991, respectively. Since 1998, he is member of a multidisciplinary research group at UFRGS working with topics in Human-Computer Interaction, Software Engineering, and Computer Music with emphasis in the integration of these areas. Currently his research is focused on Model-Oriented Interactive Systems Development, Model-Driven Approach to Object-Relational Mapping, Adaptive and Context-Aware Human-Computer Interaction Design, and User-Centered Software Engineering.

Overview of Ubicomp Research Projects at UFRGS

  • Fecha: 13/10/2010
  • Ponente: Prof. Claudio F.R. Geyer
  • Descripción: In this talk we will present an overview of our activities in Ubiquitous Computing (Ubicomp) and Model Driven Architecture. Initially the main concepts of Ubicomp will be resumed, as well its current challenges. We will also present a summary of the main topics of the ongoing research on Ubicomp at GPPD/UFRGS group. Some of the main topics are: Context-aware Computing, Communication and Coordination, Heath Care Applications. In a new research topic, we are trying to integrate some MDA ideas on our Ubicomp research. (Hora: 11:00-12:30. Lugar: seminario F1.84(b)))
  • Breve currículum del ponente: Claudio Fernando Resin Geyer is an associate professor at the Informatics Institute of UFRGS (Federal University of Rio Grande do Sul), in Brazil. He received his PhD in informatics from the Joseph Fourier University, France, in 1991. He is a member of ACM and Brazilian Computer Society. His research interests include ubiquitous computing, parallel and distributed computing, grid and volunteer computing, and massive multiplayer game computing.

Desarrollo agil y refactoring en aplicaciones web

  • Fecha: 1/6/2010
  • Ponente: Gustavo Rossi
  • Descripción: En esta charla introducimos webtdd un enfoque ágil que combina las ventajas del mdwe y los metodos extremos. En este contexto explicamos el concepto de refactoring para usabilidad en aplicaciones Web. (Hora: 16.30. Lugar: aula F031)
  • Breve currículum del ponente: Gustavo Rossi received his PHD diploma in PUC-Rio, Brazil in 1996 under the advising of Dr. Daniel Schwabe. His PHD thesis was the development of the OOHDM design approach, one of the mature methods for the development of Web Applications. He is currently full professor at Computer Science College, La Plata National University and head of LIFIA. He has been a visiting professor at the Universities of Lyon and Montpellier in France and has received the Habilitation pour Diriger Recherches (HDR) at INSA-Lyon. He has been part of the PC committee of the most important conferences of my research field such as ACM WWW, ICWE and ACM Hypertext

Model-Driven Development for Service-Oriented Architectures

  • Fecha: 29/4/2010
  • Ponente: Dra. Nora Koch
  • Descripción: En esta ponencia se presenta como la propuesta UWE y la ingeniería Web de un manera más general, puede adaptarse a los entornos orientados a servicios. (Hora: 12:00. Lugar: salón de grados de la ETSII)
  • Breve currículum del ponente: Nora Koch es assistente de investigación de la Ludwig-Maximilians-Universität (LMU) de Munich desde 1995 y trabaja en Cirquent GmbH en dirección de projectos desde 1998. Ella se ha doctorado en ciencias de la computación en la LMU en el año 2000. Nora es lider del Grupo Web Engineering de la LMU, que es responsable del desarrollo de la metodología UWE. Su interés en la investigación se centra en métodos para el desarrollo de aplicaciones para el entorno Web, personalisación de sistemas Web, ingeniería dirigida por modelos y architectura orientada a servicios. Ha organizado la 4ta Conferencia Internacional de Web Engineering (ICWE 2004) en Munich y cinco ediciones del Workshop Ingeniería Web dirigida por Modelos. Nora ha publicado más de 100 publicaciones. Más referencias en http://www.pst.ifi.lmu.de/people/staff/koch.

UML-based Web Engineering (UWE)

  • Fecha: 27/4/2010
  • Ponente: Dra. Nora Koch
  • Descripción: UWE es una propuesta, basada en UML que permite modelar y desarrollar aplicaciones de Ingeniería Web. Es una de las propuestas más citadas y tiene amplias aplicaciones empíricas. (Hora: 16:00. Lugar: salón de grados de la ETSII)
  • Breve currículum del ponente: Nora Koch es assistente de investigación de la Ludwig-Maximilians-Universität (LMU) de Munich desde 1995 y trabaja en Cirquent GmbH en dirección de projectos desde 1998. Ella se ha doctorado en ciencias de la computación en la LMU en el año 2000. Nora es lider del Grupo Web Engineering de la LMU, que es responsable del desarrollo de la metodología UWE. Su interés en la investigación se centra en métodos para el desarrollo de aplicaciones para el entorno Web, personalisación de sistemas Web, ingeniería dirigida por modelos y architectura orientada a servicios. Ha organizado la 4ta Conferencia Internacional de Web Engineering (ICWE 2004) en Munich y cinco ediciones del Workshop Ingeniería Web dirigida por Modelos. Nora ha publicado más de 100 publicaciones. Más referencias en http://www.pst.ifi.lmu.de/people/staff/koch.

Sistemas de Recomendación (II)

  • Fecha: 15/4/2010
  • Ponente: Iván Cantador
  • Descripción: Ver seminario Sistemas de Recomendación (I) (Hora:11:00 Lugar: Aula F1.84)
  • Breve currículum del ponente: Ver seminario Sistemas de Recomendación (I)

Sistemas de Recomendación (I)

  • Fecha: 14/4/2010
  • Ponente: Iván Cantador
  • Descripción: No hay duda alguna acerca del éxito que los sistemas de recuperación de información han obtenido al ofrecer servicios de búsquedas de contenidos en Internet. A partir de una consulta dada, motores de búsqueda comerciales como Google y Yahoo! Search seleccionan y muestran de forma ordenada, ponderada y en tiempo real listas de decenas a millones de documentos potencialmente relevantes. En este contexto, el usuario es consciente de sus necesidades y objetivos en la búsqueda de información, y parece conocer la manera en la que reflejarlos mediante consultas basadas en palabras clave. Ahora bien, ésta no es siempre la situación a la que nos enfrentamos. Cada día, al salir a la calle, leer el periódico, ver la televisión, escuchar la radio, o simplemente al charlar con un amigo, nos enteramos de hechos cuya existencia nos era desconocida, que no estábamos buscando, pero que son importantes o interesantes para nosotros, y que incluso pueden llegar a afectar de forma trascendental a nuestras propias vidas. Con el fin de estimar la relevancia y sugerir objetos que todavía no han sido consumidos por el usuario, sin necesidad de que este último los busque, los Sistemas de Recomendación surgen a mediados de los noventa como un área de investigación independiente de la Recuperación de Información y la Inteligencia Artificial. En esta charla se describirá el panorama del área de los Sistemas de Recomendación. Se hará una revisión de las diferentes estrategias de recomendación existentes, analizando las ventajas e inconvenientes de cada una de ellas. Se estudiarán dominios de aplicación y ejemplos de Sistemas de Recomendación exitosos tanto a nivel académico como profesional. Se comentarán cuáles son actualmente los grupos de investigación más prestigiosos, las empresas punteras, y los foros de discusión más importantes dentro del área. Finalmente, se enunciarán aquellos temas de investigación abiertos identificados por la comunidad, y se resumirá trabajo realizado y en curso del ponente sobre algunos de tales temas. (Hora: 18:00 Lugar: Aula F1.84)
  • Breve currículum del ponente: Iván Cantador es Profesor Ayudante Doctor en la Universidad Autónoma de Madrid, donde obtuvo los títulos de Ingeniero en Informática (2003) y de Doctor en Ingeniería Informática y de Telecomunicaciones (2008). Ha realizado estancias doctorales y posdoctorales en el Knowledge Media Institute de la Open University, en la University of Southampton, y en la University of Glasgow, todas ellas instituciones del Reino Unido. Ha participado en 8 proyectos de I+D, 2 de ellos financiados por el programa Marco de la Unión Europea, en las áreas de Recuperación de Información, Sistemas de Recomendación, Web Semántica, y Aprendizaje Automático. Recientemente, sus líneas de investigación se han centrado en recuperación de contenidos personalizada para sistemas sociales (Web 2.0), y en modelos de recomendación contextuales y dependientes del tiempo. Durante los últimos 6 años ha sido coautor de unas 40 publicaciones en revistas, libros y conferencias internacionales, y miembro de comités científicos y organizativos en diversos eventos nacionales e internacionales.

DigiMould- Moldeo digital para la industria cerámica. Una contribución a la Fabricación en Serie Personalizada.

  • Fecha: 14/4/2010
  • Ponente: Lledó Museros Cabedo
  • Descripción: El objetivo de esta charla es mostrar la aplicación de la tecnología estudiada en la asignatura “Desarrollo de Aplicaciones Web” a la industria. En concreto, durante la charla se presentará el resultado del proyecto Europeo “DigiMould- Moldeo digital para la industria cerámica. Una contribución a la Fabricación en Serie Personalizada”. El objetivo de este proyecto ha sido aplicar el concepto de “producción en serie personalizada” en la producción cerámica, para lo cual se han desarrollado un conjunto de herramientas flexibles e interactivas para la definición del producto según los requisitos de personalización. Estas herramientas iban encaminadas a la creación de una herramienta CAD para el diseño de piezas cerámicas ornamentales y de cenefas cerámicas que funcionase en Web y que debía acceder a una base de datos relacional. Dicha herramienta ha sido desarrollada utilizando Java 2D, Java3D, JSP, y Servlets. Por otro lado, al tratarse de un proyecto europeo, el desarrollo del proyecto ha implicado la colaboración de 9 empresas y centros de investigación de tres países diferentes, por lo que se explicará cómo se puede conseguir el objetivo deseado coordinando el trabajo en equipo, pero realizando el trabajo asignado de manera autónoma en diferentes sedes de diferentes países. (Hora:16:00 Lugar: aula F0.31)
  • Breve currículum del ponente: Lledó Museros Cabedo es doctora en Informática por la Universitat Jaume I. Actualmente compagina sus tareas docentes como profesora contratada doctor del Departamento de Ingeniería y Ciencias de los Computadores de la Universitat Jaume I, con la investigación, que desarrolla como miembro del grupo C4R2 (Cognition for Robotics Research) de dicha universidad. Obtuvo el Premio Extraordinario de Ingeniería Informática correspondiente al curso 97/98 de la Universitat Jaume I de Castellón, curso durante el cual fue becaria de colaboración del departamento de Informática de dicha universidad. En 1999 trabajó como personal investigador del departamento de Informática de la Universidad de Hamburgo colaborando con el reconocido doctor Christian Freksa. En el año 2000 se incorporó como profesora asociada al departamento de Informática de la Universitat Jaume I. En 2001 fue responsable del departamento de Quality Assurance en la empresa Isoco, Intelligent Software Components, S.A. Entre los años 2002 al 2005 fue profesora asociada del departamento de Ingeniería y Ciencias de los Computadores de la Universitat Jaume I, así como responsable de la unidad de robótica en el Instituto Tecnológico ALICER, Asociación para la Promoción del Diseño Cerámico. Desde 2005 hasta la actualidad ha colaborado en numerosos proyectos de colaboración con el departamento de máquinas y prototipos del Instituto de Tecnología Cerámica de Castellón. Su investigación se centra en: • el desarrollo de modelos teóricos cualitativos espacio-temporales y su integración en un único modelo para su aplicación a la navegación y planificación inteligente de robots autónomos, • la construcción de mapas cognitivos, • el desarrollo de técnicas de visión cognitivas, • integración de la información sensorial procedente de robots, • y automatización inteligente de procesos industriales, principalmente procesos productivos cerámicos. Ha trabajado en más de 20 proyectos de investigación y desarrollo de diversa índole, tanto regionales como nacionales y europeos. Ha publicado más de 30 artículos científico técnicos y ha presentado numerosas comunicaciones en congresos de su especialidad. En el año 2007 consiguió el VIII Premio de Investigación del Consell Social de la Universitat Jaume I de Castellón, como reconocimiento al impacto que su trabajo investigador ha tenido en el entorno socio-económico de la provincia de Castellón.

Un caso práctico de integración de las ingenierías del software, de datos y del conocimiento.

  • Fecha: 8/4/2010
  • Ponente: Luis Iribarne
  • Descripción: Los avances en la investigación de la informática aplicada requiere en muchos casos de la integración multidisciplinar de diversas ingenierías. Este es el caso de algunos sistemas de información basados en técnicas de softcomputing (redes neuronales, lógica difusa, sistemas inteligentes, etc.) que requieren una contraparte de las ingenierías del software, de datos y del conocimiento (SDK). La globalización de la información y de la sociedad del conocimiento ha contribuido también a que en los últimos años surja una nueva forma de implementar los modernos sistemas de información, en especial los basados en Web (WIS), construidos también en base a la aplicación de diversas ingenierías SDK, y donde se encamina la nueva Web 3.0 (i.e., nuevas técnicas de recuperación de información, Web semántica, sistemas inteligentes, integración dinámica de la información, etc.). Un ejemplo WIS son los actuales Sistemas de Información para la Gestión Medioambiental (EMIS). En esta charla se presenta el sistema SOLERES (un EMIS basado en redes neuronales, agentes y componentes software) como un ejemplo práctico WIS softcomputing de integración de ingenierías del software, de datos y del conocimiento.
    La charla tendrá lugar el día 8 de abril a las 16:00 en el laboratorio F0.31.
  • Breve currículum del ponente: Luis Iribarne, se licencia en Informática por la Universidad de Granada en 1991, y comienza a trabajar como Profesor Asociado entre 1991 hasta 1993 en la Universidad de Granada. En 1993 trabaja como Analista de Sistemas en el Servicio de Informática del Campus Universitario de Almería. Entre 1995 y 1999 trabaja también como investigador en el centro de investigación FIAPA (Fundación para la Investigación Agraria en la Provincia de Almeria). Desde 1994 es Profesor Docente e Investigador en la Universidad de Almería. En la actualidad posee el título de Doctor Ingeniero en Informática, y es Profesor Titular de Universidad en la Escuela Politécnica Superior de la Universidad de Almería, y Director del Grupo de Investigación Informática Aplicada (TIC-211, Grupo PAI de la Junta de Andalucía). Investigador en 17 proyectos y contratos I+D, 8 de ellos como investigador principal. Autor y co-autor en más de treinta publicaciones científicas de revista y capítulos de libro (nacional e internacional), y en otras treinta publicaciones en actas de congreso nacional e internacional. Miembro de comités de revisión de artículos científicos y titular en revistas internacionales como “International Journal of Knowledge Society Research” (IGI Global), “Information and Software Technology” (Elsevier), “Advances in Engineering Software” (Elsevier), “Journal of Information Systems Education” (JISE), “Magazine IEEE Internet Computing” (IEEE Comp. Soc.), “IEEE Trans. on Systems, Man and Cybernetics – Part A” (IEEE Comp. Soc.), y “Advances in Management Information Systems” (M.E. Sharpe). Miembro de comités de revisión de artículos y comités de programa en congresos ICIS, WSKS, CORE, o JISBD. Miembro de la Red Nacional de Desarrollo de Software Dirigido por Modelos (RN-DSDM), de SISTEDES, de la IEEE y de EUROMICRO. En la actualidad coordina el proyecto nacional SOLERES y el proyecto TRACE TDTrader, ambos del Ministerio de Ciencia e Innovación.

Diagnosability revisited for the design of self-healing services

  • Fecha: 5/4/2010
  • Ponente: Louise Travé-Massuyès
  • Descripción: The European project WS-Diamond has defined and developed a methodology for Web Service design which extends the state of the art including the possibility of taking diagnosability and repairability issues into account. The new methodology comes together with a set of open tools that support the new design process. This moves from and extends state of the art methodologies for Web Service design. Starting from the concepts of diagnosability and repairability, a characterization of self-healability that builds upon coupling the two later will be presented. The focus will be put on the analysis of web service workflows, i.e. the instance level observation and repair. This will shown to result in a generalization of diagnosability. Finally, the new design methodology architectured from the use of the set of tools provide by the project will be described. (Hora: 16:30 Lugar: Aula F0.31)
  • Breve currículum del ponente: Louise Travé-Massuyès is Research Director at the French National Center for Scientific Research (CNRS), working at LAAS, Toulouse, France. She received a Ph.D. degree in control in 1984 and an Engineering Degree specialized in control, electronics and computer science in 1982, both from the Institut National des Sciences Appliquées (INSA) in Toulouse, France; then an « Habilitation à Diriger des Recherches » from Paul Sabatier University in 1998. Her main research interests are in Dynamic Systems Supervision and Diagnosis with special focus on Qualitative and Model-Based Reasoning methods. In LAAS, she is responsible for the scientific area “Modeling, Control and System Optimisation” that oversees four research groups in the field of continuous and discrete automatic control and the scientific leader of the “Diagnosis, Supervision and Control” research group for several years. She has been particularly active in bridging the AI and Control Model-Based Diagnosis methods, as leader of the BRIDGE Task Group of the MONET European Network. She has been responsible for several industrial and european projects and published more than 100 papers in international conference proceedings and scientific journals. Other recent and current responsibilities include; member of the IFAC Safeprocess Technical Committee; member of the French University Council; Scientific Director of the Joint academic-industrial Laboratory AUTODIAG. She is a Senior Member of the IEEE Computer Society.

Paralelización de Algoritmos Evolutivos

  • Fecha: 15/3/2010
  • Ponente: Enrique Alba
  • Descripción: Las actividades que se desarrollarán consistirán en una exposición de los principales puntos necesarios para comprender los algoritmos evolutivos y su paralelización en clústers de máquinas, computación grid o unidades gráficas de proceso (GPU). Esta presentación se complementará con una discusión participativa con los alumnos, así como una clase tutorizada guiada con preguntas que permitan a los alumnos comprender las líneas abiertas de investigación. Se trabajará sobre supuestos prácticos y el software paralelo para su resolución, lo que permitirá al conjunto ser a la vez teórico y práctico para una mejor formación de los asistentes.
    La actividad se desarrollará a las 16:30 en el laboratorio F031.
  • Breve currículum del ponente: El Dr. Enrique Alba es ingeniero y doctor en Informática (1992 y 1999, respectivamente) por la Universidad de Málaga. En la actualidad es profesor catedrático de universidad y desarrolla su trabajo investigador coordinando un equipo de 7 doctores y 8 ingenieros, algunos de ellos en desarrollo de tesis doctoral bajo su dirección. Además de haber organizado eventos internacionales de prestigio (IEEE IPDPS-NIDISC, IEEE MSWiM, IEEE DS-RT, …) ha impartido decenas de cursos de doctorado, seminarios en más de 20 universidades extranjeras y dirigido numerosos proyectos de investigación (5 nacionales, 5 en Europa y numerosas acciones bilaterales). El Dr. Alba ha dirigido seis contratos de transferencia a la empresa (OPTIMI, Tartessos, ACERINOX, ARELANCE) y es actualmente profesor invitado del INRIA y la Universidad de Luxemburgo. El Dr. Alba es editor en 13 revistas internacionales (6 de ellas permanente) y una serie de libros de Springer-Verlag y Wiley, además de revisar trabajos para más de 30 revistas de impacto. Ha publicado 38 artículos en revistas indexadas en ISI-JCR, 17 en otras revistas, 40 artículos en LNCS y más de 100 en congresos con revisión. También ha publicado 11 libros y 39 capítulos de libro, habiendo además recibido 6 premios en su carrera investigadora, y con un índice H actualmente de 22 (más de 1500 referencias a sus trabajos). Su interés científico se centra en el diseño de algoritmos evolutivos y metaheurísticas en general para resolver problemas reales, incluyendo las comunicaciones, optimización combinatoria, ingeniería del software y bioinformática. El enfoque de este trabajo es en muchos casos el paralelismo en sus diferentes sabores.
  • Más información: [página web asociada]

Assigning Meaning to Models

  • Fecha: 8/3/2010
  • Ponente: Antonio Vallecillo
  • Descripción:

    Why do we model? Apart from to generating code, models can have (and should have) many different usages in the realm of Software Engineering including, e.g., understanding and reasoning about the system under study, simulating it, or analyzing its properties before the system is built. For these tasks we need to be able to make questions about the model, and therefore count on languages for expressing both the models and the questions, at the right level of abstraction, and using the appropriate notations. This talk discusses the need to count on different models to describe a system, using different languages, and how semantics can be assigned to them using model transformations. Such semantics define the "meanings" of models, making them amenable to interpretation and analysis. These analyses can range from behavioral simulation and formal reasoning (correctness, validation, model checking) to more agile ones, such as the graphical visualization of models for the detection of design anomalies, for instance.

    This seminar will take place in Room F031 at 16:00

  • Breve currículum del ponente: Antonio Vallecillo es profesor del Departamento de Lenguajes y Ciencias de la Computación de la Universidad de Malaga. Su investigación se centra en el procesamiento abierto y distribuido, el desarrollo de software dirigido por modelos, las tecnologías de componentes software y la evaluación de la calidad del software. Más información en http://www.lcc.uma.es/~av
  • Más información: [página web asociada]

Mejora de los Procesos de Desarrollo de Software - Una Visión Práctica

  • Fecha: 12/1/2010
  • Ponente: Antonio Sepúlveda Carrero
  • Descripción: Se presentarán los elementos que influyen en la Calidad del Software y los niveles de gestión de la calidad. También se tratarán temas relacionados con la mejora de los procesos, normas aplicables y certificación de la calidad. Por último, se abordarán aspectos relativos al Proyecto de Mejora de los Procesos, todo ello desde un punto de vista práctico.

    La charla tendrá lugar el día 12 de enero de 2010 a las 17:00 h. en el laboratorio F031.
  • Breve currículum del ponente: Antonio Sepúlveda es Responsable Técnico del Área de Calidad del Software en el Instituto Nacional de Tecnologías de la Comunicación (INTECO) desde el año 2007. Antes de incorporarse a INTECO, trabajó durante seis años en proyectos de desarrollo y mantenimiento software para varias consultoras tecnológicas, en clientes del sector financiero. Durante este periodo ocupó varios puestos, desde programador hasta jefe de proyecto. Cuenta con experiencia en la gestión de proyectos de desarrollo software, en la mejora de procesos de desarrollo software y en calidad del producto software. Posee formación en tecnologías de desarrollo, gestión de proyectos, gestión de servicios de TI, gestión de adquisición software, etc.

    Su incorporación a INTECO coincidió con la creación del Laboratorio Nacional de Calidad del Software, programa dedicado a la realización de iniciativas de difusión, promoción, formación, creación de servicios y herramientas; con el objetivo global de la mejora de la calidad del software en el tejido empresarial español. Actualmente es representante de INTECO en varias asociaciones (Asociación XBRL España, AENOR, etc.) relacionadas con la normalización y estandarización, y la calidad del software. Forma parte del subcomité de Ingeniería del Software y Sistemas de Información de AENOR y de los grupos de trabajo de este subcomité dedicados a los procesos de desarrollo software y gobierno de TI.
  • Más información: [página web asociada]

Acceso a la información multilingüe y multimodal

  • Fecha: 3/12/2009
  • Ponente: Alfonso Ureña
  • Descripción: Se presentarán los desarrollos obtenidos en el grupo de investigación acerca de la recuperación de información en su ámbito multilingüe. También se presentará los sistemas de búsqueda de respuestas concretando una arquitectura multilingüe.
    La charla tendrá lugar a las 16:00 en el laboratorio F031.
  • Breve currículum del ponente: Alfonso Ureña es Doctor en Informática y profesor Titular de Universidad en el área de Lenguajes y Sistemas Informáticos del Departamento de Informática de la Universidad de Jaén. En la actualidad es presidente de la Sociedad Española para el Procesamiento de Lenguaje Natural (SEPLN). Dirige el grupo de investigación SINAI (Sistemas Inteligentes de Acceso a la Información). Dicho grupo se dedica principalmente a la investigación y desarrollo de técnicas de procesamiento de lenguaje natural. Sistemas de Acceso y Tratamiento de Información Multilingüe y Multimodal. Pertenece a varias sociedades científicas. Es autor de un centenar de publicaciones tanto en revistas nacionales como internacionales de impacto, así como en congresos internacionales y nacionales. Ha impartido varias conferencias científicas, divulgativas tanto en España como en el extranjero. También ha participado en varios programas de doctorado con Mención de Calidad (Universidad de Granada-Jaén y Alicante) y participa actualmente en un máster de informática de la Universidad de Alicante. Igualmente, ha presidido varios congresos nacionales y ha participado en la organización de varios congresos, talleres y jornadas nacionales e internacionales. Ha participado en comités científicos y representaciones de una treintena de congresos nacionales e internacionales, así como revisor científico de otros. Asimismo, forma parte del comité de redacción de varias revistas. Dirige la red temática de investigación TIMM de la que forman parte más de 150 investigadores de toda España. Ha dirigido y dirige varios proyectos de investigación (nacionales y autonómicos), así como contratos con empresas
  • Más información: [página web asociada]

Factores para la calidad y productividad en los procesos de software

  • Fecha: 1/12/2009
  • Ponente: Luis Fernández Sanz
  • Descripción: Una de las principales preocupaciones de la gestión de proyectos y de la calidad del software es la combinación de las mejoras en los productos y en la satisfacción de los usuarios con la obtención de valores de productividad apropiados en los procesos de desarrollo. Lo cierto es que existen distintos factores de muy variada naturaleza que permiten este equilibrio en el desarrollo de software y de sistemas. Se abordará el análisis de dichos factores desde una perspectiva basada en los datos empíricos. Como ejemplo de la posibilidad de mejoras coordinadas en la calidad del software y en la productividad y eficiencia de los procesos implicados en el desarrollo de software se presentarán los resultados de distintas experiencias relacionados con las pruebas de software. Las pruebas de software constituyen uno de los procesos clave en los proyectos de desarrollo por el porcentaje de esfuerzo dedicado, por su influencia en el producto final y por ser uno de los procesos presente de forma clara en todos los proyectos, sea cual sea su nivel de formalidad y madurez. El serminario tendrá lugar a las 16:00 en el laboratorio F0.31.
  • Breve currículum del ponente: Licenciado en informática por la Universidad Politécnica de Madrid y doctor en Informática por la Universidad del País Vasco. Con más de 20 años de experiencia docente y de investigación ha sido profesor en la Universidad Politécnica de Madrid (1989-1996), Universidad Europea de Madrid, donde fue director de departamento y responsable de titulaciones, (1996-2008) y Universidad de Alcalá (desde 2008). Es coordinador del grupo de Calidad del Software (www.ati.es/gtcalidadsoft) de la Asociación de técnicos de Informática (www.ati.es). Es autor de libros sobre ingeniería y calidad del software y ha participado en decenas de proyectos de investigación y de consultoría en el ámbito del desarrollo y calidad de software.

Modelado y simulación del proceso software

  • Fecha: 24/11/2009
  • Ponente: Mercedes Ruiz Carreira
  • Descripción: El modelado y simulación del proceso software (PSIM, Process Simulation Modeling) se puede utilizar para evaluar diferentes aspectos entre los que pueden citarse: la gestión estratégica del proceso, la adopción de una nueva herramienta o tecnología, el control y la gestión de los proyectos y el diseño de nuevos procesos o de mejoras para los ya existentes. PSIM se caracteriza por ser una herramienta flexible que puede ayudar a evaluar ideas de manera cuantitativa sin incurrir en los costes y los riesgos que conllevaría probar dichas ideas en el mundo real. En esta charla se repasarán los objetivos, motivación y beneficios asociados con la aplicación de PSIM dentro de las organizaciones de software. De igual manera, se mostrarán ejemplos de cómo PSIM se ha implementado en algunas organizaciones para mejorar la consistencia y los resultados de sus procesos. El serminario tendrá lugar a las 16:00 en el laboratorio F0.31.
  • Breve currículum del ponente: Mercedes pertenece al Dpto. de Lenguajes y Sistemas Informáticos de la Universidad de Cádiz. Sus intereses de investigación se centran principalmente en las aplicaciones del modelado y simulación del proceso software a los ámbitos de gestión y mejora de dicho proceso, así como su integración con otras técnicas y su aplicación en otros ámbitos como la ingeniería de la usabilidad y el desarrollo de software orientado al servicio. Obtuvo el título de Doctora en Ingeniería Informática por la Universidad de Sevilla en el año 2003. En la actualidad imparte su docencia en asignaturas de ingeniería del software dedicadas a la planificación y gestión de proyectos y tecnologías avanzadas de las bases de datos. Dirige el grupo de investigación SPI&FM, Mejora del Proceso Software y Métodos Formales (TIC-195) y es responsable de proyectos de investigación de ámbito local y nacional. Ha publicado en revistas como Journal of Systems and Software o Software Quality Journal, capítulos de libros en Springer, Thomson, Netbiblo y WorldScientific. También ha participado en diferentes congresos nacionales e internacionales. Pertenece a los comités científicos de diversas conferencias (ICSP, CSSE, AMSM, ECC, etc.). En la actualidad dirige varias tesis doctorales en la temática de simulación del proceso software, sistemas interactivos y sistemas orientados al servicio.

Integración de Datos Distribuidos: De la teoría a la práctica

  • Fecha: 15/10/2009
  • Ponente: Alberto Pan
  • Descripción:

    En esta charla se comienza repasando algunas de las principales técnicas existentes para Integración de Información Distribuida, haciendo especial énfasis en las técnicas de integración virtual, conocidas como técnicas de mediación en el mundo académico y como técnicas EII en el mundo industrial. Posteriormente se detallan algunas lecciones aprendidas sobre su puesta en práctica y se presentan diversos casos de uso reales de esta tecnología.

    El serminario tendrá lugar en el Laboratorio F0.31 a las 17:00h.

  • Breve currículum del ponente: Profesor Contratado-Doctor en la Universidad de A Coruña. Sus temas de investigación incluyen la integración de datos distribuidos, automatización web y técnicas de integración de aplicaciones usando el enfoque de mashups. Ha publicado más de 40 artículos en revistas y congresos internacionales, incluyendo VLDB Conference, Data and Knowledge Engineering y IEEE/ACM Conference on Web Intelligence (WI). Es director de I+D de Denodo Technologies, empresa spin-off que comercializa la Plataforma Denodo, un sistema de Integración de Datos Distribuidos comercializado en España, el Reino Unido y los Estados Unidos de América, que es utilizado en la actualidad por más de 50 empresas.

Data Mining en aplicaciones de atención a la dependencia

  • Fecha: 3/6/2009
  • Ponente: Cecilio Angulo
  • Descripción:

    El Centro de Estudios Tecnológicos para la Atención a la Dependencia y la Vida Autónoma, CETpD-UPC, es un centro de investigación de la UPC básicamente formado por el personal técnico de dos Grupos de Investigación (GREC – Grupo de Investigación en Ingeniería del Conocimiento y AHA – Grupo de Arquitecturas Hardware Avanzadas). Dicho centro, además de mantener las competencias propias de los grupos integrantes: sistemas inteligentes, diseño y especificación de sistemas electrónicos, sistemas de aprendizaje automático, robots autónomos,... tiene como principal perfil de experticia la aplicación de la tecnología electrónica y de comunicaciones para el aumento de la calidad de vida y ayuda a las personas con necesidades especiales y personas mayores. (http://www.upc.edu/cetpd). La charla mostrará aplicaciones desarrolladas en el CETpD basadas en los objetivos siguientes de investigación: 1) Paradigmas de cómputo (soft-computing y pervasive-computing). 2) Uso de dispositivos tecnológicos avanzados para aplicaciones y desarrollo de sistemas de ambiente asistido, cuidado médico, atención a diversidad funcional, accesibilidad. 3) Diseño y desarrollo de interficies adaptadas con experiencia de usuario (sensores inteligentes, interfaces inteligentes, redes de sensores corporales,...).

    La charla tendrá lugar en el laboratorio F0.31, el 3 de junio de 2009 a las 10:00

  • Breve currículum del ponente: Licenciado en Matemáticas por la Universidad de Barcelona y Doctor en Ciencias por la Universidad Politécnica de Catalunya (UPC). Profesor Agregat (Contratado Doctor) y Subdirector de Investigación en el Departamento de Ingeniería de Sistemas Automática e Informática Industrial. Responsable en formación del Grupo de Investigación en Ingeniería del Conocimiento (GREC) desde 2005 y miembro de la Junta del Centro de Estudios Tecnológicos para la Atención a la Dependencia y la Vida Autónoma (CETpD). Autor de más de 15 artículos en revistas internacionales indexadas y de más de 30 en congresos internacionales. Responsable de proyectos tanto nacionales como internacionales. En la actualidad es beneficiario de una beca de intensificación investigadora I3 (2008-2010). Áreas de investigación: Inteligencia Artificial, Robótica Social y Sistemas de Inteligencia Ambiental.
  • Más información: [página web asociada]

Extractores de información para la integración de islas de datos amigables en la Web

  • Fecha: 6/5/2009
  • Ponente: José L. Arjona
  • Descripción:

    La solución al problema de la integración de islas de datos amigables en la Web pasa por la simulación mediante APIs de la interacción de un humano con la Web. Dicha interacción requiere de extractores de información que extraigan de las páginas de datos la información de interés y la estructure de acuerdo con la ontología que estemos utilizando.

    Las charlas se centrarán en presentar los conceptos más importantes en extracción de información, clasificar los sistemas existentes e ilustrar el funcionamiento de algunos de ellos. Tendrán lugar en el laboratorio F0.31 a las 10:30AM.

  • Breve currículum del ponente: José L. Arjona es profesor de la Universidad de Huelva especialista en integración de información y aplicaciones empresariales. Durante su trayectoria profesional a participado en múltiples proyectos relacionados con el tema.
  • Más información: [página web asociada]

La tecnología LiDAR

  • Fecha: 21/4/2009
  • Ponente: Mariano García
  • Descripción:

    La tecnología LiDAR (Light Detection and Ranging) está siendo utilizada para la adquisición de datos en un número cada vez mayor de aplicaciones. Entre estas aplicaciones se encuentran la generación de modelos digitales del terreno y/o de superficie (MDT/MDS), modelos urbanos tridimensionales, estimación de diversos parámetros forestales (alturas, volúmenes, biomasa, etcétera), cartografía de líneas eléctricas o estudios batimétricos (Maas and Vosselman, 1999; Næsset et al., 2004, Irish and White, 1998). El gran potencial mostrado por esta técnica en dichas aplicaciones recae sobre su habilidad para generar una densa nube tridimensional de puntos que describen la superficie terrestre. El principio de funcionamiento consiste en la emisión de un pulso láser y en la determinación de la distancia entre el sensor y objeto sobre el que incide el pulso láser, en función del tiempo de retorno del pulso. La tecnología LiDAR es suficientemente madura, empleándose no sólo ya en proyectos de investigación, sino también de manera operativa en gestión ambiental y territorial. Una vez adquiridos los datos, es necesario en primer lugar aplicar mecanismos automatizados para discriminar el suelo desnudo del resto de los elementos situados sobre el terreno, lo que se denomina “filtrado de datos”. También es necesario poder clasificar correctamente los distintos puntos clasificados en la fase anterior como “no-terreno”. Existe actualmente una gran actividad investigadora en este campo, tanto desde el punto de vista del filtrado automático de los datos, como en el desarrollo de aplicaciones específicas de este tipo de datos en estudios ambientales. Tradicionalmente, se ha centrado la atención en el uso de la información correspondiente a la distribución de alturas, sin embargo, los nuevos sensores son capaces de grabar la “intensidad” de los retornos. Esta variable constituye también un importante campo de investigación actualmente, junto con la integración de esta información con sensores ópticos. A pesar de tratarse de una tecnología relativamente reciente, el Lidar permite obtener información de alta calidad a bajo coste, si se compara con información equivalente obtenida en campo.

    El seminario tendrá lugar en el laboratorio F0.31

  • Breve currículum del ponente: Mariano García es Ingeniero en Geodesia y Cartografía donde fue el número uno de su promoción. Posee además, un Master en Sistemas de Información Geográfica con Teledetección por la Universidad de Greenwich recibiendo por su trabajo fin de Master el premio a la mejor tesis de Master. En la actualidad, es investigador de la Universidad de Alcalá y en concreto, becario con cargo a proyectos del Departamento de Geografía e Historia. Su labor de investigación se centra en tareas relacionadas con temas de teledetección, LIDAR, propiedades de combustibles e incendios forestales. Ha participado en numerosos proyectos de investigación internacionales y ha publicado una docena de artículos relacionados con temas de teledetección. Entre ellos destacan dos en Remote Sensing of Environment, la revista con el jcr más alto de las que tratan temas de teledetección ambiental. Por otra parte, ha realizado tareas como docente en diversas asignaturas de la facultad de Geografía e Historia y desde el 2002, ha desempeñado el puesto de coordinador académico del Master en Sistemas de Información Geográfica, Teledetección y Cartografía del Departamento de Geografía de la Universidad de Alcalá.

Integración de datos, información y conocimiento

  • Fecha: 12/3/2009
  • Ponente: Rafael Berlanga
  • Descripción: El Prof. Berlanga presentará los resultados de su grupo de investigación en relación con las técnicas de integración que han desarrollado en los últimos años.
  • Breve currículum del ponente: Rafael Berlanga es el investigador principal del grupo KBG (Knowledge Bases Group) de la Universitat Jaume I de Castellón. Dicho grupo se dedica principalmente a la investigación y desarrollo de nuevas técnicas para la integración y gestión de fuentes de información heterogéneas. La experiencia del grupo se inicia en el año 1997 con el proyecto CICYT Chronology, el cual tuvo como objetivo la creación de un repositorio integrado de periódicos digitales publicados en la Web. Uno de los resultados de este proyecto fue uno de los primeros wrappers en XML sobre sitios Web. Posteriormente, con la irrupción de XML, el grupo se dedicó al diseño de técnicas de almacenamiento, consulta y análisis de información publicada en este formato. Actualmente, el grupo trabaja en la integración semántica de contenidos tanto estructurados como no estructurados (ej. texto). Dicha integración se aborda desde la perspectiva de la Web Semántica. Los resultados de todas estas investigaciones han dado lugar a varias publicaciones en revistas de impacto, tales como Information Processing & Management, Decision Support Systems, IEEE Trans. on Data and Knowledge Engineering, y Data & Knowledge Engineering, así como a una larga lista de contribuciones a congresos internacionales de relevancia.
  • Más información: [página web asociada]

El uso de la tecnología Lidar para aplicaciones ambientales

  • Fecha: 18/6/2008
  • Ponente: David Riaño
  • Descripción: (Salón de grados de la ETSI Informática, 11:00h)
    La tecnología Lidar permite obtener modelos tridimensionales del terreno con alta precisión. El funcionamiento de este tipo de equipos está basado en pulsos láser cuya posición se conoce gracias al equipamiento asociado formado por un sistema inercial y GPS. La tecnología es suficientemente madura, empleándose no sólo ya en proyectos de investigación, sino también en gestión ambiental y territorial. Existen gran cantidad de sensores comerciales, así como previsión de nuevos equipos más sofisticados basados en los mismos principios físicos. Una vez adquiridos los datos, es necesario aplicar mecanismos automatizados para discriminar en primer lugar el suelo desnudo del resto de los elementos situados sobre el terreno. En la actualidad, se dispone de un formato de los datos y software específico para el procesamiento de esta información. Resulta también de especial interés la fusión de Lidar con otros sensores ópticos. El Lidar permite obtener información de alta calidad a bajo coste, si se compara con información equivalente obtenida en campo. Las aplicaciones posibles son innumerables, desde por ejemplo inventario forestal hasta evaluación de estabilidad de muros de contención.
  • Breve currículum del ponente: David Riaño es doctor en Ciencias Ambientales por la Universidad de Alcalá y afiliado al Center for Spatial Technologies and Remote Sensing (CSTARS) University of California y al Instituto de Economía, Geografía y Demografía, Centro de Ciencias Humanas y Sociales, CSIC.

Business Process Management (BPM) e Ingeniería del Software

  • Fecha: 27/5/2008
  • Ponente: Francisco Ruiz
  • Descripción: La tecnología BPM está teniendo un gran auge en las empresas como pieza clave y central de su mejora y competitividad. Por ello, dentro del campo de la Ingeniería del Software se ha desarrollado una nueva línea que estudia y analiza el papel que los procesos de negocio y su tecnología asociada juega a la hora de desarrollar sistemas de información. En esta charla se hará una introducción a la tecnología BPM, se presentará el lenguaje estándar de modelado de procesos BPMN y, por último, se presentarán los principales patrones de proceso. La charla tendrá luga a las 11:00 en la sala F1.84b.
  • Breve currículum del ponente: Doctor Ingeniero en Informática por la Universidad de Castilla-La Mancha (UCLM), y Licenciado en CC. Químicas, especialidad Química-Física por la Universidad Complutense de Madrid. Es profesor titular en el Departamento de Tecnologías y Sistemas de Información de la UCLM, en Ciudad Real (España). Ha sido Director de la Escuela Superior de Informática entre 1993 y 2000. Anteriormente, fue Director de los Servicios Informáticos de la UCLM (1985-1989) y también trabajó de analista-programador y jefe de proyectos en varias compañías privadas. Sus temas de investigación actuales incluyen: modelado y medición de procesos de negocio, tecnología y modelado de procesos software, mantenimiento del software, metodologías para planificar y gestionar proyectos software. Otros temas de trabajo en el pasado han sido: SIG (sistemas de información geográficos), entornos software para la educación y bases de datos deductivas. Ha publicado 8 libros y 18 capítulos sobre los temas citados y tiene 26 artículos en revistas internacionales referidas, además de más de un centenar de publicaciones en otras revistas, congresos, conferencias y talleres. Ha sido miembro de 30 comités de programa, revisor en 4 eventos científicos, y miembro de 7 comités organizadores de congresos. Pertenece a diversas asociaciones científicas y profesionales (ACM, IEEE-CS, ATI, AEC, AENOR, ISO JTC1/SC7, EASST, AENUI y ACTA).
  • Más información: [página web asociada]

La Web Semántica

  • Fecha: 15/5/2008
  • Ponente: Óscar Corcho
  • Descripción:

    La web semantica propone una evolución de la web basada en descripciones declarativas de datos y programas. Esta evolución inaugura el desarrollo de una nueva tecnología con aplicaciones tan diversas como portales semántico, buscadores, combinación Web Semántica con Web 2.0, servicios web semánticos y aplicaciones avanzadas como el Grid semántico.

    La charla tendrá lugar de 18:30 a 20:30 en el laboratorio F0.31

  • Breve currículum del ponente: Óscar Corcho García es profesor titular de la facultad de informática en la UPM. Es doctor en ciencias de la computación e inteligencia artificial. Especialista en ontologías y web semántica. Destacan sus aportaciones en libros, capítulos de libros y sus numerosos artículos de investigación en revistas de prestigio.
  • Más información: [página web asociada]

Creación de Wrappers para la Web Profunda y Tendencias Futuras

  • Fecha: 15/5/2008
  • Ponente: Vicente Luque
  • Descripción:

    En esta presentación se mostrarán las posibilidades tecnológicas que ofrece el lenguaje WebL para la creación de wrappers para el Web profundo. Se analizarán las primitivas básicas del lenguaje, su potencia, sus limitaciones y la forma en la que se pueden subsanar algunos defectos encontrados en la plataforma del lenguaje.

    A continuación, se mostrarán algunas propuestas acerca de cómo la Web semántica puede ser utilizada, no para la creación de sitios Web dotados de semántica (punto de vista del servidor), sino para anotar la forma en la que los sitios Web legados sin semántica ni API de programación pueden ser navegados (punto de vista del cliente). La idea de esta charla es vislumbrar cómo las tecnologías de Web semántica pueden ayudar a reducir sensiblemente el coste de mantenimiento de los Wrappers del Web profundo y se mostrarán también algunas ideas de mejora sobre el desarrollo actual de Wrappers.

  • Breve currículum del ponente: Vicente Luque Centeno es Doctor Ingeniero en Telecomunicaciones por la UC3M (Universidad Carlos III de Madrid) desde 2003 e Ingeniero en Informática por la UPM (Universidad Politécnica de Madrid) desde 1996. Trabaja como profesor en la UC3M compaginando la docencia con la investigación en los programas envoltorio para la Web profunda (Web wrappers), la accesibilidad Web y la ingeniería Web en general.
  • Más información: [página web asociada]

Textual Entailment

  • Fecha: 5/5/2008
  • Ponente: Horacio Rodríguez
  • Descripción:

    Textual Entailment una tarea de tratamiento semántico de texto en la que el objetivo es determinar si el significado de un texto se puede inferir del significado de otro texto. Por ejemplo dados los textos "El encuentro del G8, de tres días, tendrá lugar en Escocia" y "La reunión del Grupo de los Ocho durará tres días", el significado del segundo se puede claramente inferir del primero. Esta tarea es de gran utilidad en aplicaciones que requieran de algún tratamiento semántico como por ejemplo la generación del lenguaje natural, la generación de resúmenes, la extracción de información o la búsqueda automática de respuestas.

    Las charlas serán los siguientes días y en las siguientes aulas:

    • Lunes 5 de mayo: 18:30-20:30 (aula F0.31)
    • Martes 6 de mayo: 16:30-19:30 (aula F1.84)
    • Miércoles 7 de mayo: 10:30-13:30 (aula F1.84)
    • Jueves 8 de mayo: 12:30-14:30 (aula F1.84)
  • Breve currículum del ponente: Horacio Rodríguez es profesor de la Universidad Politéctica de Barcelona experto en temas relacionados con el reconocimiento y procesamiento de lenguaje natural.
  • Más información: [página web asociada]

Identidad Digital en Internet

  • Fecha: 29/4/2008
  • Ponente: Diego R. López
  • Descripción:

    Esta charla pretende proporcionar una introducción a los desarrollos recientes en materia de identidad digital en Internet, con especial énfasis en los mecanismos que permiten utilizar servicios específicos de acuerdo con la identidad del usuario. En ese marco analizaremos las posibilidades que ofrecen los modelos de federación de identidad y la gestión centrada en el usuario, y las nuevas posibilidades que abren a usuarios y proveedores.

    La charla tendrá lugar el día 29 de abril a las 12:00h en el salón de grados de la ETSII

  • Breve currículum del ponente: Diego R. López es el responsable del Área de Middleware de RedIRIS, la red académica nacional. Doctor en Física por la Universidad de Sevilla, ha trabajado desde 1985 en proyectos relacionados con los servicios de red en Telefónica I+D, varias compañías de consultoría y el CICA antes de unirse al equipo de RedIRIS en 2000. Actualmente preside la TF-EMC2 (Task Force on European Middleware Coordination and Collaboration) y el ECAM (European Council for Academic Middleware) y es uno de los tres miembros europeos del MACE (Middleware Architecture Committee for Education) de Internet2. Es miembro de la Internet Society, la IEEE Computer Society y ATI.

Biclustering de Datos Genómicos

  • Fecha: 25/3/2008
  • Ponente: Jesús S. Aguilar
  • Descripción:

    Las características comunes principales de las técnicas de clustering se resumen en la búsqueda de conjuntos disjuntos de genes, de tal manera que aquellos genes que se encuentren en un mismo cluster presenten un comportamiento similar frente a todas las condiciones del microarray. Además, cada uno de los genes debe pertenecer a un único cluster (y no a ninguno) al final del proceso.

    Las técnicas de biclustering se presentan como una alternativa más flexible, ya que permiten que las agrupaciones se formen no solo en base a una dimensión, sino que sea posible formar biclusters que contengan genes que presenten un comportamiento similar frente a un subconjunto de condiciones del microarray. Esta característica es muy importante, ya que aumenta la capacidad de extracción de información a partir de un mismo microarray, pudiendo ignorar determinadas condiciones frente a las cuales un grupo de genes no se co-expresen. De la misma forma, también es posible hacer biclustering en el sentido inverso, esto es, seleccionando características en función de un subconjunto concreto de genes, aunque este punto de vista ha sido menos estudiado ya que resulta menos interesante desde el punto de vista biológico.

    Otro aspecto importante que diferencia a las técnicas de biclustering frente a las de clustering es la forma en que las agrupaciones son hechas, ya que ahora se permite el solapamiento (varios genes pueden estar contenidos en varios biclusters a la vez), así como que existan genes (o condiciones) que no se hayan incluido en ningún subconjunto. Esta característica aporta más flexibilidad a este tipo de técnicas, ya que no obliga a incluir cada gen en una agrupación determinada, sino que un determinado gen no pertenecerá a ningún bicluster si sus valores de expresión no se ajustan a ninguno de los patrones. Asimismo, es posible que un mismo gen pertenezca a varios biclusters, si en cada uno de ellos se consideran un subconjunto de todas las condiciones experimentales, de forma que un mismo gen pueda estar participando en varias funciones celulares de manera simultánea.

  • Breve currículum del ponente: Jesús S. Aguilar es Ingeniero en Informática desde el año 1997 y Doctor por la Universidad de Sevilla desde 2001. Recibió el Premio Extraordinario de Doctorado de la Universidad de Sevilla y el Premio José Cuena a la mejor Tesis Iberoamericana en IA. En el ámbito docente, fue profesor de las titulaciones de Ingeniería Informática en la Universidad de Sevilla, adscrito al Departamento de Lenguajes y Sistemas Informáticos durante 8 años. También ha sido Profesor Invitado del Programa de Doctorado con Mención de Calidad del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Sevilla durante los dos últimos años. Actualmente es Profesor Titular en la Universidad Pablo de Olavide desde 2005, donde es director comisario de la Escuela Politécnica Superior. Responsable del grupo de investigación TIC-200, es autor de más de un centenar de publicaciones, en las áreas de investigación Algoritmos Evolutivos, KDD, Data Mining y Bioinformática. Es miembro de diferentes Comités de Programa Nacionales e Internacionales relacionados con estas áreas.
  • Más información: [página web asociada]

Técnicas de Clustering

  • Fecha: 11/3/2008
  • Ponente: Raúl Giraldez
  • Descripción:

    Las técnicas de clustering son técnicas no supervisadas de agrupamiento de patrones en conjuntos denominados clusters. El problema del clustering ha sido abordado por gran cantidad de disciplinas y es aplicable a una gran cantidad de contextos, lo cual refleja su utilidad en las distintas fases del proceso KDD.

    En esta charla, presentaré una visión global de los distintas técnicas de clustering así como algunas de sus diversas aplicaciones, tanto en la minería de datos como en otros contextos. A modo de ejemplo, describiré alguno de los algoritmos clásicos como Single/Complete-Link, k-means, entre otros. También describiré uno de los métodos de clustering desarrollados en el grupo de investigación (SNN).

    Seguiré el siguiente guión

    • Introducción
    • Componentes de una tarea Clustering
    • Definiciones
    • Representación de Patrones
    • Clasificación de las Técnicas
    • Representación de Clusters
  • Breve currículum del ponente: Raúl Giraldez es profesor de la Universidad Pablo de Olavide y especialista en Minería de Datos.
  • Más información: [página web asociada]

Heuristic Scheduling for large scale Grids

  • Fecha: 6/3/2008
  • Ponente: Laurent Lefévre
  • Descripción: La charla se celebrará a las 16:00 en el aula Beta.
  • Breve currículum del ponente: Permanent researcher at INRIA (The French Institute for Research in Computer Science) Member of INRIA RESO Team of INRIA Rhône-Alpes Université de Lyon. His research interests include: Grid and distributed computing and networking, Autonomic Networking, High Performance Networks protocols, Active networks, Active services, Protocols and network services, Active Grid, Disruption Tolerant Networks, Cluster computing, Distributed shared memory systems, Data consistency, Security, and Fault tolerance.
  • Más información: [página web asociada]

Oriented Autonomic Networking in Grid

  • Fecha: 5/3/2008
  • Ponente: Laurent Lefévre
  • Descripción: La charla se celebrará a las 12:00 en el aula Beta.
  • Breve currículum del ponente: Permanent researcher at INRIA (The French Institute for Research in Computer Science) Member of INRIA RESO Team of INRIA Rhône-Alpes Université de Lyon. His research interests include: Grid and distributed computing and networking, Autonomic Networking, High Performance Networks protocols, Active networks, Active services, Protocols and network services, Active Grid, Disruption Tolerant Networks, Cluster computing, Distributed shared memory systems, Data consistency, Security, and Fault tolerance.
  • Más información: [página web asociada]

Aplicaciones del Modelado y Simulación del Proceso Software

  • Fecha: 29/11/2007
  • Ponente: Mercedes Ruiz
  • Descripción: En la charla se examinarán diversas cuestiones relacionadas con el modelado y la simulación de procesos de ingeniería del software. Se llevará a cabo en el laboratorio F0.31 de la ETSI Informática a las 17:00. Se ruega confirmar la asistencia a través de la dirección de correo coordinador.posgrado arroba eii.us.es.
  • Breve currículum del ponente: Mercedes Ruiz pertenece al Dpto. de Lenguajes y Sistemas Informáticos de la Universidad de Cádiz. Sus intereses de investigación se centran principalmente en las aplicaciones del modelado y simulación del proceso software a los ámbitos de gestión y mejora de dicho proceso, así como su integración con otras técnicas y su aplicación en otros ámbitos como la ingeniería de la usabilidad y el desarrollo de software orientado al servicio. Obtuvo el título de Doctora en Ingeniería Informática por la Universidad de Sevilla en el año 2003. En la actualidad imparte su docencia en asignaturas de ingeniería del software dedicadas a la planificación y gestión de proyectos y tecnologías avanzadas de las bases de datos. Dirige el grupo de investigación SPI&FM, Mejora del Proceso Software y Métodos Formales (TIC-195) y es responsable de proyectos de investigación de ámbito local y nacional. Ha publicado en revistas como Journal of Systems and Software o Software Quality Journal, capítulos de libros en Springer, Thomson, Netbiblo y WorldScientific. También ha participado en diferentes congresos nacionales e internacionales. Pertenece a los comités científicos de diversas conferencias (ICSP, CSSE, AMSM, ECC, etc.). En la actualidad dirige varias tesis doctorales en la temática de simulación del proceso software, sistemas interactivos y sistemas orientados al servicio.

Servicios Web Semánticos, Nuevos retos

  • Fecha: 16/11/2007
  • Ponente: Juan Miguel Gómez
  • Descripción:

    Servicios Web Semánticos. Nuevos retos. Descubrimiento y composición sensibles a NFP, limitaciones de propuestas actuales, y otras líneas de investigación.

    La charla se llevará a cabo en el laboratorio F0.31 de la ETSI Informática. Se ruega confirmar la asistencia mediante correo electrónico a coordinador.posgrado arroba eii.us.es

  • Breve currículum del ponente: Juan Miguel Gómez is a Visiting Professor at the Department of Computer Science in the Universidad Carlos III de Madrid. He has obtained his PhD from the Digital Enterprise Research Institute (DERI) at National University of Ireland, Galway. He received his Master Thesis in Software Engineering at the Swiss Federal Institute of Technology (EPFL) in Lausanne (Switzerland) and an Msc. in Telecommunications Engineering from the Universidad Politécnica de Madrid (UPM). He was involved in the SWWS project and in the DIP project ellaboration phase. He is a member of the Semantic Web Services Iniatiative (SWSI) and the W3C Choreography Working group. Juan Miguel Gómez has published over twenty scientific international publications via books, journals, conferences and workshop contributions. He has been program committee, reviewer, attendee and organizer of multipe scientific events. His current research interests include the Semantic Web, Semantic Web Services, Business Process Modeling, formal methods for eCommerce and eBusiness.
  • Más información: [página web asociada]

Inteligencia Ambiental y Computación Ubicua

  • Fecha: 8/11/2007
  • Ponente: Cecilio Angulo
  • Descripción:

    El objetivo principal del Centro de Estudios Tecnológicos para la Dependencia y Vida Independiente (CETpD) es el estudio y aplicación de la tecnología electrónica, de la computación y de las comunicaciones para contribuir en la mejora de la calidad de vida de las personas necesitadas de una atención especial, personas mayores y/o con dependencia, incrementado su bienestar y su grado de autonomía. El ponente orienta su investigación hacia los ámbitos de conocimiento relacionados con la inteligencia ambiental, la robótica asistencial y su relación con los paradigmas cognitivos y de inteligencia computacional. En todo caso, se interesa en el desarrollo y uso de elementos no invasivos y respetuosos con la persona, que permitan interactuar de forma amigable con el usuario, con capacidad de adaptación y respetuoso con la privacidad de las personas. En el seminario se propondrá toda una serie de aplicaciones y proyectos en marcha en el CETpD sobre los cuales se necesitan diferentes desarrollos tecnológicos software, alguno de aplicación y otros de investigación.

    El seminario se celebrará el próximo 8 de noviembre a las 12:00h en el laboratorio F0.31

  • Breve currículum del ponente: Cecilio Angulo es Licenciado en Matemáticas por la Universidad de Barcelona y Doctor en Ciencias por la Universidad Politécnica de Catalunya, en la actualidad trabaja como profesor agregat (TU laboral) en el departamento de Control Automático de la UPC. Como miembro del Grupo de Investigación en Ingeniería del Conocimiento, sus intereses de investigación abarcan el aprendizaje automático, el ambiente inteligente, la computación ubicua y la robótica cognitiva. Ha publicado más de una decena de artículos en revistas científicas indexadas (Neural Processing Letters, Neurocomputing, Pattern Recognition, etc.) y capítulos de libro en Springer, IOS Press. Responsable de diferentes sesiones especiales en congresos internacionales (KES, IWANN, IROS, CAEPIA, etc.), editor de Neural Processing Letters, miembro del comité científico de conferencias internacionales, ha dirigido 2 tesis doctorales y ha realizado estancias de investigación en la Université de Perpignan, la Università degli Studi di Genova, la Universidad de Girona, el Instituto de Investigación en IA del CSIC y la Universidad de Sevilla. Es el investigador principal del proyecto coordinado I+D del MEC ADA-EXODUS sobre temas de inteligencia ambiental.
  • Más información: [página web asociada]

Gestión Inteligente de Emergencias

  • Fecha: 25/10/2007
  • Ponente: Luis Castillo Vidal
  • Descripción:

    En situaciones de crisis civil como incendios forestales, inundaciones o grandes nevadas, por mencionar algunos, los expertos tienen que tomar decisiones muy rápidamente, analizar gran cantidad de información proveniente del escenario de la crisis y organizar los recursos disponibles para dar una respuesta óptima. La situación se complica cuando estos recursos no están disponibles libremente sino que existen restricciones legales o contractuales que limitan su uso. En estos casos, los sistemas inteligentes de ayuda a la decisión pueden jugar un papel fundamental analizando rápidamente esta información y proponiendo vías de actuación que puedan ayudar al experto a definir su propio plan de respuesta.

    El seminario se desarrollará el próximo 25 de octubre a las 18:00h en el laboratorio F0.31

  • Breve currículum del ponente: Luis Castillo es Doctor en Informática por la Universidad de Granada. En su currículo destacan 25 publicaciones en revistas y libros nacionales e internacionales, 2 libros internacionales y 26 publicaciones en congresos nacionales e internacionales.

Ingeniería del Software

  • Fecha: 25/6/2007
  • Ponente: Vicente Pelechano Ferragud
  • Descripción:

    Durante la semana del 25 al 29 de junio recibiremos en el departamento la visita del Prof. Vicente Pelechano. Como parte de sus actividades impartirá los siguientes seminarios:

    • Lunes 25: Introducción a sus líneas de investigación (modelado de procesos de negocio, desarrollo guiado por modelos, líneas de producto software, sistemas "pervasive" y embebidos).
    • Martes 26: Procesos de Negocio
    • Miércoles 27: Pervasive Computing y Software Product Lines
    • Jueves 28: Model Driven Development

    Todos los seminarios se llevarán a cabo a las 17:00 en la sala F1.84 de la ETSI Informática. Se ruega a los interesados que confirmen su asistencia mediante un mensaje de correo electrónico a la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente: Vicente Pelechano Profesor Titular de Universidad en el Departamento de Sistemas Informáticos y Computación (DSIC) de la Universidad Politécnica de Valencia. Sus intereses de investigación abarcan la ingeniería web, el modelado conceptual, la ingeniería de requisitos, los patrones software, los servicios web, sistemas pervasivos e inteligencia ambiental, todo ello aplicando los principios del desarrollo dirigido por modelos. Obtuvo el título de Doctor por la Universidad Politécnica de Valencia en 2001. Actualmente imparte clases de ingeniería del software, desarrollo dirigido por modelos, diseño e implementación de servicios web y patrones de diseño en la Universidad Politécnica de Valencia. Es miembro del Grupo de Investigación de Producción Automática de Software OO-Method. Ha publicado artículos en revistas científicas de reconocido prestigio (Information Systems, Data & Knowledge Engineering, Information and Software Technology, International Journal of Web Engineering and Technology, etc.), capítulos de libro en Springer y el grupo IDEA y ha publicado en diversas conferencias internacionales (ER, CAiSE, WWW, ICWE, EC-WEB, WISE, AH, ICSOC, DEXA, etc.). Ha sido miembro del Comité Científico de reconocidas Conferencias Internacionales y Workshops como CAiSE, ICWE, ICEIS, ACM MT y IADIS.
  • Más información: [página web asociada]

Orchestración y Coreografia de Servicios Web

  • Fecha: 13/6/2007
  • Ponente: Joaquín Ezpeleta
  • Descripción:

    Durante la semana del 11 al 15 de junio recibiremos en el departamento la visita del profesor Joaquín Ezpeleta, de la Universidad de Zaragoza. Como parte de sus actividades en nuestro departamento impartirá los siguientes seminarios:

    • Miércoles 13: Redes de Petri. En este seminario se introducirán los conceptos básicos del paradigma de las redes de Petri clásicas, para posteriormente, exponer una extensión de éstas, llamada redes en redes o redes de Petri por referencia, que permite la modificación de las redes en tiempo de ejecución.
    • Jueves 14: Composición y Coordinación de Procesos Web. Esta charla versará sobre la implementación de un bus para servicios web llamado DENEB basado en el paradigma de las redes de petri por referencia que permite la ejecución de coreografías y orquestaciones entre servicios web. Además, se mostrará como gracias a las redes en redes la plataforma posibilita añadir y eliminar orquestaciones y coreografías entre servicios en tiempo de ejecución.

    Todos los seminarios se llevarán a cabo a las 18:30h en el laboratorio F0.31 de la Escuela Técnica Superior de Ingeniería Informática (Avda. Reina Mercedes, s/n). Se ruega confirmar la asistencia mediante correo electrónico en la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente: Joaquín Ezpeleta es doctor ingeniero en Informática y profesor titular del Dpto. de Informática e Ingeniería de Sistemas de la universidad de Zaragoza. Su investigación se centra en el uso de métodos formales para el modelado, análisis, control e implantación de sistemas concurrentes y distribuidos. Ha trabajado en el desarrollo de metodologías para la generación de modelos basados en redes de Petri, así como en la generación de técnicas estructurales de análisis de modelos y de síntesis de métodos de control. Como dominios de aplicación los trabajos se han focalizado en los "Resource Allocation Systems" y el mundo de los procesos Web.
  • Más información: [página web asociada]

Modelos de Clasificación Mediante Regresión Logística con Unidades de Base

  • Fecha: 13/6/2007
  • Ponente: César Hervás
  • Descripción: El próximo 13 de junio recibiremos en el departamento la visita del profesor César Hervás, de la Universidad de Córdoba. Como parte de sus actividades impartirá una charla sorbe modelos de clasificación mediante regresión logística con unidades de base.
  • Breve currículum del ponente: El análisis de métodos de regresión no lineal es una de las áreas de mayor interés en la actualidad en el campo del modelado de sistemas dinámicos reales en diferentes áreas de investigación. Asociado a este análisis se han desarrollado en los últimos años diferentes modelos de redes neuronales artificiales para regresión y clasificación, redes de tipo perceptrón multicapa basadas en la utilización de unidades de base sigmoide como funciones de transferencia en los nodos de la capa oculta de la red; funciones de base radial, redes neuronales de regresión generales y redes multiplicativas, y dentro de ellas, redes de unidades de base producto. Por otra parte, a pesar del carácter de aproximadores universales de las redes neuronales basadas en unidades de diferente tipo, la velocidad de aprendizaje y la complejidad de la red final pueden diferir de forma significativa de un caso a otro. La velocidad de convergencia y la complejidad de las redes utilizadas se convierte en uno de los principales problemas a resolver.
  • Más información: [página web asociada]

Integración de Aplicaciones

  • Fecha: 11/6/2007
  • Ponente: José L. Arjona
  • Descripción:

    Durante la semana del 11 al 15 de junio recibiremos la visita del profesor José L. Arjona, de la Universidad de Huelva. Como parte de sus actividades en el departamento de Lenguajes y Sistemas Informáticos impartirá los siguientes seminarios:

    • Lunes: Introducción a la Integración de Aplicaciones
    • Martes: Tecnologías de la Web Semántica para Integración
    • Miércoles: Trabajo en Laboratorio
    • Jueves: Integración de Aplicaciones Web no Desmantelables
    • Viernes: La Arquitectura de Referencia IntegraWeb

    Todos los seminarios se llevarán a cabo a las 16:30h en el laboratorio F0.31 de la Escuela Técnica Superior de Ingeniería Informática (Avda. Reina Mercedes, s/n). Se ruega confirmar la asistencia mediante correo electrónico en la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente:

    José L. Arjona inició su carrera profesional en el año 1998 cuando entró a trabajar para la Empresa Isotrol S.A. donde ejerció como analista y jefe de proyectos de desarrollo software relacionados con el modelado de redes eléctricas. A finales del año 2000 empezó a trabajar como consultor para Soluciona S.A. donde participó en la puesta en marcha de la plataforma digital de televisión Quiero TV. Es en 2001 cuando entró como Profesor Asociado en el departamento de Lenguajes y Sistemas Informáticos de la Universidad de Sevilla. Allí, empezó a trabajar bajo la dirección del Prof. Rafael Corchuelo en las líneas de trabajo de depuración simbólica de código, sistemas distribuidos, y por último, en el desarrollo de técnicas para la extracción de conocimiento de la web, que fue el tema de su tesis doctoral, defendida en el año 2005 y por la que recibió el premio extraordinario de doctorado. En la actualidad es profesor colaborador en el Departamento de Ingeniería Electrónica, Sistemas Informáticos y Automática de la Universidad de Huelva y colabora en las tareas de formación de un nuevo grupo de investigación relacionado con EI (Extracción de Información de la Web).


El uso de test no paramétricos. Aplicación en Minería de Datos

  • Fecha: 5/6/2007
  • Ponente: Francisco Herrera
  • Descripción: El diseño de experimentos y el análisis comparativo de resultados es fundamental en el análisis del comportamiento de los algoritmos. El uso de test estadísticos para el análisis de resultados es necesario para poder contrastar fiablemente los resultados de diferentes técnicas. Dentro de los diferentes tipos de test estadísticos, los tests no paramétricos son los más apropiados para este análisis, puesto que los puesto que los test paramétricos requieren el cumplimiento de unas hipótesis que no suelen cumplirse.
  • Breve currículum del ponente: El profesor Herrera posee más de un centenar de publicaciones en revistas de impacto JCR y más de 1400 citas a sus trabajos también en JCR. Siendo posiblemente el español con más citas en el área de Computer Science.

Modelado de Aplicaciones Web

  • Fecha: 4/6/2007
  • Ponente: Nora Koch
  • Descripción:

    A principios de junio recibiremos la visita de la profesora Nora Koch, de la Universidad Ludwig-Maximilians (Alemania). Como parte de sus actividades en nuestro departamento impartirá los siguientes seminarios:

    • Lunes 4 (19:30-21:30): Introducción a UWE
    • Martes 5 (12:00-14:00): Descripción de los procesos MDE de UWE
    • Miércoles 6 (12:00-14:00): Presentación de ArgoUWE y la relación de UWE con otras metodologías

    Conforme aumenta el tamaño y la complejidad de las aplicaciones para el entorno Web, ha aparecido la necesidad de contar con nuevas metodologías para este tipo de aplicaciones. En particular es necesario poner énfasis en un cuidadoso análisis de requerimientos y el diseño de modelos con el nivel de detalle apropiado para lograr el desarrollo de las aplicaciones para la Web en el menor tiempo, al menor coste y de la mejor calidad posible, disminuyendo además el riesgo de proyectos Web fracasados. El objetivo de este tutorial es la presentación de la metodología UWE (UML-based Web Engineering) cuyo objetivo es el desarrollo sistemático de aplicaciones Web. Esta metodología fue desarrollada y es continuamente mejorada en la Universidad de Munich. La principal característica de UWE es estar basada en los estándares de la OMG, como UML, MOF, XMI y MDA. UWE usa como técnica exclusiva de modelado UML aprovechando los mecanismos de extensión que provee UML definiendo un perfil para aplicaciones para el entorno Web. La conformidad con UML hace posible el uso de todas las herramientas CASE que soportan la notación UML.

    Todos los seminarios se llevarán a cabo en el laboratorio F0.31 de la Escuela Técnica Superior de Ingeniería Informática (Avda. Reina Mercedes, s/n). Se ruega confirmar la asistencia mediante correo electrónico en la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente: Nora Koch received her PhD degree in Computer Science from the Ludwig-Maximilians-Universität (LMU) of Munich in 2000. She is a research assistant at the LMU since 1995 and works as a consultant at F.A.S.T. Applied Software Technology GmbH since 1998. She has been involved in several national and European projects. She is a member of the Web Engineering Group at the LMU, responsible for the development of the UWE methodology. Her main research interests focus on methods for the development of Web applications, personalised Web systems and model-driven engineering. She participated in the development of SmexWeb, an adaptive Web-based training system, and ArgoUWE, a CASE tool supporting the UWE approach. Nora organised the 4th International Conference on Web Engineering (ICWE 2004) in Munich and is a member of the IEEE and the German Society of Informatics.
  • Más información: [página web asociada]

Introduction to contractual business processes

  • Fecha: 29/5/2007
  • Ponente: Carlos Molina
  • Descripción:

    Durante los días 28 de mayo a 4 de junio recibiremos la visita del profesor Carlos Molina de la Universidad de Newcastle (Reino Unido). Como parte de sus actividades en el departamento de Lenguajes y Sistemas Informáticos impartirá los siguientes seminarios:

    • Martes: Introducción a los procesos de negocio y los contratos electrónicos
    • Jueves: Validación de contratos electrónicos y monitorización de acuerdos de nivel de servicio
    • Viernes: Middleware para implementar procesos de negocio

    Todos los seminarios se llevarán a cabo a las 12:00h en el laboratorio F0.31 de la Escuela Técnica Superior de Ingeniería Informática (Avda. Reina Mercedes, s/n). Se ruega confirmar la asistencia mediante correo electrónico en la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente: El Dr. Molina recibió su título de doctor por parte de la Universidad de Newcastle (Reino Unido) en el año 2000, con un trabajo sobre interacciones anónimas en Internet. Actualmente es un investigador asociado a la escuela de Ciencias de la Computación de esta misma universidad y forma parte del grupo de sistemas distribuidos. Actualmente está trabajando en coordinación y compartición de recursos en empresas virtuales, con especial énfasis en los contratos electrónicos, en la gestión de la confianza y en la definición de organizaciones virtuales.

Aprendizaje Automático

  • Fecha: 26/3/2007
  • Ponente: Cecilio Angulo
  • Descripción:

    Durante la semana del 26 al 30 de marzo recibiremos la visita del profesor Cecilio Angulo, de la Universidad Politécnica de Cataluña. Como parte de sus actividades en el departamento de Lenguajes y Sistemas Informáticos impartirá los siguientes seminarios:

    • Lunes: Introducción al Aprendizaje Automático
    • Martes: Redes Neuronales
    • Miércoles: Técnicas de Clustering
    • Jueves: Control del Riesgo en Aplicaciones Crediticias
    • Viernes: Control Inteligente de Autómatas Programables

    Todos los seminarios se llevarán a cabo a las 13:00 h en el laboratorio F0.31 de la Escuela Técnica Superior de Ingeniería Informática (Avda. Reina Mercedes, s/n).

    Se ruega confirmar la asistencia mediante correo electrónico en la dirección coordinador.doctorado arroba lsi.us.es.

  • Breve currículum del ponente: Cecilio Angulo es Profesor de la Universidad Politécnica de Cataluña especializado en el aprendizaje automático y sus aplicaciones.
  • Más información: [página web asociada]

Functional Trees for Classification and Regression

  • Fecha: 4/7/2006
  • Ponente: Dr. João Gama
  • Descripción: In the context of classification problems, algorithms that generate multivariate trees are able to explore multiple representation languages by using decision tests based on a combination of attributes. In the regression setting, model trees algorithms explore multiple representation languages but using linear models at leaf nodes. In this work we study the effects of using combinations of attributes at decision nodes, leaf nodes, or both nodes and leaves in regression and classification tree learning. In order to study the use of functional nodes at different places and for different types of modeling, we introduce a simple unifying framework for multivariate tree learning. This framework combines a univariate decision tree with a linear function by means of constructive induction. Decision trees derived from the framework are able to use decision nodes with multivariate tests, and leaf nodes that make predictions using linear functions. Multivariate decision nodes are built when growing the tree, while functional leaves are built when pruning the tree. We experimentally evaluate a univariate tree, a multivariate tree using linear combinations at inner and leaf nodes, and two simplified versions restricting linear combinations to inner nodes and leaves. The experimental evaluation shows that all functional trees variants exhibit similar performance, with advantages in different datasets. In this study there is a marginal advantage of the full model. These results lead us to study the role of functional leaves and nodes. We use the bias-variance decomposition of the error, cluster analysis, and learning curves as tools for analysis. We observe that in the datasets under study and for classification and regression, the use of multivariate decision nodes has more impact in the bias component of the error, while the use of multivariate decision leaves has more impact in the variance component.
  • Breve currículum del ponente: Joao Gama is a researcher at LIACC, the Laboratory of Artificial Intelligence and Computer Science of the University of Porto. He is working at the Machine Learning group and he is Program chair of the European Conference on Machine Learning (ECML05), Workshop chair of the Second International Workshop on Knowledge Discovery from data Streams (ECML/PKDD 05), Editor of Special Issue of IDA Incremental Learning Systems capable of dealing with Concept Drift and a member of the Editorial Board of the Intelligent Data Analysis. His main journal publications include the following:
    • J. Gama, Functional Trees, Machine Learning, Vol. 55(3), 2004, Kluwer Academic Press, 2004
    • A. Kalousis, J. Gama, M. Hilario,On Data and Algorithms: understanding Inductive Performance Machine Learning vol. 54, pp. 275-312, Kluwer Academic Press, 2004
    • J. Gama, Analysis of Iterative Bayes, Theoretical Computer Science, vol 292/2, pp 417 - 430, Elsevier Science, 2003.
    • J. Gama, Iterative Bayes, in Intelligent Data Analysis, Vol. 4 475-488, 2000 IOS Press
    • J. Gama, Combining Classification Algorithms, in AI Communications Vol.1 Nr.2, 2000 IOS Press
    • J. Gama and P. Brazdil, Cascade Generalization in Machine Learning Journal Kluwer Academic Press
    • J. Gama and P. Brazdil, Linear Tree, in Intelligent Data Analysis, Vol. 3 Nr. 1, Elsevier Science, 1999
    • L. Torgo and J. Gama Regression using Classification Algorithms, in Intelligent Data Analysis, Vol. 1 Nr. 4, Elsevier Science, 1997

Applications of time series analysis methods

  • Fecha: 6/6/2006
  • Ponente: Dr Patrick E. McSharry
  • Descripción:

    La conferencia impartida consistió en presentar algunas técnicas de modelado de sistemas dinámicos complejos. En especial, aquellos sistemas que dependen del tiempo y que son modelados en base a los datos que esos sistemas proporcionan. Este tipo de problemas son estudiados por un diverso conjunto de técnicas como series temporales, procesamiento de señal, investigación operativa, minería de datos y aprendizaje automático.

    El profesor McSharry ha trabajado en el desarrollo de técnicas de predicción probabística, que poseen el valor añadido de proporcionar una estimación a la incertidumbre. Los modelos empleados en sus trabajos abarcan una importante variedad desde los clásicos modelos ARIMA, pasando por modelos no lineales en base a polinomios locales, redes neuronales, modelos de Harkov, funciones de base radial, etc. También técnicas provenientes del campo del aprendizaje automático como clustering, maquinas de vectores soporte o algoritmos genéticos.

    Las aplicaciones llevadas a cabo son muy variadas:

    • Análisis de riesgo en sectores como salud o energía.
    • Ingeniería biomédica: predicción y clasificación de epilepsia y enfermedades del corazón.
    • Telemedicina.
    • Reconocimiento de voz.
    • Ciencias sociales, etc.
  • Breve currículum del ponente: El profesor McSharry es profesor en la Universidad de Oxford en el Reino Unido y autor de varias decenas de publicaciones en revistas prestigiosas del estudio y aplicación de estos temas. Entre ellas podemos citar las siguientes: IEEE Transactions on Power Systems, International Journal of Forecasting, Computers in Cardiology, Physica D, International Journal of Bifurcation and Chaos, IEEE Transactions on Biomedical Engineering, Nature Medicine, Physical Review Letters, etc.

[ Volver a la página del Programa Oficial de Postgrado ]


inicio | mapa del sitio | rss | aviso legal | contacto