Thesis subjetc proposal.
S1. Software Development Effort Estimation.
S2. Aplicación de herramientas de inteligencia Artificial en Astrofísica.
S3. Aplicaciones de la inteligencia computacional en la bioinformatíca.
S4. QoS Management in Mobile Ad hoc Network.
S5. Computo científico de alto rendimiento con aplicaciones a la física e ingeniería.
S6. Mega proyecto binacional México-EUA: High Altitude Water Cerenkov (HAWC).
S7. Formalismo para el desarrollo de herramientas que faciliten la creación de instrumentos de medición (variables cualitativas).
S8. Estudio y caracterización de la propiedad de observabilidad difusa de los modelos de redes en Petri que modelan sistemas de eventos discretos.
S9. Análisis e implementación de herramienta para el control de flujos de trabajo.
S10. Análisis e implementacion de herramienta para incrementar el grado de satisfacción de múltiples actores.
S12. Análisis e implementación de un controlador adaptativo.
S13. Modeling and simulation of Discrete Event Systems (DES) using formal tools.
S14. Pattern recognition for knowlegde discovering for application to diagnosis and quality control.
S1. Software Development Effort Estimation.
Dr. Cuahutemoc López Martin.
clm1969mx@yahoo.com.mx
Keywords: Software engineering education and trianing, software development effort estimation and prediction, software processes, computational intelligence, inferential statistics, expert judgment, planning bidding and bugdeting of software development project; bad effort estimates may address to poor planning, low profitability and consequently, products with poor quality. Software researchers have addressed the problems of effort estimation for software development projects since at least the 1960s and the early models were those based upon statisitical regression.
Software estimation has been identified as one of the three great challenges for half-century-old computer science and several effort estimation techniques have been proposed and researched over the last years. Researchers aimed to (1) determine which technique has the greatest effort prediction accuracy, or (2) propose new or combined techniques that could provide better estimates.
Software development estimation techniques can be classified into three general categories:
1) Expert judgment: It remains the predominant methodology of choice. The term expert estimation is not clearly defined and covers a wide range of estimation approaches; a common characteristic is, however, that intuitive processes constitute a determinant part of the estimation. This technique implies a lack of analytical argumentation and by the frequent use of phrases such as “I think that …” and “I feel that …” and it aims to derive estimates based on an experience of experts on similar projects. The means of deriving an estimate are not explicit and therefore not repeatable. Psychological research on real-world quantitative expert estimation “has not culminated in any theory of estimation, not even in a coherent framework for thinking about the process”.
2) Algorithmic models: It has been very popular in literature. It attempts to represent the relationship between effort and one or more characteristic of a project; the main cost driver in a model is usually taken to be some notion of software size (e.g. the lines of source code or function points). Its general form is a linear regression equation, as that used by Kok, or by a group of non-linear regression equations.
3) Computational intelligence: They have in recent years been used as a complement or alternative to the previous two techniques. Fuzzy logic models are included in this category as well as neural networks, genetic algorithms, genetic programming, regression trees, case-based reasoning and associative memories.
Based on no single technique is the best for all situations and that a careful comparison of the results of several approaches is most likely to produce realistic estimates, it is important to generate and validate these kinds of techniques.
S2. Aplicación de Herramientas de Inteligencia Artificial en Astrofísica.
Dra. Silvana G. Navarro Jiménez.
silvanananj@gmail.com
ANTECEDENTES: Durante la última década se ha tenido un enorme desarrollo en Astrofísica, gracias a la llegada de detectores cada vez más sensibles y al aumento exponencial en la capacidad de recolección y almacenamiento de datos, sin embargo las técnicas tradicionales de reducción, clasificación y análisis de las observaciones no permiten el manejo eficiente de tal cantidad de información. Hablamos de billones de observaciones (varios cientos o miles de Tb de información). Esto ha propiciado el desarrollo de sistemas de reducción, identificación y clasificación automática, los cuales hacen uso de herramientas poderosas como lo son las Redes Neuronales Artificiales (RNA), códigos genéticos, sistemas difusos, etc. Los proyectos de observación ("surveys") que se realizan utilizando los telescopios espaciales, grandes telescopios en Tierra y telescopios robóticos permiten adquirir en una sola noche varios Gb de información cada uno.
OBJETIVO: Por lo anterior surge la necesidad de incursionar en el área de la inteligencia artificial (IA) con el fin de desarrollar soluciones para estos proyectos, contribuyendo por una parte en la automatización de los telescopios e instrumentos de observación y por la otra para poder manejar, clasificar y analizar de forma automática la enorme cantidad de datos que se producen. La búsqueda de información específica en estas grandes bases de datos ha dado origen al desarrollo de técnicas de minería de datos y con ello a la generación de conocimiento utilizando IA.
PROPUESTA: Actualmente estoy dirigiendo una tesis en la que se trabaja con datos en el óptico y en el Infrarrojo, estos últimos provenientes del telescopio espacial SPITZER. El objetivo del trabajo es el desarrollar un sistema de clasificación automática de galaxias utilizando RNA y sistemas difusos. El siguiente paso es desarrollar un sistema de análisis automático de los datos que nos permita generar nuevo conocimiento a partir de la comparación de bases de datos en el óptico, en el infrarrojo, en radio, en el UV y rayos X.
El desarrollo de estas técnicas de clasificación e identificación automática son, sin duda de gran utilidad en muchas otras áreas del conocimiento, como lo son la predicción de fenómenos meteorológicos, sistemas de detección temprana en medicina, de detección automática de plantíos o plagas en agricultura, predicción de variables macroeconómicas, sistemas de identificación automática (huellas dactilares, matrículas, ...), etc.
COLABORACIONES: Actualmente colaboro con el grupo interdisciplinar de aplicaciones de inteligencia artificial en la Universidad de A Coruña y con el grupo de nebulosas planetarias en el Instituto de Astrofísica de Canarias, ambos en España.
A través del grupo de aplicaciones de inteligencia artificial en A Coruña podemos colaborar en el proyecto GAIA (Global Astrometric Interferometer for Astrophysics). http://www.rssd.esa.int/index.php?project=GAIA&page=index
Este proyecto de la Agencia Espacial Europea (ESA) tiene como principal objetivo el poner en órbita en 2012 un telescopio espacial dotado de un fotómetro, un interferómetro y un espectrómetro rápido que permitirán mapear nuestra galaxia y obtener la posición y clasificación, con gran precisión, de más de un billón de objetos.
S3. Aplicaciones de la Inteligencia Computacional en la Bioinformática.
Dr. Arturo Chavoya Peña.
achavoya@cucea.udg.mx
La bioinformática surgió de la sinergia entre la biología, las matemáticas y las ciencias computacionales. Tiene entre sus objetivos el desarrollo de algoritmos y técnicas computacionales y estadísticas para resolver problemas que surgen del análisis y manejo de datos biológicos. Los conjuntos de datos que se generan en biología tienen problemas en común: típicamente son muy grandes, representan características de alta complejidad biológica, pueden tener cantidades significativas de ruido, y pueden cambiar con el tiempo.
Por otra parte, la inteligencia computacional incluye paradigmas que están basados en técnicas heurísticas que con frecuencia están inspiradas en la biología. La inteligencia computacional incluye principalmente a los algoritmos evolutivos (entre ellos a los algoritmos genéticos), las redes neuronales artificiales, la lógica difusa y la inteligencia en enjambre. Debido a las limitaciones de la computación tradicional, la inteligencia computacional ha sido aplicada para resolver problemas complejos en biología.
Entre los problemas a los que es posible aplicar las técnicas de inteligencia computacional se encuentran el análisis de expresión de genes, el análisis de secuencias genéticas, el descubrimiento de patrones relevantes biológicamente y el análisis de la estructura molecular de ácidos nucleicos y proteínas. En el presente tema de tesis se explorará la aplicación de una o más técnicas de la inteligencia computacional a un problema de relevancia biológica.
S4. QoS Management in Mobile Ad hoc Networks.
Dr. Hector Duran Limon.
hduran@cucea.udg.mx
Imagine a scenario similar to that shown in Minority Report whereby you comfortably read the newspaper and drink coffee while your car autonomously drives you to your destination. The QoSMMAN (QoS Management in Mobile Ad hoc Networks) project aims at offering support to this kind of applications.
The scenario depicted imposes a number of unsolved challenges. Such environments are characterised by being highly unpredictable. A peer-to-peer communication model is generally used in ad hoc networks. Importantly, nodes act as routers to reach nodes that are out of the transmission range. Communication delays between nodes may vary unexpectedly as the number of hops to reach the destination changes. In addition, a geographical area may unexpectedly become congested, resulting in the lack of communication resources. Moreover, periods of disconnection are likely to happen at any time due to the conditions of the geographical area. The transmission signal can be severely affected by bad weather conditions and obstacles such as trees, hills and buildings. In the worse case, there may be a network partition whereby one or more nodes are unreachable. In addition, unpredictability in ad hoc environments is also dictated by the fact that new event types with different QoS demands may be dynamically discovered, e.g. new event types are advertised at various locations. In this situation, no a priori resource consumption assumptions can be made.
Further challenges include the development of suitable mechanisms and protocols for the resource management of resource constrained devices such as PDAs and sensors. This kind of device has a limited battery life, hence, power management is needed to make an efficient use of the energy. Memory and CPU resources are also limited, therefore, suitable resource management mechanisms are required. As any node may be a router, resource scarce devices need to evaluate the amount of traffic they are able to route without having a negative impact in pursuing their main goal.
Another tough challenge arises here: how can we deal with applications demanding hard real-time guarantees when the underlying infrastructure is only capable of offering soft real-time guarantees. A number of issues have to be considered to address this problem. A high probability of meeting deadlines has to be offered. We also believe that such infrastructure has to be adaptable and flexible to deal with the highly dynamic and unpredictable nature of the environment. Resource management plays an important role in this adaptation process in terms of both resource awareness and dynamic reallocation of resources. Crucially, fail-safe mechanisms are needed to bring the application to a safe state when timing failures are detected. Therefore, QoS management support is required for monitoring QoS violations and triggering both adaptation and fail-safe procedures when required. In addition, QoS management is required to arbitrate the allocation of network resources whereby admission control tests are performed and more resources are conceded to events with shorter deadlines and higher criticality.
The main goal of the project is to provide QoS support for soft and hard real-time applications in mobile ad hoc networks.
S5. Cómputo Científico de Alto Rendmiento con Aplicaciones a la Física e Ingenieria.
Dr. Juan Carlos Zúñiga.
juan.zuniga@red.cucei.udg.mx
Objetivo General: Desarrollo, análisis y aplicación de algoritmos de álgebra lineal numérica de alto rendimiento tanto secuenciales como paralelos.
En las últimas dos décadas, el mundo ha experimentado un avance sin igual en el desarrollo de las computadoras y las tecnologías informáticas. La ciencia moderna ha encontrado en la computadora un aliado irreemplazable. El cómputo científico (SC) se ha convertido en la herramienta necesaria para atacar algunos de los problemas más desafiantes en ciencia e ingeniería. Las modernas supercomputadoras, donde la vectorización y el paralelismo comienzan a ser explotados, permiten analizar y resolver problemas que hasta hace algunos años eran impensables: Modelado del clima global, Modelado en astrofísica, relatividad numérica, Diseño en biogenética, Simulación de sistemas dinámicos de gran escala, Modelos financieros y económicos, etc. Lamentablemente estas supercomputadoras son escasas, se construyen sobre pedido y sus costos son inaccesibles para la mayoría de los grupos de investigación y las universidades de los países en vías de desarrollo. El avance en redes y telecomunicaciones ofrece alternativas viables y mucho más accesibles al uso de las supercomputadoras: los Clusters y Grids. La conexión en red de varias computadoras ordinarias para realizar tareas en conjunto no solo puede igualar la capacidad de manejo de información de las supercomputadoras, puede incluso superarlas. Lamentablemente, el cómputo científico de alto rendimiento (HPSC) en estos arreglos de computadoras (cluster computing y grid computing) esta lejos todavía de ejecutar aplicaciones reales con la eficacia máxima que, por tecnología, podría esperarse. En la actualidad muchos grupos de investigación en universidades y la industria de la computación realizan proyectos conjuntos y en diferentes direcciones para sobrepasar estas limitaciones.
Resumen: El álgebra lineal numérica, como pilar fundamental del cómputo científico, ha sido objeto de numerosos esfuerzos por desarrollar algoritmos de alto rendimiento. El trabajo de la comunidad científica en esta área sigue dos líneas principales: El desarrollo de lenguajes y técnicas de programación en paralelo y distribución de datos, y el diseño de algoritmos y su programación eficiente formando librarías de código en lenguajes compilables como FORTRAN y C. Entre las librerías más difundidas se encuentran ScaLaPack y PBLAS que son la versión en paralelo de BLAS y LaPack, librerías básicas en gran parte de los sistemas de cómputo científico secuencial actuales. Recientemente se demostró que LaPack no es tan eficiente como pudiera ser en el caso de algunas factorizaciones de matrices densas. Esta deficiencia se debe básicamente a la forma en la que BLAS maneja los datos. Es de nuestro interés analizar como se presenta esta deficiencia en ScaLaPack y determinar si es posible extender las soluciones propuestas para LaPack. Los problemas con matrices esparcidas y estructuradas también son de gran importancia en el cómputo científico y existen librerías de software especializadas. Tal es el caso de SparseLIB o S-BLAS para el caso secuencial y P-SparseLIB y SPOOLES par el caso de computo en paralelo. Estas librerías soportan solo las estructuras más comunes como matrices Toeplitz, Diagonales, simétricas, Hankel, etc. Sin embargo otras estructuras surgen de diversos problemas en física e ingeniería y es nuestro interés desarrollar algoritmos para tales estructuras. Nos interesan en particular problemas con matrices de bloques Toeplitz-Hankel y matrices Toeplitz-Hankel por bloques. Este tipo de matrices aparecen por ejemplo en problemas de modelado con polinomios y matrices polinomiales, optimización y estructura de sistemas dinámicos lineales.
Financiamiento: Posible apoyo económico (por confirmar).
S6. Mega Proyecto Binacional México-EUA: High Altitude Water Cerenkov (HAWC).
Dr. Eduardo De La Fuente.
edfuente@gmail.com
Vinculación entre: Astronomia/ Cómputo / Tecnologías de Información / Electronica / Instrumentación.
Pagina principal con la información detallada del proyecto HAWC:
Versión en Español: http://www.inaoep.mx/~hawc/
Versión en Ingles: http://hawc.umd.edu/
Información: El proyecto HAWC puede considerarse como EL PROYECTO para estudiar el universo en la luz de rayos gamma de mas alta energía. Es un megaproyecto binacional México-EUA que involucra a mas de 11 universidades estadounidenses (lideradas por el Laboratorio Nacional de los Álamos y la Universidad de Maryland) y 11 Mexicanas (liderados por la UNAM y el Instituto Nacional de Astrofísica, Óptica, y Electrónica; INAOE), que trabajan en colaboración y se apoyan mutuamente en conceptos como movilidad, intercambios, BECAS, así como en soporte económico, técnico, académico, etc.
HAWC es un megaproyecto multidisciplinario que ofrece muchas líneas de trabajo e investigación, así como la facilidad de moldearse a las necesidades de los involucrados.
HAWC sustituye al proyecto MILAGRO (http://www.lanl.gov/milagro/) y será instalado en Sierra Negra. Puebla, México. MILAGRO revoluciono el área de la Física en rayos Gamma, haciendo estudios y observaciones ASTRONOMICAS. HAWC se espera sea un detector 15 veces mas poderoso y sensible que MILAGRO, y ya empezó su fase de construcción. Consiste de 900 contenedores en un arreglo rectangular de 300 x 300, con detectores y electrónica especializada.
Se espera que en verano de 2010 estén los primeros 7 contenedores listos (VAMOS); para Abril de 2011 (HAWC 30 con 30 contenedores); para finales de 2011 (HAWC 100 con 100 contenedores), y para finales de 2011 HAWC 300.
Algunas ventajas de participar en el proyecto desde este momento:
1.- Trabajo vanguardista tanto científico, tecnológico, e instrumentista, incluyendo computo, software y electrónica. A gran altura, arriba de 4000 metros sobre el nivel del mar, nunca se han realizado estudios de rayos gamma en este rango de energía ni instalado observatorios de este tipo a gran altura. HAWC se instalara 4100 metros sobre el nivel del mar.
2.- Se trabaja con el durante todo el proceso de instalación, desde que inicia hasta termina (2010-2013) permitiendo expandir los horizontes académicos y de internacionalización.
3.- Contacto y participación con reconocidos investigadores tanto de México como de Estados Unidos, así como elaboración/participación en artículos de investigación y reportes técnicos.
4.- No se necesita saber Física, Astronomía y Matemáticas muy avanzadas o técnicas, ni ser especialista en estas áreas. El proyecto tiene cabida para una persona con nociones de Ciencia de la Computación, por ejemplo, desarrollo de Software y manejo de Base de Datos: Se puede trabajar en las distintas áreas del doctorado, por ejemplo:
1.- Modelado, Simulación y Análisis de sistemas: Generación de modelos numéricos y discretos que permitan generar descripciones y estudios de mayor profundidad con los datos obtenidos: Una técnica muy usada es el METODO DE MONTECARLO. SUPERCOMPUTO incluyendo trabajo general en GRIDs.
2.- Sistemas Distribuidos de Información:Integración de fuentes de información a través de la RED.
3.- E-WORLD: Desarrollo de portales y aplicaciones WEB, así como de Bases de Datos Con HAWC también se pueden desarrollar conjuntos de aplicaciones para:
- Manejo de documentos.
- Base de datos de colaboradores.
- Apoyo para desarrollo de software y Bitácoras.
S7. Formalismo para el Desarrollo de Herramientas que Facilitenj la Creación de Instrumentos de Medición (variables cualitativas).
Dr. Juan Carlos González Castolo.
jcgcastolo@cucea.udg.mx
Palabras clave: Instrumentos de medición, construcción de instrumentos.
- Análisis y formalización de construcción de instrumentos de medición con un enfoque tradicional.
- Análisis y formalización de construcción de instrumentos utilizando redes de Petri.
- Análisis y formalización de construcción de instrumentos utilizando lógica difusa.
- Análisis y formalización de construcción de instrumentos utilizando redes de Petri difusas.
- Desarrollo e implementación de la herramienta para la construcción de instrumentos de medición.
S8. Estudio y Caracterización de la Propiedad de Obervabilidad Difusa de los Modelos de Redes de Petri que Modelan Sistemas de Eventos Discretos.
Dr. Juan Carlos González Castolo.
jcgcastolo@cucea.udg.mx
Palabras clave: Redes de Petri difusas, observaciones difusas.
- Caracterización de la propiedad de observabilidad para la construcción de observadores difusos que operan en sistemas no difusos, siendo estos ultimos:
- Grafos marcados.
- Máquinas de estados.
- Libre elección.
- Caracterización de la propiedad de observabilidad para la construcción de observadores difusos que operan en sistemas difusos siendo estos ultimos:
- Grafos marcados.
- Máquinas de estados.
- Libre elección.
- Desarrollo de herramientas para el desarrollo de observaciones difusos.
S9. Análisis e Implementación de Herramientas para el Control de Flujos de Trabajo.
Dr. Juan Carlos González Castolo.
jcgcastolo@cucea.udg.mx
Palabras clave: Redes de Petri, lógica difusa, análisis de procesos.
- ¿Si?, ¡bueno!, ¡Buenas tardes!, habla al departmento de contratación. -Es la contestación siempre amable al otro lado de la linea. Han transcurrido ya varios meses y yo con apenas unas monedas en el bolsillo. Trabajar algunas horas dando clases en la universidad, apenas si mantiene el aliento que permita seguir esperando el contrato. Cuando llegue el contrato, hablare seriamente que no, pero..... tendré la sensación que si. ¿Qué forma y transforma legiones de administradores?.
- ¡Bueno!, Soy el Dr. Marte, hablo para indagar; y ... ¿Como va mi contrato?- Espero que mi voz aún tenga el aplomo de hace meses, cuando recién llegue a la cuidad.
- -Siento decirle que.. aún está en evalución por parte de la administración central. En cuanto tengamos noticias se lo hare saber.-¡Uf!, eso me temía. La amabilidad de la linea se hace borrasa tras la maquinaria burocrática en que invade el proceso que genera el contrato.
Preguntas.
- ¿Esta bien el proceso?
- ¿Se puede hacer más ágil?
- ¿Cuales son los puntos conflictivos?
Propuestas.
- Hacer un análisis del flujo de trabajo.
- Estudiar y analizar el flujo de trabajo temporizado.
- Realizar la modelación del (os) proceso(s) Utilizando:
- Redes de Petri.
- Lógica difusa y/o.
- Redes de Petri difusas.
Se hace notable.
- La sincronización de las tareas y puntos de decisión.
- Las tareas que sean redundantes.
- Las incongruencias del proceso.
- La claridad en los pasos del proceso.
- La detección de conflictos del proceso.
S10. Análisis e Implementación de Herramientas para Incrementar el Grado de Satisfacción de Múltiples Actores.
Dr. Juan Carlos González Castolo.
jcgcastolo@cucea.udg.mx
Palabras clave: Análisis de satisfacción, programación de tareas, redes de Petri.
- ¡ Hola ! me da gusto saludarte -Un atrevido escote, el pántalon ajustado y la sonrisa a flor de perlas. Esa es la nueva encargada del departamento. -¿ya me entregaste tu disponibilidad de horario? -Es lo justo de cada semestre, es lo justo para programar los cursos del proximo periodo.
- ¿Disponibilidad?. ¡Si! , ahora que recuerdo, se la envié la semana pasada a tu secretaria. - Es de imaginar el trabajo que se avecina, programando los horarios y cursos siguientes. Espero que se ajusten mis cursos a un horario matutino o nocturno. Sería preferible dar clases por la noche, eso es más conveniente para mi porque.....
Preguntas.
- Disponibilidad de horario a los docentes.
- Materia que dominan y/o desean impartir los docentes.
- Horas-clases por docente.
- Materias ofertadas por el departamento.
- Materias solicitadas por los alumnos.
- Horarios que solicitan por los alumnos.
Propuestas.
- Utilizar lógica difusa como base del motor de inferencia y decisión (Evaluar el grado de satisfacción de los elementos involucrados).
- Programación en Java.
- Modelado del razonamiento utilizando redes de Petri difusas.
- Sistema accesible desde internet.
Se hace notable.
- Un proceso automatizado.
- Ágilidad en la generación de horarios.
- Un alto grado de satisfacción de los factores involucrados.
- Producto y/o soporte comerciable.
S12. Análisis e Implementación de un Controlador Adaptativo.
Dr. Juan Carlos González Castolo.
jcgcastolo@cucea.udg.mx
Palabras clave: Cerebro artificial, controlador adaptativo.
- Mmm.. Pienso que debiera ser abatible. ¡La inteligencia de las maquinas!, jaja. Tal vez debemos poner un objetivo menos ambicioso; digamos que la autonomia de un vehiculo para desplazarse de un punto a otro, dentro de una ciudad. Digamos que aún menos; la autonomía de un vehiculo para desplazarse de un punto a otro dentro de un complejo de oficinas. -La emoción del proyecto aviva los últimos minutos de la conversación telefonica.
- -Bueno pero dime ¿Qué piensas?¿lo tomarás?.
- -¡Si!, lo tomo. Mañana nos vemos para detallar la propuesta. -Cuelga y reflexiona calladamente. -Debo preparar el material que debemos desarrollar en los próximos meses. ¡Diablos! -Son las seis de la tarde de un dia lluvioso. El viento encrespa el ambiente y muy tenuamente se escucha el toque del agua en el vidrio del ventanal. Ahora, se acerca a la estufa a calentar un poco de chocolate...
- ¿Cómo imprimir características de inteligencia al vehiculo?
- ¿Cómo involucrar el aprendizaje?
- ¿Cómo generalizar el conocimiento?
- ¿Cómo procesar la información del medio ambiente?
- ¿Cómo crear un controlador autónomo y adaptativo?
Propuestas.
- Crear un controlador modularmente.
- Cada módulo con una acción especifica.
- Programación en C++.
- Utilizar un vehiculo de un tamaño que le permita navegar entre oficinas de un área de trabajo.
Se hace notable.
- Incursionar en la exploración de la inteligencia artificial aplicada a entidades fisicas y prácticas.
- Procesamiento de la información del medio ambiente para discernir las(s) acción(es) que equilibren el comportamiento.
- Modelado del controlador.
- Simulación del sistema de navegación.
S13. Modeling and simulation of Discrete Event Systems (DES) Using Formal Tools.
Dr. Maria Elena Meda Campaña.
emeda@cucea.udg.mx
Introduction: A Discrete Event System (DES) is one, which responds to distinct events occurring at asynchronous times. Examples of such systems are computer networks, flexible manufacturing systems, traffic control systems and other dynamic systems, which require high-level coordinated control. Nowadays, the study of this kind of systems had lead to develop theoretical frameworks in order to define some structural and dynamical properties like controllability, observability, identifiability, besides others. These properties are required to design controllers, observers, identifiers and diagnosers.
In contrast to continuous states and continuous time used in physically motivated models, DES are characterized by discrete and qualitative changes of state values caused by the occurrence of asynchronous discrete events. In order to study, analyze, synthesize, control and implement a DES it is required to have a model representing its needed characteristics. The mathematical tool used to model a DES is known as Petri nets (PN).
Petri nets are a promising tool for describing and studying systems that are characterized as being concurrent, asynchronous, distributed, parallel, nondeterministic, and/or stochastic. As a graphical tool, Petri nets can be used as a visual-communication aid similar to flow charts, block diagrams, and networks. In addition, tokens are used in these nets to simulate the dynamic and concurrent activities of systems. As a mathematical tool, it is possible to set up state equations, algebraic equations, and other mathematical models governing the behavior of systems.
Topic 1: Modeling, Analysis and Synthesis of Discrete Event Systems using PN.
Develop a theoretical framework based on PN theory to define and characterize structural and dynamical properties of DES. These properties are needed in the implementation of DES and in the design of controllers and diagnosers. Once the properties are defined, the theoretical framework developed is encouraged to apply it in Flexible Manufacturing Systems or in another kind of DES.
Topic 2: Discrete Event System Diagnosis using PN.
The task of a diagnoser is to observe a closed-loop system and to detect faults, i.e. discrepancies between actual behavior and a nominal model. For discrete event systems, the problem of diagnoser synthesis is of polynomial complexity and can be solved efficiently for system components of application relevant complexity. For the case of multiple interacting components, different approaches for modular and decentralized diagnosis can be proposed based on Interpreted Petri nets (IPN).
Modular control of DES is an approach that allows reducing the computational complexity of DES controller synthesis. In modular control it is not required to compute one global supervisor which enforces the overall desired behavior of the controlled system instead of we would like to decompose the system specification into smaller portions and design a supervisor for each particular specification.
S14. Pattern Recognition for Knowlegde Discovering for Application to Diagnosis and Quality Control.
Dr. Rubén Ruelas Lepe.
rruelas@newton.dip.udg.mx
Keywords: Clustering, Classification, Fuzzy Systems, Possibilistic System, Uncertain Reasoning.