• Platelets contribute to hemostasis, thrombosis, and allergic airway inflammation via Munc13-4-dependent secretion

      Cárdenas Cantú, Eduardo Israel (Instituto Tecnológico y de Estudios Superiores de MonterreyInstituto Tecnológico y de Estudios Superiores de Monterrey, 2018-11-01)
      With over 200 million affected individuals, asthma is the most common chronic respiratory disease in the world. One old observation that begs an explanation is the relationship between platelets, their activation, and the manifestations of asthma. Although platelets are mostly known for their crucial role in coagulation, a growing body of evidence indicates they also participate in asthma. Platelets store in their alpha, dense, and lysosomal granules multiple mediators; most of which are required for effective coagulation, but some have been shown to affect the main pathophysiologic mechanisms in asthma: airway hyperresponsiveness (AHR), migration and activation of eosinophils, and alterations in the airway epithelium. These granule contents are released upon activation via exocytosis, which depends on SNARE proteins and regulatory elements, such as Munc13 proteins. Because platelets express multiple isoforms of these proteins, it is possible that the exocytic components mediating the release of each type of platelet granule are unique. We proposed that by identifying the exocytic components associated with a single type of platelet granule, we could impair its release and study in vivo its role in asthma. We hypothesized that selective impairment of specific platelet granule subpopulations would alter the asthmatic response. With this in mind, we first identified the Munc13 paralogs expressed in platelets, and used loss-of-function models to test how each Munc13 protein participated in exocytosis of alpha, dense, and lysosomal granules. We then studied how the lack of a specific Munc13 protein affected platelet function in vitro and in vivo, using animal models of thrombosis and hemostasis. Finally, we studied platelet-specific knockout (KO) mice in an asthma model to test our hypothesis. We found that genetic deletion of Munc13-4 mostly impaired platelet dense granule release, which translated into a strong hemostatic defect, and that platelet-specific Munc13-4 KO mice had a reduction in airway hyperresponsiveness and eosinophilic inflammation in a model of asthma. Taken together, our results indicate that Munc13-4-dependent platelet secretion plays essential roles in hemostasis, thrombosis, and asthma.
    • Potencial de reducción de emisiones de gases de efecto invernadero en la cadena de producción de ganado bovino en el estado de Nuevo León, México

      Manzano Caramillo, Mario Guadalupe; Carbajal Morón, Nallely Alejandrina; Lozáno García, Diego Fabían; Díaz Solís, Heriberto; Armienta Trejo, Gilberto; Hernández Javalera, Iliana Isabel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      El objetivo de esta investigación fue realizar un análisis de las fuentes y sumideros de emisiones de Gases de Efecto Invernadero dentro de la cadena de producción de ganado bovino. Se analiza la situación en México respecto a la importancia del sector ganadero en la contribución a las emisiones a nivel nacional y a nivel estatal. Posteriormente, se evalúan cuatro casos de estudio (extensivos y semi-intensivos) con la finalidad de representar las diversas prácticas del sector en el norte de México, y encontrar las principales fuentes y sumideros de carbono dentro de la actividad productiva. Por último se realizan dos escenarios a futuro para el estado de Nuevo León, acerca de que efecto tendrían en la disminución de emisiones de gases de efecto invernadero la implementación de ciertas prácticas en todas las unidades productivas del estado. Los balances de carbono de los distintos sistemas demostraron que teniendo un manejo adecuado de los pastizales e implementando prácticas de agroforesteria, los sistemas extensivos tienen un gran potencial de ser sumideros de carbono. Adicional a esto, de acuerdo a los resultados obtenidos, se considera necesario tanto en los sistemas semi-intensivos como en los extensivos, mejorar la alimentación del ganado y llevar a cabo un manejo adecuado de los residuos para garantizar un balance de misiones de CO2eq positivo. De implementarse estás mejores prácticas en las unidades productivas del estado de Nuevo León, pudieran mitigarse hasta un 80% de las emisiones de GEI del sector AFOLU del estado de Nuevo León. Los resultados de esta investigación son un referente para comprender la capacidad de mitigación de emisiones de GEI de los sistemas ganaderos y sin duda son un parámetro de referencia útil para los tomadores de decisiones, pues contribuirá a enfocar recursos y esfuerzos a proyectos que aseguren la disminución de emisiones.
    • Predicción de propiedades mecánicas y reológicas de suelos usando teoría de percolación

      De la Luz Pérez Rea, María; MARIA DE LA LUZ PEREZ REA;121024 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-01-01)
      Con el desarrollo de nuevas técnicas experimentales, ha sido posible el estudio de la estructura de sistemás desordenados y la profundización del conocimiento, así como la predicción, de muchas de sus propiedades. Los conceptos de teoría de percolación han jugado uno de los papeles más significativos en el entendimiento de estas nuevas técnicas. La razón más importante para el rápido desarrollo de estos métodos es que se ha apreciado el papel de la interconectividad de los elementos microscópicos y sus efectos en las propiedades macroscópicas. Esto ha sido posible a través del desarrollo y aplicación de teoría de percolación, sin embargo, no siempre ha sido posible comparar las predicciones con los datos y aÚn más, no siempre se ha podido establecer una precisión cuantitativa de las predicciones. En Mecánica de Suelos, las tentativas para definir el comportamiento de los suelos no saturados han estado basadas en una comprensión empírica de los fenómenos y en la utilización de aproximaciones teóricas simples pero siempre de manera macroestructural. Se ha comprobado que el comportamiento de los suelos está influenciado por los siguientes factores: cantidad y tipo de minerales, naturaleza del fluido intersticial que ocupa los poros, peso unitario, estructura de los componentes del suelo, succión, variaciones en la humedad y las condiciones de esfuerzo. Además, el suelo es un medio poroso "desordenado" y complejo al cual se le pueden observar al menos tres fases: sólida, líquida y gaseosa. El objetivo de este trabajo es predecir ciertas propiedades mecánicas macroestructurales como el módulo elástico y el módulo de Poisson abordando la modelación de la estructura microscópica del suelo con teoría de percolación utilizando redes rectangulares y hexagonales que toman en cuenta ciertas propiedades microestructurales tales como la disposición, tamaño y forma de las partículas de arcilla. Las microrredes fueron sujetas a un esfuerzo externo y se asumió que cada uno de sus componentes tiene un comportamiento elástico individual. El comportamiento esfuerzo-deformación de la red completa se analizó a través del método del elemento finito (MEF). El modelo de predicción fue calibrado mediante determinaciones de las propiedades elásticas del suelo en el laboratorio, arrojando resultados aceptables. La precisión de las predicciones es de alrededor del 72%, lo cual es muy bueno, considerando que los coeficientes de correlación para la mayoría de las propiedades geotécnicas de los suelos son aproximadamente del 40%. Una contribución importante de este trabajo es que se observó que la transmisión de esfuerzos entre los granos de suelo no se realiza Únicamente a través de los puntos de contacto, sino que existe una contribución de la fase líquida en forma de efecto viscoso, lo cual es parte fundamental de la teoría de la consolidación. La posibilidad de utilizar la teoría de percolación para la modelación del comportamiento mecánico del suelo, abre nuevos horizontes dentro de la Mecánica de Suelos tradicional que sin duda será aceptado por algunos y rechazado por muchos que clasifican a éstos, como métodos "suaves" de modelación.
    • Prediction of AR marker's position: A case of study using regression analysis with Machine Learning method

      Guedea Elizalde, Federico; Villegas Hernández, Yazmín Sarahí; Rodríguez González, Ciro Ángel; Smith Cornejo, Neale Ricardo; González Mendívil, Eduardo; Siller Carillo, Héctor Rafael (2017-05-15)
      In an automated assembly process with robotic assistance, it is used vision system, which is used to monitor or control the assembly process. In the assembly process, the vision system recognizes objects and estimates the position and orientation. Furthermore, the optical tracking information in manufacturing can provide valuable support and time saving for autonomous operations, but ill environment conditions prevent a better performance of vision systems. This thesis research presents a novel method for estimating object position under semi-controlled environment where lighting conditions change dynamically is proposed. This method incorporates machine learning and regression analysis that combines light measurement and an augmented reality (AR) system. Augmented Reality (AR) combines virtual objects with real environment. Furthermore, every AR application uses a video camera to capture an image including a marker in order to place a virtual object, which gives user an enriched environment. Using a tracking system to estimate the marker’s position with respect to the camera coordinate frame is needed to positioning a virtual object. Most research studies on tracking system for AR are under controlled environment. The problem is that tracking systems for markers are sensitive to variations in lighting conditions in the real environment. To solve this problem, a method is proposed to estimate better a marker position based on regression analysis, where lighting conditions are taken into account. The proposed approach improves the accuracy of the marker position estimation under different lighting conditions.
    • Principles to Automate Inventive Problem Solving Based on Dialectical Negation, Assisted by Evolutionary Algorithms and TRIZ

      Durán Novoa, Roberto A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-05)
      An inventive problem (IP) can be defined as a human perception of a situation that has to be changed, but with at least one obstacle which impedes achievement of the desired goal. In practice, they are solved generally using random trial and error, despite the fact that in literature there are several structured approaches to stimulate creativity and deal with them. During the development of products IP solving is particularly important throughout the concept generation, being often conducted intuitively by field experts. This dependence of intuition and expertise is a bottleneck in the design as a whole: intuition for being unpredictable, and expertise for being rare and thus expensive. This dissertation proposes a series of steps, based on dialectics, to decrease IP solving user dependence. First, the reasons behind this dependence are investigated, describing the critical tasks to be performed and developing the necessary characteristics of the tools to be utilized, simplifying several existing ones under a coherent framework that can withstand different levels of expertise. In order to explore and develop the proposed model, it is studied the complementation between people's innate creativity and Computer Sciences, aiming to ideally solve IP automatically. Due to its empirical results, Evolutionary computing and TRIZ techniques are utilized for the development of the study cases, whose results shows the viability of the dialectical hypothesis in the concept generation. Finally new and complementary research directions, likely to deliver concrete results, are proposed
    • Proceso de Extracción y Modificaciones Químicas de ácido Oleanólico de Phoradendron Tomentosum y su Uso para Tratar Cáncer

      De la Re Dávila, Bertha O. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-05-01)
    • Producción de ain por nitruración ióica y deposición f�?sica de vapor en la aleación de aluminio 7022

      Figueroa López, Ulises; ULISES FIGUEROA LOPEZ;217340 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-05-01)
      En este trabajo se presentan los resultados obtenidos del estudio de dos tecnologías propuestas para mejorar las propiedades tribológicas de una aleación de aluminio 7022-T6: mediante la producción de nitruro de aluminio por Nitruración Asistida con Plasmás o por Deposición Física de Vapor en modo reactivo con nitrógeno a partir de blancos de aluminio. Ambas tecnologías buscan generar un sistema consistente en una fase dura como el nitruro de aluminio, AlN, sobre el substrato blando de la aleación de aluminio. En el caso de la producción de AlN por Nitruración Asistida con Plasmás es necesario eliminar la capa de óxido superficial que persiste en las aleaciones aluminio, lo que es posible mediante bombardeo iónico después de un período de tiempo óptimo en una mezcla de gases adecuada. Sin embargo, la calidad de la capa de AlN en términos de rugosidad superficial es afectada por el período de limpiado iónico y la temperatura del substrato, lo que se discute ampliamente con base a los mecanismos asociados a la tecnología y el efecto de las variables del proceso. La deposición de una película de AlN se basa en el principio de pulverización catódica de un blanco de aluminio puro, migración de las especies hacia el substrato de interés y la reacción con el nitrógeno en la superficie para depositar el producto deseado. En una primera parte se presentan los resultados generados por la deposición de AlN sobre un substrato de vidrio comercial, discutiendo el efecto de las variables tecnológicas sobre las características estructurales y propiedades del producto. Posteriormente, y a la luz de los resultados previos, se depositó AlN sobre la aleación de aluminio 7022-T6, empleando capa de adhesión y de soporte de Al, Ni, Cr y Ti. Los depósitos producidos fueron caracterizados estructural y mecánicamente, los resultados, en una primera aproximación, nos permiten concluir que es posible producir sistemás consistentes de depósitos duros sobre substratos blandos de aluminio con propiedades tribológicas comparables a los obtenidos en otros sistemás para aplicaciones tribológicas. Particularmente, los sistemás que usaron capas de adhesión de aluminio puro mostraron el mejor juego de propiedades tribológicas, mientras que los sistemás con capas de adhesión de Ni, Cr y Ti requieren de ser optimizados en términos de las variables involucradas en estos procesos.
    • Producción de AIN por nutrición iónica y deposición física de vapor en la aleación de aluminio 7022

      Ulises Figueroa López; ULISES FIGUEROA LÓPEZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005)
    • Producción de películas de óxido de aluminio por deposición física de vapores para prevenir la carburación de la aleación HK40

      Jorge Álvarez Díaz; JORGE ÁLVAREZ DÍAZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010)
    • Producción de Películas de óxido de Aluminio por Deposición Física de Vapores para Prevenir la Carburización de la Aleación HK40

      Álvarez Díaz, Jorge (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-01)
    • Producción de Películas de Óxido de Aluminio por Deposición Física de Vapores para Prevenir la Carburización de la Aleación Hk40

      Álvarez Díaz, Jorge (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-01)
      En este trabajo se propone un método alternativo para prevenir la carburización catastrófica (metal dusting) a altas temperaturas en el acero HK40. El método se basa en el diseño y desarrollo de un recubrimiento con una arquitectura formada por capas delgadas que funcione como una barrera de difusión y que sea producido por deposición física de vapores. La estructura de la arquitectura se compone de una capa protectora de óxido de aluminio, una capa de soporte mecánico graduada y/o una capa de adhesión. Las películas se depositaron por pulverizado reactivo con magnetrones no balanceados utilizando corriente directa y se analizaron los efectos que varias variables del proceso tienen sobre la estructura y en las propiedades de las películas. Las variables analizadas fueron la potencia en el magnetrón, el voltaje bias aplicada al sustrato, el flujo de oxígeno y el modo de suministro del flujo de oxígeno. El propósito de este análisis, fue determinar el intervalo de valores de los parámetros del proceso, de tal manera que puedan producirse sistemáticamente películas densas, adherentes y con la estabilidad térmica y mecánica requerida. Las películas de aluminio y de óxido de aluminio presentaron muy buena adherencia, ya que no se observaron desprendimientos de película. Se encontró que el incremento en la potencia en el magnetrón está asociado con la reducción en la tenacidad, tanto en las capas de adhesión como en las de óxido. Respecto al voltaje bias, se observó una relación directa con el nivel de rugosidad y con la densidad, y el incremento en el flujo de oxígeno con la reducción en la tenacidad y la densidad de la película. Se obtuvieron capas protectoras de óxido de aluminio, a temperaturas promedio de 150 C en el sustrato, con una estructura amorfa mezclada con pequeños cristales de óxido de aluminio cúbico. La resistencia de los recubrimientos a la carburización se probó mediante termogravimetría en una atmósfera de metano y argón a 600 C y 800 C. Los resultados obtenidos de estos ensayos mostraron que el efecto del incremento del flujo de oxígeno no graduado con la aplicación de voltaje bias mejoró el desempeño de las películas. Las arquitecturas con estas características obtuvieron menores ganancias de masa. La ganancia de masa, se observó principalmente sobre la superficie en forma de partículas compuestas de carbono, sin embargo se observaron precipitaciones internas de carburos de cromo en algunas de las muestras. Las películas protectoras depositadas con capa de adhesión se fracturaron después de los ensayos de carburización en ambos valores de temperatura. Los análisis de difracción de rayos X de las muestras carburizadas indicaron la presencia de cristalinidad del óxido de aluminio, probablemente como producto de la transformación de la estructura amorfa. En síntesis, se concluye que es factible la deposición de capas de óxido de aluminio con estructura amorfa, a través del pulverizado reactivo con magnetrones no balanceados, y que las capas protectoras reducen el efecto de la carburización de la aleación.
    • Progressive Failure Analysis of a Composite Thin-Walled Beam Finite Element Model Under Aeroelastic Loading Conditions: Modeling and Simulation

      Cárdenas Fuentes, Diego E. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-12)
      New advanced composite blades design methodologies can significantly impact the performance and reliability of wind turbine technologies. Current approaches employed in designing composite turbine blades, resort to sophisticated multiphysics codes taking into account fluid-structure interaction. When it comes to structural health monitoring and damage progression, the practitioner needs to evaluate the integrity of the composite structure by using in-situ real-time techniques, often neglecting the effect of the degradation of structure properties, particularly when addressing complex aeroelastic simulations. This work contributes to the state-of-the-art of damage progression in composite blade under dynamic operating conditions. Due to computational inefficiencies and the high demands of computational resources, dynamic aeroelastic simulations and performed using reduced order models. Wind turbine rotor blades are efficiently modeled using a thin-walled beam (TWB) approach, a ID FE model capable of capturing most essential characteristics of slender structures. The TWB was chosen because enables to recover the strains and stresses for all layers at any position of the blade, therefore enablesthe integration of failure models capable of predicting the propagation of damage in the structure. Due to its computational efficiency it is possible to integrate the TWB in a dynamic aeroelastic environment capable of describing the fluid-structure interaction occurring during operational conditions. The proposed architecture enables the evaluation of the blade structural integrity at every time-step. Failure criteria are checked at every time-step and when met, the mechanical properties of the damaged area are degraded and the stiffness matrix of the structure is updated. This approach fully couples the aerodynamics loads, structural and inertial loads, along with the effect of the damage caused by the applied loads. The ultimate goal is to provide the practitioner tools for the evaluation of blade integrity during operational condition, to assess their behavior during aeroelastic simulations and to provide insight into damage progression and reliability of composite turbine blades.
    • Propagation of electromagnetic helmholtz-gauss beams through paraxial optical systems and spatial correlation vortices

      Hernández Aranda, Raúl I. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-01-05)
      The propagation of electromagnetic beams through a large variety of optical systems has received much attention during the last two decades. Similar attention has been paid to singular points arising on fields that represent optical beams, also known as optical vortices. This thesis studies the propagation of electromagnetic Helmholtz-Gauss beams through optical systems that can be represented by an ABCD matrix. Closed form expressions for the field distributions are derived, showing that the propagation of these beams can be described by the paraxial transformation of two parameters. Three special cases of ABCD systems are considered, namely a free-space segment, a quadratic index medium, and an unapertured thin lens. A complete characterization of these beams is made by studying their polarization properties and angular spectrum distribution. An important phenomenon known as the focal-shift is studied for the case of vector Mathieu-Gauss beams, and the existence of this shift is confirmed theoretically by means of two methods. All studies previously mentioned are performed assuming highly coherent sources. Partially coherent optical systems are considered as well, but we now look at singularities of the wave function describing the optical beam, which are commonly known as optical vortices. It is shown that partial coherence requires a beam to exhibit Rankine vortex characteristics, in analogy to vortices in fluids. We suggest a method to study the coherence properties of a beam by looking at its cross correlation function. Potential applications of this method are proposed, for instance we introduce a "vortex stellar interferometer" to determine the angular extent of distant objects such as stars, and the measurement of orbital angular momentum content in an optical beam is briefly discussed.
    • QFCS: A Fuzzy LCS in Continuous Multi-Step Environments with Continuous Vector Actions

      Ramírez Ruiz, José A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2009-05-01)
      This document presents a doctoral dissertation which is a requirement for the Ph.D. degree in Information Technologies and Communications from Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM), Campus Monterrey, major in Intelligent Systems in the field of Learning Classifier Systems (LCS). The dissertation introduces a new LCS, called QFCS, that is able to deal with problems defined over continuous variables. These problems are important because real life is modeled in that way. LCSs are systems with a set of rules that compete and that can learn from and adapt to the environment. These properties are very desirable in intelligent systems because they allow the systems to adjust to subtle details. Traditionally, in Artificial Intelligence, designers have to pre-adjust the parameters. This made the developer not to take into account those subtle details and, consequently, deal with them during ex- perimentation. LCSs make use of reinforcement learning and of evolutionary computing to deal with the proper adjustment of those subtleties. But, LCSs in their beginnings have been designed to solve problems that can be defined in a discrete form. Lately, researchers have tried to extend the approach to deal with problems in the continuum. This task has shown to be far away of being solved. Thus, there have been many ap- proaches to adapt these systems to continuous variables. One of them has been the introduction of Fuzzy Logic to model the continuous environment. In this way, little by little LCSs have been extended to tackle more problems in the continuum, increasing, little by little, their related difficulty. Some of the problems solved with this approaches are the learning of continuous functions, the frog problem and navigation tasks. Learning of continuous functions is a problem where some continuous input enters to the system and the corresponding output is obtained, but the system does not know what this output is, all the system knows is the amount of reward it receives for each output made. This problem is of one-step since the system has to place an output once. The frog problem consists of a frog that lives with a fly in a line. The frog has to jump once and catch the fly. Since the frog lives in a line, the environment is continuous. The length the frog jumps is also continuous. This is one-step since the frog jumps once. The frog receives a reward at each time it jumps even if it does not trap the fly. Navigation tasks are more complex problems since they are multi-step. This means the system has to act more than one time to reach the goal. In this case, it moves many times to reach another place. The environment can be discrete but it is more complex if it is continuous. The actions are a set of discrete vectors but, in a more complex form, they could be continuous. The reward is given when the system reaches the goal. ix ?The complexity for LCSs with the problems described before is given by the set of continuous actions, because rules of LCSs relate the states of the problem with one action. Thus, to model continuous outputs would required a set of infinite number of rules. This is impossible because rules are countable and the continuum is not. QFCS introduces fuzzy systems in the rules to model relationships of the form: many states to many actions. This is a novelty in LCSs literature where only single fuzzy rules have been used. QFCS uses a matrix to learn a prediction of the payoff to be obtained per each fuzzy system. This is also a novelty because traditional LCSs use one value to predict the obtained reward. In this way, QFCS was designed following to different approaches, one that has fixed fuzzy sets and the other with unfixed fuzzy sets as inputs to the fuzzy systems. The second approach is a generalization and it is proposed to eliminate the restrictions imposed by the use of fixed fuzzy sets. This QFCS was tested with the frog problem to compare it with the literature and with five more different problems that introduced different levels of complexity. Three of them were about performing navigation tasks in one and two dimension spaces with obstacles. The last two dealt with an inertial particle. The navigation tasks were in continuous spaces with a set of continuous vector actions. A reward was given in those regions the system had to reach. The particle problems were about moving a particle from one position to another one. These problems were the more complex ones because of the inertia of the particle. Results showed that QFCS is capable of solving these kind of continuousproblems and that there is not too much difference in performance between the two approaches of QFCSs. Liberating the fixed fuzzy sets did not represent an advantage.
    • Quality of work life in just-in-time systems : an exploratory study

      Roberto Rosa Borges de Holanda; ROBERTO ROSA BORGES DE HOLANDA (Instituto Tecnológico y de Estudios Superiores de Monterrey, 1993)
    • Quantitative Evaluation of Blocking-Recovery Discrete Modular Agents

      Palomera Palacios, Francisco (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2006-01-12)
      Modern manufacturing production environments, made up of a set of independent machines, execute high production plans trying to develop the full potential of the machines, but still keeping a safety operation. The synthesis of control entities (supervisors, controllers, agents) requieres a quantitative evaluation rather than just a qualitative one in order to measure its performance. Quantitative measurements of evaluation are defined in terms of production parameters or production conditions to achieve a desired production plan. Since control entities rule the processing machines for a high production system, an undesirable condition named blocking (dead-lock) may occur. If so, instead of rejecting such behavior, that at first sight seems to be problematic, we should evaluate how convenient is to use a blocking recovery procedure (use of an un-blocking mechanism) and move to a free-blocking production condition in order to re-initialiaze and resume a production process. This thesis work provides three complementary methods to deal with blocking- occurrence and evaluates, quantitatively, its blocking-recovery. To illustrate and show the proposed methods, we control a manufacturing transfer line that includes re-processing work, which feeds-back the system. The methods are developed to evaluate the performance of the transfer line in transient and steady-state analysis. The first method helps to cope up with dead-lock occurrence by synthesizing a set of blockingrecovery discrete-modular agents (BRDMA) along with an un-blocking mechanism (UBM). The second method provides a procedure to compute the time to block, tb, as a quantitative evaluation metric of the controlled transfer line, following two different approaches. The third method proposes a way to evaluate quantitatively and make a comparison of the profit rate between the best blocking recovery policy and its counter part of the free-blocking solution, both in steady-state. To show our experimental results, we provide state-graphs, plots and numerical results to synthesize and evaluate quantitatively the performance of the control entities named as Blocking-Recovery Discrete Modular Agents (BRDMA), under transient and steady-state analysis. Theory from discrete-event systems, agents and multiagents, discrete events and supervisory control theory, automated manufacturing systems and continuous time Markov chains provide the support of this thesis work.
    • Realidad Virtual Basada en Percepción

      Díaz Pier, Marissa (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-01)
      Para optimizar la interrelación interfaz usuario en un ensamble de Realidad Virtual o Aumentada, esta tesis propone investigar los fenómenos de la percepción humana estudiando los mecanismos que emplea el cerebro para recibir e interpretar la información que los sentidos le proporcionan. Primeramente, hay que tomar en cuenta que, en realidad, el ser humano no ve con los ojos, ni escucha con los oi?dos, sino que es el cerebro el que finalmente crea una idea de la �realidad� basa?ndose en información generalmente distorsionada y limitada. En algunas ocasiones, el cerebro complementa los datos disponibles usando la experiencia o esquemas ancestrales (heredados por generaciones1), de modo tal que este tipo de condicionamiento puede ser aprovechado en el desarrollo de interfaces. El trabajo aqui? propuesto pretende saltar la barrera de los sentidos para tratar de brindar la posibilidad de un intercambio de información ma?s puro entre la persona y la realidad, sea esta virtual o no. Por medio del ana?lisis de la percepción, se pretende establecer una metodologi?a para la si?ntesis de interfaces que permitan aprovechar las ventajas de este tipo de planteamiento, de las cuales hablaremos mas adelante, para crear una nueva generación de aparatos de interrelación hombre-maquina y mente-realidad que constituyan interfaces ma?s naturales e intuitivas. La presente investigación desea contribuir en la generación de una nueva manera de ver las aplicaciones 3D para permitir el disen?o de interfaces que realmente unan al usuario con el mundo virtual de una manera natural. De esta manera, este trabajo se enfoca a realizar experimentos sobre la percepción del usuario. Para lograrlo, es imprescindible establecer conexiones entre lo que el usuario siente, ve y percibe entre el mundo real y una realidad virtual. Es necesario el desarrollo de nuevas herramientas para capturar los mensajes entre usuario y maquina, tanto directos como indirectos, y asi? cubrir la necesidad naciente de una industria donde se requieren dispositivos de interacción que sean precisos y económicos, ya que las aplicaciones se acercan cada vez mas a la realidad pero han fallado al involucrar al usuario como parte del desarrollo de las mismas.
    • Reception of Multiple Users in Reconfigurable Wireless Networks

      Velázquez Gutiérrez, Juan Manuel
      The next generation of wireless networks (WNs) will confront important challenges pre- sented by the high density and convergence of wireless elements (WEs), their influence on our lifestyle, and the proliferation of new paradigms of wireless communication systems. Co- existence, mobility, and multiple access are some issues widely studied in order to ensure their operation. In this work. it is introduced a framework of WNs considering association schemes, networking, and coexistence aspects which are useful concepts to describe their fea- tures and the relationship among elements. Code division multiple access (CDMA) systems are considered as attractive models to future wireless communication systems (WCS) in order to affront the new and changing challenges. Traditional direct sequences - code division multiple access (DS-CDMA) and double codification division multiple access (C2DMA) models provide engaging features given that offer continuous access to the wireless channel to every user, i.e. they permit coexistence of multiple users at the same time. These models are interference limited systems what make them vulnerable to usual issues in dynamic networks such as the Near-Far problem, Hidden and exposed terminals interference, etc. However, C2DMA model has been shown addi- tional properties that makes it attractive to reconfigurable wireless networks (RWNs) due to its robustness to interference. It considers a double correlation technique which provides si- multaneous reception and motivates the study of sequences used as codes in order to increase their use and visualise some applications. This work considers current and new sets of codes through an exhaustive search of useful sequences for both models. First, desired properties are identified for each model, next known sequence sets are tested with these properties. After that, an exhaustive search algorithm is used in order to select and group sequences to form all the possible code sets with desired properties. Finally, these models are tested in challenging scenarios in order to examine their performance and persuade about their potential in future WNs.
    • Reconocimiento Contextual de Gestos para la Toma de Decisiones

      Montero Valverde, José A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-06)
      Dentro del amplio rango de actividades humanas, los gestos realizados con las manos al in- teracuar con objetos del entorno ocupan un lugar importante en la vida cotidiana. As ?? que el disen ?o de sistemas automáticos que reconozcan de manera confiable tales gestos es un área de investiga- cio ?n relevante. Sin embargo, es au ?n más interesante saber qué hacer con los gestos reconocidos, ya que permite incorporar en los sistemas automáticos, aspectos como la toma de decisiones. En esta tesis, se propone un nuevo modelo computacional que integra técnicas de visio ?n computacional y teor ??a de decisiones con el fin de reconocer los gestos manipulativos realizados por una persona en escenarios conocidos y tomar acciones al respecto. Este modelo puede aplicarse en escenarios don- de sea necesario tomar decisiones inmediatas a partir de la observacio ?n visual del comportamiento humano, tales como: videoconferencias y apoyo a discapacitados. La adaptabilidad del modelo en diferentes escenarios se realiza con ligeras modificaciones. Para esto el sistema se estructura en dos mo ?dulos: i) Mo ?dulo de reconocimiento de gestos, el cual combina informacio ?n de movimiento y de contexto bajo un nuevo enfoque y, ii) Mo ?dulo para la toma de decisiones, el cual propone un nuevo esquema basado en redes de decisio ?n dinámica para tomar decisiones en problemas de decisio ?n de Markov parcialmente observables con un horizonte finito. El mo ?dulo de reconocimiento de gestos se basa en informacio ?n de movimiento (trayectorias del centroide de la mano) y de contexto (color y posicio ?n relativa de objetos) para entrenar modelos ocultos de Markov (HMMs) y representar los distintos gestos realizados en un escenario. La incorporacio ?n de informacio ?n contextual proporciona resultados experimentales de reconocimiento promedio de gestos que van desde 94% hasta 99,57% en distintos escenarios. Esto representa un incremento significativo en el proceso de reconocimiento de gestos comparado al resultado obtenido cuando no se integra el contexto. El mo ?dulo para la toma de decisiones utiliza una red de decisio ?n dinámica donde se maneja el aspecto de incertidumbre en los estados a través de una red bayesiana dinámica. La mejor alternativa se selecciona bajo el enfoque de máxima utilidad esperada. Para esto se consideran los posibles resultados de cada accio ?n a través de futuras etapas temporales y la creencia acerca del gesto más probable realizado por el usuario. Este modelo fué implementado en dos distintos escenarios para su evaluacio ?n: Videoconferencias y Apoyo a personas para completar tareas. La evaluacio ?n realizada en ambos escenarios fué subjetiva a través de una encuesta realizada a los usuarios potenciales. Los resultados experimentales obtenidos de la evaluacio ?n son satisfactorios, indicando que el rendimiento y eficiencia del modelo desarrollado resultan adecuados para aplicarse en diferentes ambientes reales.