• Natural Gas Imbalance System Optimization

      Pérez Valdés, Gerardo A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2009-12-01)
    • Navegación Reactiva de un Robot Móvil Basada en Visión y Localización con Incertidumbre en Exteriores

      Alencastre Miranda, Moíses (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-12)
      Existen pocos trabajos en robótica móvil basada en visión donde se realicen tareas de localización y planificación considerando incertidumbre en ambientes de exterior. A nuestro conocimiento, no hay trabajos que incluyan un ana?lisis y describan bajo que? condiciones es mejor para un robot móvil localizarlo con respecto a un marco de referencia global o con respecto a marcos de referencia locales mientras este navega. Para que un robot móvil no-holonómico real pueda percibir el ambiente de exterior se han utilizado una ca?mara esta?ndar y una ca?mara omnidireccional. Con las ima?genes capturadas con dichas ca?maras, se ha realizado un eficiente algoritmo de visión que reconoce las diferentes clases definidas (pasto, cielo, a?rboles y arbusto) en tiempo real. Este algoritmo esta? basado principalmente en un proceso de segmentación por color, y una clasificación utilizando Campos Aleatorios de Markov (MRFs). Con ese algoritmo de visión, se pudo desarrollar y probar en un robot real Pioneer 3- AT un me?todo de navegación reactiva basada en trayectorias definidas por curvas de Bezier, en el cua?l se pudo considerar la no-holonomi?a del robot al momento de navegar. En base a la información omnidireccional percibida mediante visión el robot móvil tiene una representación del ambiente con la cua?l podri?a realizar tareas de planificación y localización con incertidumbre. Se ha desarrollado un algoritmo para encontrar una ruta que disminuya la incertidumbre en localización del robot móvil. Para realizar esto, se considera incertidumbre en control y sensado, y se hace un ana?lisis comparativo acerca de la pertinencia de cua?ndo utilizar en localización del robot el marco de referencia global y cuando utilizar cierto marco de referencia local. Se utiliza la covarianza como me?trica para medir la incertidumbre, y el modelado matema?tico se hace utilizando transformaciones aproximadas propuestas en [Smith 86]. Los marcos de referencia locales son definidos en base a hitos (en Inglés landmarks, comu?nmente son obsta?culos, por ejemplo a?rboles). En base a simulaciones realizadas, en la mayori?a de los casos se disminuye ma?s la incertidumbre utilizando marcos de referencia locales.
    • Novel bioengineering strategies for the recovery and purification of PEGylated lysozyme conjugates: in situ ATPS and affinity chromatography

      Mejía, Luis (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2017-07-13)
      PEGylation is the modification of therapeutic proteins with polyethylene glycol (PEG) with the goal of improving their bioavailability and effectivity in the organism. During the PEGylation process, proteins with different degrees of PEGylation and positional isomers are generated. Numerous chromatographic and non-chromatographic techniques have been used for the purification of the adequate or most active conjugate. However, the obtained yields are still low, representing an interesting engineering challenge to address. Therefore, novel techniques to achieve this must be devised. In the present work, two strategies were explored: in situ aqueous two-phase systems (ATPS) and affinity chromatography. Aqueous two-phase systems (ATPS) are a promising alternative for recovering modified proteins but this technique has not been tested with complete PEGylation reactions. In this work, lysozyme PEGylation reactions were used as part of the phase-forming chemicals to form in situ ATPS. This was best achieved by adding a 4M ammonium sulphate in a 20 mM Tris-HCl pH 7.0 solution. The phases were separated and analyzed by monolithic chromatography and SDS-PAGE. Results indicate that PEGylated lysozymes (mono- and di-) are mainly fractionated to the top phase (56% and 100% respectively) while native lysozyme was found in the bottom phase (97.7%). On the other hand, PEG-modified and native lysozyme adsorption to Heparin Sepharose was described by Langmuir isotherms. The affinity of the conjugates decreased with the PEGylation degree with no significant binding of the reactive 20 kDa mPEG to the resin. A method in Heparin Affinity Chromatography (HAC) eluting with NaCl gradient was developed and optimized through Response Surface Methodology for the purification of mono-PEGylated lysozyme with a better yield, purity and productivity than other reported chromatographic modes. A formulated rate model could model and simulate the separation of mono-PEGylated and native lysozymes in HAC. Diverse mass transfer data were obtained from this simulation. Finally, as an antecedent to the generation of immunosorbents to purify PEGylated proteins, the immobilization conditions of antibodies on NHS Sepharose 4 Fast Flow were viii optimized with a factorial design. The antibody isotype showed effects on the coupling efficiency, being improved when isotype G was used. In conclusion, in situ ATPS and heparin affinity chromatography combined with optimization tools such as design of experiments, modelling and simulation represent new and never reported before techniques in the recovery and purification of PEGylated lysozyme with several advantages with respect to currently used methods.
    • Nutraceutical properties of isolated starch, phytochemical compounds and bioactive peptides from pigmented chickpea cultivars influenced by cooking or germination process.

      Serna Saldívar, Sergio O.; Gutiérrez Uribe, Janet Alejandra; Milán Noris, Ada Keila; Jacobo Velázquez, Daniel A.; Santacruz López, Yolanda Arlette; Reyes Moreno, Cuauhtémoc Reyes Moreno (2017-12-14)
      Chickpea (Cicer arietinum L.) is the third most consumed pulse worldwide and a potential functional ingredient due to its nutritious composition and bioactive compounds. The aim of this investigation was to evaluate the potential of ten pigmented chickpea cultivars as ingredients in functional foods using cooking or germination to enhance bioactive compounds with health effect. The investigation was performed in five steps in order to evaluate the potential of ten chickpea cultivars differing in seed coat color (black, brown, green, red and cream). The first approach was to evaluate chickpea flours on the techno-functionality, chemical composition and nutritional properties related to starch and protein. The colored chickpeas flours showed higher content of bioactive compounds as total phenolics (TPC), β-glucans, resistant starch and higher protein digestibility corrected amino acid score (PDCAAS) compared with the commercial chickpea Blanco Sinaloa (cream seed coat). The limiting amino acids in chickpea flours were Trp, Thr and Met+Cys, whereas PDCAAS ranged from 0.59 to 0.82. Correlation analysis showed a possible interaction between TPC and starch which influenced thermal properties and starch digestion. The principal component analysis (PCA) showed several differences among the chemical compositions, starch digestions and seed protein qualities. Moreover, starch is the major component of chickpea seeds; therefore the wet-milled chickpea starches were studied on physicochemical, functional and in vitro starch digestion properties. The yield of chickpea starches ranged from 19.22 to 30.06%; total starch and amylose contents in the starches varied from 87.14 to 96.02% and 25.05 to 35.26%, respectively. Gelatinization properties (DSC, RVA) showed large differences among starches. The rapidly digestible (RDS), slowly digestible (SDS) and resistant (RS) gelatinized starch fractions varied from 56.34 to 59.15%, 33.22 to 35.43% and 6.42 to 9.22%, respectively. The predicted glycemic indexes (pGI) of native and gelatinized chickpea starches ranged from 65.52 to 66.10 and 74.39 to 75.74, respectively. A close correlation among the viscosity characteristics of isolated starches and the starch digestion fractions were found after PCA analysis. The starches properties were not dependent of the seed coat coloration of the cultivars. Overall, the results suggest that the starches of the array of chickpeas studied may hold a potential for the development of functional foods especially due to its functional properties, medium glycemic index, high SDS and RS contents. Additionally, the fate of phytochemicals during cooking and germination was evaluated. The 10 chickpea cultivars were soaked and cooked for the phytochemical evaluation. The compounds were identified by HPLC-IT-MS and quantified by HPLC-UV-ELSD. In Milán-Noris, A.K. 7 the raw chickpea seeds, eleven compounds were identified among cultivars; soyasaponin βg (m/z 1068) and biochanin A (m/z 285) were the principal compounds found. The thermal process caused significant (p≤0.05) reduction in flavonoids content but only minor lost of total saponins content. Besides, the effect of the germination process on phytochemicals of four chickpea cultivars (black, cream, green and red) was evaluated. Chickpea cultivars were germinated during five day at 24ºC. Eight isoflavonoids and soyasaponin βg were identified in germinated chickpea cultivars. However, genotype showed a significant effect on the profile and content of isoflavonoids during germination process. Phytochemical content increased significantly during germination process in all chickpea cultivars. Lastly, the anti-inflammatory effects of peptides and isoflavonoids associated to the unabsorbed digestion of protein concentrates from cooked or germinated (G.ICC5613 and Blanco Sinaloa) chickpea cultivars were investigated. The simulated gastrointestinal digestion released isoflavonoids and peptides (<10 kda=""><10kDa) in coocked and germinated samples whit adequate capacity to reduce nitric oxide production in induced- LPS macrophages. In both cultivars, the germinated samples showed higher reduction in nitric oxide by phenolics and peptides fraction. The digest from ferminated Blanco Sinaloa showed anti-inflammatory effects exerted by phenolics (IC50 : 0.22 mg/mL) and peptides (IC50: 1.92 mg protein/mL). The major phenolics were biochanin-A and formononetin. The further purification of the most active fraction produced peptides from legumin and vicilin. This is the first report of anti-inflammatory peptides from processed chickpea released by simulated gastrointestinal digestion. Overall, the results suggest that pigmented chickpea cultivars of this study showed a great potential as functional ingredients.
    • Oligopoly studies: on the interaction of private firms with homogeneous and heterogeneous objectives

      Kalashnikov, Viacheslav; Kalashnykova, Nataliya; Leal Coronado, Mariel Adriana; David Güemes Castorena; Smith Cornejo, Neale Ricardo; Bello Acosta, Francisco Román Ángel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      Two oligopoly studies compose this thesis. The first study considers that firms have the homogenous objective of maximizing their profits. The second one contemplates the presence of a private firm with a different objective, a consumer friendly firm. In detail, in the second chapter, the effects of uniting two separated markets each monopolized initially by a producer into a globalized duopoly market are studied. A linear inverse demand with cap price and quadratic cost functions is considered. After globalization, the Consistent Conjectural Variations Equilibrium of the duopoly game is found. Unlike the Cournot Equilibrium, complete symmetry (same cost function’s parameters of both firms) does not represent the strongest coincident profit degradation. When both firms are low-marginal cost firms, it is found that the firm with a technical advantage over her rival has a better ratio and as the rival becomes weaker, this is, as the slope of the rival’s marginal cost function increases, the profit ratio improves. In the third chapter, the study considers a Cournot duopoly model with a consumer-friendly firm and analyzes the interplay between the strategic choice of abatement technology and the timing of government’s commitment to the environmental tax policy. It is shown that the optimal emission tax under committed policy regime is always higher than that under non-committed one, but both taxes can be higher than marginal environmental damage when the consumerfriendliness is high enough. It is also shown that the emergence of a consumer friendly firm might yield better outcomes to both welfare and environmental quality without the commitment to the environmental policy.
    • On the Automated Correction of Faulty Security Protocols

      López Pimentel, Juan C. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-01-04)
      Un Protocolo de Seguridad se usa para establecer una comunicacio ?n segura entre dos o más agentes a pesar de condiciones adversas. Cr ??menes tales como la usurpacio ?n de identidades o accesos no autorizados a la informacio ?n han provocado incontables pérdidas econo ?micas especialmente cuando se realizan transacciones electro ?nicas. Por ese motivo, la comunidad de los métodos for- males ha puesto un interés especial en la verificacio ?n de protocolos de seguridad, produciendose en los u ?ltimos an ?os una gran cantidad de técnicas y herramientas. Otros autores han tomado un enfoque diferente, proponiendo principios de disen ?o para ayudar al desarrollo de mejores protocolos. Esta iniciativa se origina porque ellos han observado que los ataques de protocolos de seguridad son un resultado de malas prácticas de disen ?o. Algunos de los más importantes principos de disen ?o han sido publicados por Abadi y Needham. A pesar de ésto, el disen ?o de protocolos de seguridad es particularmente dif ??cil y propenso a errores. En esta tesis presentamos SHRIMP (a Smart metHod for Repairing IMperfect security Pro- tocols). SHRIMP tiene como objetivo acelerar el ciclo de desarrollo de protocolos de seguri- dad, uniendo la brecha que hay entre disen ?o y análisis por medio de una tarea de diagno ?stico y reparacio ?n. SHRIMP trabaja con herramientas de verificacio ?n existentes para el proceso de bu ?squeda de ataques en el protocolo (en particular hemos usado AVISPA ya que es considerado el estado del arte). SHRIMP primero analiza un protocolo y, si el protocolo tiene fallas, busca una o más corridas del protocolo que violan un requirimiento de seguridad, llamado ataque. As ??, SHRIMP analiza el protocolo y el ataque para indicar qué pasos fallan en el protocolo y de esta forma sintetizar cambios apropiados para corregirlos. SHRIMP produce una versio ?n mejorada del protocolo, el cuál es analizado y parchado nuevamente hasta que no sean detectados más errores. Para organizar la aplicacio ?n de diagno ?stico y reparacio ?n, hemos adoptado la metodolog ??a proof planning de Bundy. As ??, SHRIMP es un conjunto de métodos de parche, cada uno de ellos es capaz de parchar una clase general de fallas. Para arreglar una falla, en cada método de parche hemos traducido algunos de los principios de Abadi y Needham en requirimientos formales, la cual llamamos precondiciones. Estas precondiciones son una coleccio ?n de reglas que identifican la clase de ataque que el protocolo sufre y a partir de las cuales se propone un parche. En esta tesis nos hemos enfocado en parchar protocolos vulnerables a los ataques de tipo replay. SHRIMP toma cuidado de este tipo de ataques cuando el mensaje siendo re-enviado es un texto cifrado. Si éste es el caso, SHRIMP incluye tres principles métodos de parche para enfrentar este tipo de ataques: message encoding, agent naming y session binding. Hasta ahora hemos probado SHRIMP en 36 protocolos, 21 de ellos fueron obtenidos de la librer ??a Clark-Jacob, obteniendo una tasa de reparacio ?n del 90%.
    • OntoOAI : modelo semántico para el descubrimiento selectivo de conocimiento sobre contenidos estructurados con OAI-PMH

      Becerril García, Arianna; ARIANNA BECERRIL GARCíA
      El principio fundamental en la Web es la comunidad abierta: cualquiera puede contribuir sus ideas al todo. Esta apertura a la colaboración, su flexibilidad y tolerancia son factores que le han permitido convertirse en un recurso universal. Sin embargo, la masa creciente, dinámica y muchas veces poco estructurada de información en la Web impone retos importantes, uno de ellos: el descubrimiento de conocimiento. El descubrimiento de conocimiento, uno de los productos finales más interesantes de la computación, resulta particularmente relevante en la tarea de un investigador, profesor o alwnno, que usan la información científica para su quehacer profesional. Entre los esfuerzos que se han dado para organizar y estructurar la masa de datos, se ubica el Protocolo para Cosecha de Metadatos de la Iniciativa de Archivos Abiertos (OAIPMH ), estándar para los repositorios de información científica y académica.
    • Optimal Workers Allocation for the Crossdocking Just in Time Scheduling Problem

      Álvarez Pérez, Guillermo A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-05)
      In this work, a warehouse is allowed to function as a crossdock to minimize costs for a scheduling problem. These costs are due to two factors: the number of teams of workers hired to do the job, and the transit storage time for cargo. Each team of workers has a fixed cost per working day, and the cargo can incur early and tardy delivery costs. Then, the transit storage time for cargo is minimized according to Just in Time (JIT) scheduling. The goal is to obtain both: the optimal number of teams of workers in the crossdock and a schedule that minimizes the transit storage time for cargo. An integrated model to obtain both the optimal number of teams of workers and the schedule for the problem is written. The model uses the machine scheduling notation to describe it. Since the problem is known as NP-hard, a solution approach based on a combination of two metaheuristics, Reactive GRASP embedded in a Local Search algorithm and Tabu Search (RGLSTS), is provided. The results obtained from the exact method that uses the ILOG CPLEX 9.1 solver for 14 problem instances and the results obtained from the RGLSTS metaheuristic algorithm for the same problem instances are discussed. This research has an important academic contribution because it involves the development of a metaheuristic algorithm not previously applied to a relevant problem that has not received attention. Besides, the source codes of the programs that solve the problem are available for the reader and they can be modified according to the user needs. In the industry field, the algorithm mentioned above can be easily adapted in order to be applied to a real problem (i.e., large transshipments in companies like Wal-Mart, HEB, among others). Obtaining optimal or near optimal solutions for the problem of this work represents an improvement in the movement or distribution of the workforce and products, reducing this way, hiring costs, transportation costs and inventory costs.
    • Optimization of distribution networks using evolutionary algorithms

      Avilés Arévalo, Juan Pablo
      One of the biggest problems that a distribution network (DN) must face is the constant increase in load demand, which eventually will cause the degradation of its optimal operation. To overcome these challenges the distribution network usually is oversized or reinforced, however, although this is a quick and practical solution, it is not necessarily the most economical and efficient one. For this reason, it is desirable to implement an optimization algorithm to improve the network without increasing investment costs. The optimization of a power distribution network is not an easy task, because this is the most extensive part of the entire electrical system. Due to this extension, along with the high complexity of the topology, and some quality parameters that must be respected, the entire design or improvement of a distribution network can be considered as an extremely hard combinatorial, non-convex, and non-linear optimization problem, difficult to solve by conventional methods. For these reasons, we propose a Two-Stage Multiobjective Evolutionary Approach (TS-MOEAP) capable to design and optimize distribution networks, at primary and secondary levels. Due to the complexity of the optimization problem, the approach is implemented in two stages, that can be summarized as follows: Stage-1. Optimal placement and sizing of generation units, as well as optimal branch routing and conductor sizing. For this purpose, an Improved Particle Swarm Optimization technique (IPSO) combined with a greedy algorithm is introduced. Stage-2. Optimal network reconfiguration. For this, an Improved Nondominated Sorting Genetic Algorithm with a Heuristic Mutation Operator (INSGA-HO) is presented, aiming at minimizing the total power loss and investment cost of the system. Finally, to complement the optimization process, the software DER-CAM will be used to find optimal investment solutions for Distributed Energy Resources (DER). Both algorithms are successfully applied to design and optimize real distribution networks that presented several problems, concluding that the combination of these approaches -network reconfiguration with optimal installation of DERs- can converge toward better configurations than other algorithms.
    • Performance Analysis of a VBR Video Server With Self Similar Gamma Distributed MPEG-4 Data

      Ramírez Velarde, Raúl V. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2004-01-05)
      In this paper, we propose analytical models to capture the statistical behavior of real traces of MPEG-4 encoded variable bit rate (VBR) video data in a video server. We study the scattered disk storage of video frames and periodic scheduling policies and we calculate the user disk service rate, buffer size, and the maximum number of simultaneous subscribers by using the Chernoff bound asymptotic technique. We have included a self-similar Gamma model, which according to our simulations, seems to be very close to the actual data behavior.
    • Platelets contribute to hemostasis, thrombosis, and allergic airway inflammation via Munc13-4-dependent secretion

      Cárdenas Cantú, Eduardo Israel (Instituto Tecnológico y de Estudios Superiores de MonterreyInstituto Tecnológico y de Estudios Superiores de Monterrey, 2018-11-01)
      With over 200 million affected individuals, asthma is the most common chronic respiratory disease in the world. One old observation that begs an explanation is the relationship between platelets, their activation, and the manifestations of asthma. Although platelets are mostly known for their crucial role in coagulation, a growing body of evidence indicates they also participate in asthma. Platelets store in their alpha, dense, and lysosomal granules multiple mediators; most of which are required for effective coagulation, but some have been shown to affect the main pathophysiologic mechanisms in asthma: airway hyperresponsiveness (AHR), migration and activation of eosinophils, and alterations in the airway epithelium. These granule contents are released upon activation via exocytosis, which depends on SNARE proteins and regulatory elements, such as Munc13 proteins. Because platelets express multiple isoforms of these proteins, it is possible that the exocytic components mediating the release of each type of platelet granule are unique. We proposed that by identifying the exocytic components associated with a single type of platelet granule, we could impair its release and study in vivo its role in asthma. We hypothesized that selective impairment of specific platelet granule subpopulations would alter the asthmatic response. With this in mind, we first identified the Munc13 paralogs expressed in platelets, and used loss-of-function models to test how each Munc13 protein participated in exocytosis of alpha, dense, and lysosomal granules. We then studied how the lack of a specific Munc13 protein affected platelet function in vitro and in vivo, using animal models of thrombosis and hemostasis. Finally, we studied platelet-specific knockout (KO) mice in an asthma model to test our hypothesis. We found that genetic deletion of Munc13-4 mostly impaired platelet dense granule release, which translated into a strong hemostatic defect, and that platelet-specific Munc13-4 KO mice had a reduction in airway hyperresponsiveness and eosinophilic inflammation in a model of asthma. Taken together, our results indicate that Munc13-4-dependent platelet secretion plays essential roles in hemostasis, thrombosis, and asthma.
    • Potencial de reducción de emisiones de gases de efecto invernadero en la cadena de producción de ganado bovino en el estado de Nuevo León, México

      Manzano Caramillo, Mario Guadalupe; Carbajal Morón, Nallely Alejandrina; Lozáno García, Diego Fabían; Díaz Solís, Heriberto; Armienta Trejo, Gilberto; Hernández Javalera, Iliana Isabel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      El objetivo de esta investigación fue realizar un análisis de las fuentes y sumideros de emisiones de Gases de Efecto Invernadero dentro de la cadena de producción de ganado bovino. Se analiza la situación en México respecto a la importancia del sector ganadero en la contribución a las emisiones a nivel nacional y a nivel estatal. Posteriormente, se evalúan cuatro casos de estudio (extensivos y semi-intensivos) con la finalidad de representar las diversas prácticas del sector en el norte de México, y encontrar las principales fuentes y sumideros de carbono dentro de la actividad productiva. Por último se realizan dos escenarios a futuro para el estado de Nuevo León, acerca de que efecto tendrían en la disminución de emisiones de gases de efecto invernadero la implementación de ciertas prácticas en todas las unidades productivas del estado. Los balances de carbono de los distintos sistemas demostraron que teniendo un manejo adecuado de los pastizales e implementando prácticas de agroforesteria, los sistemas extensivos tienen un gran potencial de ser sumideros de carbono. Adicional a esto, de acuerdo a los resultados obtenidos, se considera necesario tanto en los sistemas semi-intensivos como en los extensivos, mejorar la alimentación del ganado y llevar a cabo un manejo adecuado de los residuos para garantizar un balance de misiones de CO2eq positivo. De implementarse estás mejores prácticas en las unidades productivas del estado de Nuevo León, pudieran mitigarse hasta un 80% de las emisiones de GEI del sector AFOLU del estado de Nuevo León. Los resultados de esta investigación son un referente para comprender la capacidad de mitigación de emisiones de GEI de los sistemas ganaderos y sin duda son un parámetro de referencia útil para los tomadores de decisiones, pues contribuirá a enfocar recursos y esfuerzos a proyectos que aseguren la disminución de emisiones.
    • Predicción de propiedades mecánicas y reológicas de suelos usando teoría de percolación

      De la Luz Pérez Rea, María; MARIA DE LA LUZ PEREZ REA;121024 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-01-01)
      Con el desarrollo de nuevas técnicas experimentales, ha sido posible el estudio de la estructura de sistemás desordenados y la profundización del conocimiento, así como la predicción, de muchas de sus propiedades. Los conceptos de teoría de percolación han jugado uno de los papeles más significativos en el entendimiento de estas nuevas técnicas. La razón más importante para el rápido desarrollo de estos métodos es que se ha apreciado el papel de la interconectividad de los elementos microscópicos y sus efectos en las propiedades macroscópicas. Esto ha sido posible a través del desarrollo y aplicación de teoría de percolación, sin embargo, no siempre ha sido posible comparar las predicciones con los datos y aÚn más, no siempre se ha podido establecer una precisión cuantitativa de las predicciones. En Mecánica de Suelos, las tentativas para definir el comportamiento de los suelos no saturados han estado basadas en una comprensión empírica de los fenómenos y en la utilización de aproximaciones teóricas simples pero siempre de manera macroestructural. Se ha comprobado que el comportamiento de los suelos está influenciado por los siguientes factores: cantidad y tipo de minerales, naturaleza del fluido intersticial que ocupa los poros, peso unitario, estructura de los componentes del suelo, succión, variaciones en la humedad y las condiciones de esfuerzo. Además, el suelo es un medio poroso "desordenado" y complejo al cual se le pueden observar al menos tres fases: sólida, líquida y gaseosa. El objetivo de este trabajo es predecir ciertas propiedades mecánicas macroestructurales como el módulo elástico y el módulo de Poisson abordando la modelación de la estructura microscópica del suelo con teoría de percolación utilizando redes rectangulares y hexagonales que toman en cuenta ciertas propiedades microestructurales tales como la disposición, tamaño y forma de las partículas de arcilla. Las microrredes fueron sujetas a un esfuerzo externo y se asumió que cada uno de sus componentes tiene un comportamiento elástico individual. El comportamiento esfuerzo-deformación de la red completa se analizó a través del método del elemento finito (MEF). El modelo de predicción fue calibrado mediante determinaciones de las propiedades elásticas del suelo en el laboratorio, arrojando resultados aceptables. La precisión de las predicciones es de alrededor del 72%, lo cual es muy bueno, considerando que los coeficientes de correlación para la mayoría de las propiedades geotécnicas de los suelos son aproximadamente del 40%. Una contribución importante de este trabajo es que se observó que la transmisión de esfuerzos entre los granos de suelo no se realiza Únicamente a través de los puntos de contacto, sino que existe una contribución de la fase líquida en forma de efecto viscoso, lo cual es parte fundamental de la teoría de la consolidación. La posibilidad de utilizar la teoría de percolación para la modelación del comportamiento mecánico del suelo, abre nuevos horizontes dentro de la Mecánica de Suelos tradicional que sin duda será aceptado por algunos y rechazado por muchos que clasifican a éstos, como métodos "suaves" de modelación.
    • Prediction of AR marker's position: A case of study using regression analysis with Machine Learning method

      Guedea Elizalde, Federico; Villegas Hernández, Yazmín Sarahí; Rodríguez González, Ciro Ángel; Smith Cornejo, Neale Ricardo; González Mendívil, Eduardo; Siller Carillo, Héctor Rafael (2017-05-15)
      In an automated assembly process with robotic assistance, it is used vision system, which is used to monitor or control the assembly process. In the assembly process, the vision system recognizes objects and estimates the position and orientation. Furthermore, the optical tracking information in manufacturing can provide valuable support and time saving for autonomous operations, but ill environment conditions prevent a better performance of vision systems. This thesis research presents a novel method for estimating object position under semi-controlled environment where lighting conditions change dynamically is proposed. This method incorporates machine learning and regression analysis that combines light measurement and an augmented reality (AR) system. Augmented Reality (AR) combines virtual objects with real environment. Furthermore, every AR application uses a video camera to capture an image including a marker in order to place a virtual object, which gives user an enriched environment. Using a tracking system to estimate the marker’s position with respect to the camera coordinate frame is needed to positioning a virtual object. Most research studies on tracking system for AR are under controlled environment. The problem is that tracking systems for markers are sensitive to variations in lighting conditions in the real environment. To solve this problem, a method is proposed to estimate better a marker position based on regression analysis, where lighting conditions are taken into account. The proposed approach improves the accuracy of the marker position estimation under different lighting conditions.
    • Principles to Automate Inventive Problem Solving Based on Dialectical Negation, Assisted by Evolutionary Algorithms and TRIZ

      Durán Novoa, Roberto A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-05)
      An inventive problem (IP) can be defined as a human perception of a situation that has to be changed, but with at least one obstacle which impedes achievement of the desired goal. In practice, they are solved generally using random trial and error, despite the fact that in literature there are several structured approaches to stimulate creativity and deal with them. During the development of products IP solving is particularly important throughout the concept generation, being often conducted intuitively by field experts. This dependence of intuition and expertise is a bottleneck in the design as a whole: intuition for being unpredictable, and expertise for being rare and thus expensive. This dissertation proposes a series of steps, based on dialectics, to decrease IP solving user dependence. First, the reasons behind this dependence are investigated, describing the critical tasks to be performed and developing the necessary characteristics of the tools to be utilized, simplifying several existing ones under a coherent framework that can withstand different levels of expertise. In order to explore and develop the proposed model, it is studied the complementation between people's innate creativity and Computer Sciences, aiming to ideally solve IP automatically. Due to its empirical results, Evolutionary computing and TRIZ techniques are utilized for the development of the study cases, whose results shows the viability of the dialectical hypothesis in the concept generation. Finally new and complementary research directions, likely to deliver concrete results, are proposed
    • Proceso de Extracción y Modificaciones Químicas de ácido Oleanólico de Phoradendron Tomentosum y su Uso para Tratar Cáncer

      De la Re Dávila, Bertha O. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-05-01)
    • Producción de ain por nitruración ióica y deposición f�?sica de vapor en la aleación de aluminio 7022

      Figueroa López, Ulises; ULISES FIGUEROA LOPEZ;217340 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-05-01)
      En este trabajo se presentan los resultados obtenidos del estudio de dos tecnologías propuestas para mejorar las propiedades tribológicas de una aleación de aluminio 7022-T6: mediante la producción de nitruro de aluminio por Nitruración Asistida con Plasmás o por Deposición Física de Vapor en modo reactivo con nitrógeno a partir de blancos de aluminio. Ambas tecnologías buscan generar un sistema consistente en una fase dura como el nitruro de aluminio, AlN, sobre el substrato blando de la aleación de aluminio. En el caso de la producción de AlN por Nitruración Asistida con Plasmás es necesario eliminar la capa de óxido superficial que persiste en las aleaciones aluminio, lo que es posible mediante bombardeo iónico después de un período de tiempo óptimo en una mezcla de gases adecuada. Sin embargo, la calidad de la capa de AlN en términos de rugosidad superficial es afectada por el período de limpiado iónico y la temperatura del substrato, lo que se discute ampliamente con base a los mecanismos asociados a la tecnología y el efecto de las variables del proceso. La deposición de una película de AlN se basa en el principio de pulverización catódica de un blanco de aluminio puro, migración de las especies hacia el substrato de interés y la reacción con el nitrógeno en la superficie para depositar el producto deseado. En una primera parte se presentan los resultados generados por la deposición de AlN sobre un substrato de vidrio comercial, discutiendo el efecto de las variables tecnológicas sobre las características estructurales y propiedades del producto. Posteriormente, y a la luz de los resultados previos, se depositó AlN sobre la aleación de aluminio 7022-T6, empleando capa de adhesión y de soporte de Al, Ni, Cr y Ti. Los depósitos producidos fueron caracterizados estructural y mecánicamente, los resultados, en una primera aproximación, nos permiten concluir que es posible producir sistemás consistentes de depósitos duros sobre substratos blandos de aluminio con propiedades tribológicas comparables a los obtenidos en otros sistemás para aplicaciones tribológicas. Particularmente, los sistemás que usaron capas de adhesión de aluminio puro mostraron el mejor juego de propiedades tribológicas, mientras que los sistemás con capas de adhesión de Ni, Cr y Ti requieren de ser optimizados en términos de las variables involucradas en estos procesos.
    • Producción de AIN por nutrición iónica y deposición física de vapor en la aleación de aluminio 7022

      Ulises Figueroa López; ULISES FIGUEROA LÓPEZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005)
    • Producción de películas de óxido de aluminio por deposición física de vapores para prevenir la carburación de la aleación HK40

      Jorge Álvarez Díaz; JORGE ÁLVAREZ DÍAZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010)