• Oligopoly studies: on the interaction of private firms with homogeneous and heterogeneous objectives

      Kalashnikov, Viacheslav; Kalashnykova, Nataliya; Leal Coronado, Mariel Adriana; David Güemes Castorena; Smith Cornejo, Neale Ricardo; Bello Acosta, Francisco Román Ángel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      Two oligopoly studies compose this thesis. The first study considers that firms have the homogenous objective of maximizing their profits. The second one contemplates the presence of a private firm with a different objective, a consumer friendly firm. In detail, in the second chapter, the effects of uniting two separated markets each monopolized initially by a producer into a globalized duopoly market are studied. A linear inverse demand with cap price and quadratic cost functions is considered. After globalization, the Consistent Conjectural Variations Equilibrium of the duopoly game is found. Unlike the Cournot Equilibrium, complete symmetry (same cost function’s parameters of both firms) does not represent the strongest coincident profit degradation. When both firms are low-marginal cost firms, it is found that the firm with a technical advantage over her rival has a better ratio and as the rival becomes weaker, this is, as the slope of the rival’s marginal cost function increases, the profit ratio improves. In the third chapter, the study considers a Cournot duopoly model with a consumer-friendly firm and analyzes the interplay between the strategic choice of abatement technology and the timing of government’s commitment to the environmental tax policy. It is shown that the optimal emission tax under committed policy regime is always higher than that under non-committed one, but both taxes can be higher than marginal environmental damage when the consumerfriendliness is high enough. It is also shown that the emergence of a consumer friendly firm might yield better outcomes to both welfare and environmental quality without the commitment to the environmental policy.
    • On the Automated Correction of Faulty Security Protocols

      López Pimentel, Juan C. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-01-04)
      Un Protocolo de Seguridad se usa para establecer una comunicacio ?n segura entre dos o más agentes a pesar de condiciones adversas. Cr ??menes tales como la usurpacio ?n de identidades o accesos no autorizados a la informacio ?n han provocado incontables pérdidas econo ?micas especialmente cuando se realizan transacciones electro ?nicas. Por ese motivo, la comunidad de los métodos for- males ha puesto un interés especial en la verificacio ?n de protocolos de seguridad, produciendose en los u ?ltimos an ?os una gran cantidad de técnicas y herramientas. Otros autores han tomado un enfoque diferente, proponiendo principios de disen ?o para ayudar al desarrollo de mejores protocolos. Esta iniciativa se origina porque ellos han observado que los ataques de protocolos de seguridad son un resultado de malas prácticas de disen ?o. Algunos de los más importantes principos de disen ?o han sido publicados por Abadi y Needham. A pesar de ésto, el disen ?o de protocolos de seguridad es particularmente dif ??cil y propenso a errores. En esta tesis presentamos SHRIMP (a Smart metHod for Repairing IMperfect security Pro- tocols). SHRIMP tiene como objetivo acelerar el ciclo de desarrollo de protocolos de seguri- dad, uniendo la brecha que hay entre disen ?o y análisis por medio de una tarea de diagno ?stico y reparacio ?n. SHRIMP trabaja con herramientas de verificacio ?n existentes para el proceso de bu ?squeda de ataques en el protocolo (en particular hemos usado AVISPA ya que es considerado el estado del arte). SHRIMP primero analiza un protocolo y, si el protocolo tiene fallas, busca una o más corridas del protocolo que violan un requirimiento de seguridad, llamado ataque. As ??, SHRIMP analiza el protocolo y el ataque para indicar qué pasos fallan en el protocolo y de esta forma sintetizar cambios apropiados para corregirlos. SHRIMP produce una versio ?n mejorada del protocolo, el cuál es analizado y parchado nuevamente hasta que no sean detectados más errores. Para organizar la aplicacio ?n de diagno ?stico y reparacio ?n, hemos adoptado la metodolog ??a proof planning de Bundy. As ??, SHRIMP es un conjunto de métodos de parche, cada uno de ellos es capaz de parchar una clase general de fallas. Para arreglar una falla, en cada método de parche hemos traducido algunos de los principios de Abadi y Needham en requirimientos formales, la cual llamamos precondiciones. Estas precondiciones son una coleccio ?n de reglas que identifican la clase de ataque que el protocolo sufre y a partir de las cuales se propone un parche. En esta tesis nos hemos enfocado en parchar protocolos vulnerables a los ataques de tipo replay. SHRIMP toma cuidado de este tipo de ataques cuando el mensaje siendo re-enviado es un texto cifrado. Si éste es el caso, SHRIMP incluye tres principles métodos de parche para enfrentar este tipo de ataques: message encoding, agent naming y session binding. Hasta ahora hemos probado SHRIMP en 36 protocolos, 21 de ellos fueron obtenidos de la librer ??a Clark-Jacob, obteniendo una tasa de reparacio ?n del 90%.
    • OntoOAI : modelo semántico para el descubrimiento selectivo de conocimiento sobre contenidos estructurados con OAI-PMH

      Becerril García, Arianna; ARIANNA BECERRIL GARCíA
      El principio fundamental en la Web es la comunidad abierta: cualquiera puede contribuir sus ideas al todo. Esta apertura a la colaboración, su flexibilidad y tolerancia son factores que le han permitido convertirse en un recurso universal. Sin embargo, la masa creciente, dinámica y muchas veces poco estructurada de información en la Web impone retos importantes, uno de ellos: el descubrimiento de conocimiento. El descubrimiento de conocimiento, uno de los productos finales más interesantes de la computación, resulta particularmente relevante en la tarea de un investigador, profesor o alwnno, que usan la información científica para su quehacer profesional. Entre los esfuerzos que se han dado para organizar y estructurar la masa de datos, se ubica el Protocolo para Cosecha de Metadatos de la Iniciativa de Archivos Abiertos (OAIPMH ), estándar para los repositorios de información científica y académica.
    • Optimal Workers Allocation for the Crossdocking Just in Time Scheduling Problem

      Álvarez Pérez, Guillermo A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-05)
      In this work, a warehouse is allowed to function as a crossdock to minimize costs for a scheduling problem. These costs are due to two factors: the number of teams of workers hired to do the job, and the transit storage time for cargo. Each team of workers has a fixed cost per working day, and the cargo can incur early and tardy delivery costs. Then, the transit storage time for cargo is minimized according to Just in Time (JIT) scheduling. The goal is to obtain both: the optimal number of teams of workers in the crossdock and a schedule that minimizes the transit storage time for cargo. An integrated model to obtain both the optimal number of teams of workers and the schedule for the problem is written. The model uses the machine scheduling notation to describe it. Since the problem is known as NP-hard, a solution approach based on a combination of two metaheuristics, Reactive GRASP embedded in a Local Search algorithm and Tabu Search (RGLSTS), is provided. The results obtained from the exact method that uses the ILOG CPLEX 9.1 solver for 14 problem instances and the results obtained from the RGLSTS metaheuristic algorithm for the same problem instances are discussed. This research has an important academic contribution because it involves the development of a metaheuristic algorithm not previously applied to a relevant problem that has not received attention. Besides, the source codes of the programs that solve the problem are available for the reader and they can be modified according to the user needs. In the industry field, the algorithm mentioned above can be easily adapted in order to be applied to a real problem (i.e., large transshipments in companies like Wal-Mart, HEB, among others). Obtaining optimal or near optimal solutions for the problem of this work represents an improvement in the movement or distribution of the workforce and products, reducing this way, hiring costs, transportation costs and inventory costs.
    • Optimization of distribution networks using evolutionary algorithms

      Avilés Arévalo, Juan Pablo
      One of the biggest problems that a distribution network (DN) must face is the constant increase in load demand, which eventually will cause the degradation of its optimal operation. To overcome these challenges the distribution network usually is oversized or reinforced, however, although this is a quick and practical solution, it is not necessarily the most economical and efficient one. For this reason, it is desirable to implement an optimization algorithm to improve the network without increasing investment costs. The optimization of a power distribution network is not an easy task, because this is the most extensive part of the entire electrical system. Due to this extension, along with the high complexity of the topology, and some quality parameters that must be respected, the entire design or improvement of a distribution network can be considered as an extremely hard combinatorial, non-convex, and non-linear optimization problem, difficult to solve by conventional methods. For these reasons, we propose a Two-Stage Multiobjective Evolutionary Approach (TS-MOEAP) capable to design and optimize distribution networks, at primary and secondary levels. Due to the complexity of the optimization problem, the approach is implemented in two stages, that can be summarized as follows: Stage-1. Optimal placement and sizing of generation units, as well as optimal branch routing and conductor sizing. For this purpose, an Improved Particle Swarm Optimization technique (IPSO) combined with a greedy algorithm is introduced. Stage-2. Optimal network reconfiguration. For this, an Improved Nondominated Sorting Genetic Algorithm with a Heuristic Mutation Operator (INSGA-HO) is presented, aiming at minimizing the total power loss and investment cost of the system. Finally, to complement the optimization process, the software DER-CAM will be used to find optimal investment solutions for Distributed Energy Resources (DER). Both algorithms are successfully applied to design and optimize real distribution networks that presented several problems, concluding that the combination of these approaches -network reconfiguration with optimal installation of DERs- can converge toward better configurations than other algorithms.
    • Performance Analysis of a VBR Video Server With Self Similar Gamma Distributed MPEG-4 Data

      Ramírez Velarde, Raúl V. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2004-01-05)
      In this paper, we propose analytical models to capture the statistical behavior of real traces of MPEG-4 encoded variable bit rate (VBR) video data in a video server. We study the scattered disk storage of video frames and periodic scheduling policies and we calculate the user disk service rate, buffer size, and the maximum number of simultaneous subscribers by using the Chernoff bound asymptotic technique. We have included a self-similar Gamma model, which according to our simulations, seems to be very close to the actual data behavior.
    • Platelets contribute to hemostasis, thrombosis, and allergic airway inflammation via Munc13-4-dependent secretion

      Cárdenas Cantú, Eduardo Israel (Instituto Tecnológico y de Estudios Superiores de MonterreyInstituto Tecnológico y de Estudios Superiores de Monterrey, 2018-11-01)
      With over 200 million affected individuals, asthma is the most common chronic respiratory disease in the world. One old observation that begs an explanation is the relationship between platelets, their activation, and the manifestations of asthma. Although platelets are mostly known for their crucial role in coagulation, a growing body of evidence indicates they also participate in asthma. Platelets store in their alpha, dense, and lysosomal granules multiple mediators; most of which are required for effective coagulation, but some have been shown to affect the main pathophysiologic mechanisms in asthma: airway hyperresponsiveness (AHR), migration and activation of eosinophils, and alterations in the airway epithelium. These granule contents are released upon activation via exocytosis, which depends on SNARE proteins and regulatory elements, such as Munc13 proteins. Because platelets express multiple isoforms of these proteins, it is possible that the exocytic components mediating the release of each type of platelet granule are unique. We proposed that by identifying the exocytic components associated with a single type of platelet granule, we could impair its release and study in vivo its role in asthma. We hypothesized that selective impairment of specific platelet granule subpopulations would alter the asthmatic response. With this in mind, we first identified the Munc13 paralogs expressed in platelets, and used loss-of-function models to test how each Munc13 protein participated in exocytosis of alpha, dense, and lysosomal granules. We then studied how the lack of a specific Munc13 protein affected platelet function in vitro and in vivo, using animal models of thrombosis and hemostasis. Finally, we studied platelet-specific knockout (KO) mice in an asthma model to test our hypothesis. We found that genetic deletion of Munc13-4 mostly impaired platelet dense granule release, which translated into a strong hemostatic defect, and that platelet-specific Munc13-4 KO mice had a reduction in airway hyperresponsiveness and eosinophilic inflammation in a model of asthma. Taken together, our results indicate that Munc13-4-dependent platelet secretion plays essential roles in hemostasis, thrombosis, and asthma.
    • Potencial de reducción de emisiones de gases de efecto invernadero en la cadena de producción de ganado bovino en el estado de Nuevo León, México

      Manzano Caramillo, Mario Guadalupe; Carbajal Morón, Nallely Alejandrina; Lozáno García, Diego Fabían; Díaz Solís, Heriberto; Armienta Trejo, Gilberto; Hernández Javalera, Iliana Isabel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      El objetivo de esta investigación fue realizar un análisis de las fuentes y sumideros de emisiones de Gases de Efecto Invernadero dentro de la cadena de producción de ganado bovino. Se analiza la situación en México respecto a la importancia del sector ganadero en la contribución a las emisiones a nivel nacional y a nivel estatal. Posteriormente, se evalúan cuatro casos de estudio (extensivos y semi-intensivos) con la finalidad de representar las diversas prácticas del sector en el norte de México, y encontrar las principales fuentes y sumideros de carbono dentro de la actividad productiva. Por último se realizan dos escenarios a futuro para el estado de Nuevo León, acerca de que efecto tendrían en la disminución de emisiones de gases de efecto invernadero la implementación de ciertas prácticas en todas las unidades productivas del estado. Los balances de carbono de los distintos sistemas demostraron que teniendo un manejo adecuado de los pastizales e implementando prácticas de agroforesteria, los sistemas extensivos tienen un gran potencial de ser sumideros de carbono. Adicional a esto, de acuerdo a los resultados obtenidos, se considera necesario tanto en los sistemas semi-intensivos como en los extensivos, mejorar la alimentación del ganado y llevar a cabo un manejo adecuado de los residuos para garantizar un balance de misiones de CO2eq positivo. De implementarse estás mejores prácticas en las unidades productivas del estado de Nuevo León, pudieran mitigarse hasta un 80% de las emisiones de GEI del sector AFOLU del estado de Nuevo León. Los resultados de esta investigación son un referente para comprender la capacidad de mitigación de emisiones de GEI de los sistemas ganaderos y sin duda son un parámetro de referencia útil para los tomadores de decisiones, pues contribuirá a enfocar recursos y esfuerzos a proyectos que aseguren la disminución de emisiones.
    • Predicción de propiedades mecánicas y reológicas de suelos usando teoría de percolación

      De la Luz Pérez Rea, María; MARIA DE LA LUZ PEREZ REA;121024 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-01-01)
      Con el desarrollo de nuevas técnicas experimentales, ha sido posible el estudio de la estructura de sistemás desordenados y la profundización del conocimiento, así como la predicción, de muchas de sus propiedades. Los conceptos de teoría de percolación han jugado uno de los papeles más significativos en el entendimiento de estas nuevas técnicas. La razón más importante para el rápido desarrollo de estos métodos es que se ha apreciado el papel de la interconectividad de los elementos microscópicos y sus efectos en las propiedades macroscópicas. Esto ha sido posible a través del desarrollo y aplicación de teoría de percolación, sin embargo, no siempre ha sido posible comparar las predicciones con los datos y aÚn más, no siempre se ha podido establecer una precisión cuantitativa de las predicciones. En Mecánica de Suelos, las tentativas para definir el comportamiento de los suelos no saturados han estado basadas en una comprensión empírica de los fenómenos y en la utilización de aproximaciones teóricas simples pero siempre de manera macroestructural. Se ha comprobado que el comportamiento de los suelos está influenciado por los siguientes factores: cantidad y tipo de minerales, naturaleza del fluido intersticial que ocupa los poros, peso unitario, estructura de los componentes del suelo, succión, variaciones en la humedad y las condiciones de esfuerzo. Además, el suelo es un medio poroso "desordenado" y complejo al cual se le pueden observar al menos tres fases: sólida, líquida y gaseosa. El objetivo de este trabajo es predecir ciertas propiedades mecánicas macroestructurales como el módulo elástico y el módulo de Poisson abordando la modelación de la estructura microscópica del suelo con teoría de percolación utilizando redes rectangulares y hexagonales que toman en cuenta ciertas propiedades microestructurales tales como la disposición, tamaño y forma de las partículas de arcilla. Las microrredes fueron sujetas a un esfuerzo externo y se asumió que cada uno de sus componentes tiene un comportamiento elástico individual. El comportamiento esfuerzo-deformación de la red completa se analizó a través del método del elemento finito (MEF). El modelo de predicción fue calibrado mediante determinaciones de las propiedades elásticas del suelo en el laboratorio, arrojando resultados aceptables. La precisión de las predicciones es de alrededor del 72%, lo cual es muy bueno, considerando que los coeficientes de correlación para la mayoría de las propiedades geotécnicas de los suelos son aproximadamente del 40%. Una contribución importante de este trabajo es que se observó que la transmisión de esfuerzos entre los granos de suelo no se realiza Únicamente a través de los puntos de contacto, sino que existe una contribución de la fase líquida en forma de efecto viscoso, lo cual es parte fundamental de la teoría de la consolidación. La posibilidad de utilizar la teoría de percolación para la modelación del comportamiento mecánico del suelo, abre nuevos horizontes dentro de la Mecánica de Suelos tradicional que sin duda será aceptado por algunos y rechazado por muchos que clasifican a éstos, como métodos "suaves" de modelación.
    • Prediction of AR marker's position: A case of study using regression analysis with Machine Learning method

      Guedea Elizalde, Federico; Villegas Hernández, Yazmín Sarahí; Rodríguez González, Ciro Ángel; Smith Cornejo, Neale Ricardo; González Mendívil, Eduardo; Siller Carillo, Héctor Rafael (2017-05-15)
      In an automated assembly process with robotic assistance, it is used vision system, which is used to monitor or control the assembly process. In the assembly process, the vision system recognizes objects and estimates the position and orientation. Furthermore, the optical tracking information in manufacturing can provide valuable support and time saving for autonomous operations, but ill environment conditions prevent a better performance of vision systems. This thesis research presents a novel method for estimating object position under semi-controlled environment where lighting conditions change dynamically is proposed. This method incorporates machine learning and regression analysis that combines light measurement and an augmented reality (AR) system. Augmented Reality (AR) combines virtual objects with real environment. Furthermore, every AR application uses a video camera to capture an image including a marker in order to place a virtual object, which gives user an enriched environment. Using a tracking system to estimate the marker’s position with respect to the camera coordinate frame is needed to positioning a virtual object. Most research studies on tracking system for AR are under controlled environment. The problem is that tracking systems for markers are sensitive to variations in lighting conditions in the real environment. To solve this problem, a method is proposed to estimate better a marker position based on regression analysis, where lighting conditions are taken into account. The proposed approach improves the accuracy of the marker position estimation under different lighting conditions.
    • Principles to Automate Inventive Problem Solving Based on Dialectical Negation, Assisted by Evolutionary Algorithms and TRIZ

      Durán Novoa, Roberto A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-05)
      An inventive problem (IP) can be defined as a human perception of a situation that has to be changed, but with at least one obstacle which impedes achievement of the desired goal. In practice, they are solved generally using random trial and error, despite the fact that in literature there are several structured approaches to stimulate creativity and deal with them. During the development of products IP solving is particularly important throughout the concept generation, being often conducted intuitively by field experts. This dependence of intuition and expertise is a bottleneck in the design as a whole: intuition for being unpredictable, and expertise for being rare and thus expensive. This dissertation proposes a series of steps, based on dialectics, to decrease IP solving user dependence. First, the reasons behind this dependence are investigated, describing the critical tasks to be performed and developing the necessary characteristics of the tools to be utilized, simplifying several existing ones under a coherent framework that can withstand different levels of expertise. In order to explore and develop the proposed model, it is studied the complementation between people's innate creativity and Computer Sciences, aiming to ideally solve IP automatically. Due to its empirical results, Evolutionary computing and TRIZ techniques are utilized for the development of the study cases, whose results shows the viability of the dialectical hypothesis in the concept generation. Finally new and complementary research directions, likely to deliver concrete results, are proposed
    • Proceso de Extracción y Modificaciones Químicas de ácido Oleanólico de Phoradendron Tomentosum y su Uso para Tratar Cáncer

      De la Re Dávila, Bertha O. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-05-01)
    • Producción de ain por nitruración ióica y deposición f�?sica de vapor en la aleación de aluminio 7022

      Figueroa López, Ulises; ULISES FIGUEROA LOPEZ;217340 (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005-05-01)
      En este trabajo se presentan los resultados obtenidos del estudio de dos tecnologías propuestas para mejorar las propiedades tribológicas de una aleación de aluminio 7022-T6: mediante la producción de nitruro de aluminio por Nitruración Asistida con Plasmás o por Deposición Física de Vapor en modo reactivo con nitrógeno a partir de blancos de aluminio. Ambas tecnologías buscan generar un sistema consistente en una fase dura como el nitruro de aluminio, AlN, sobre el substrato blando de la aleación de aluminio. En el caso de la producción de AlN por Nitruración Asistida con Plasmás es necesario eliminar la capa de óxido superficial que persiste en las aleaciones aluminio, lo que es posible mediante bombardeo iónico después de un período de tiempo óptimo en una mezcla de gases adecuada. Sin embargo, la calidad de la capa de AlN en términos de rugosidad superficial es afectada por el período de limpiado iónico y la temperatura del substrato, lo que se discute ampliamente con base a los mecanismos asociados a la tecnología y el efecto de las variables del proceso. La deposición de una película de AlN se basa en el principio de pulverización catódica de un blanco de aluminio puro, migración de las especies hacia el substrato de interés y la reacción con el nitrógeno en la superficie para depositar el producto deseado. En una primera parte se presentan los resultados generados por la deposición de AlN sobre un substrato de vidrio comercial, discutiendo el efecto de las variables tecnológicas sobre las características estructurales y propiedades del producto. Posteriormente, y a la luz de los resultados previos, se depositó AlN sobre la aleación de aluminio 7022-T6, empleando capa de adhesión y de soporte de Al, Ni, Cr y Ti. Los depósitos producidos fueron caracterizados estructural y mecánicamente, los resultados, en una primera aproximación, nos permiten concluir que es posible producir sistemás consistentes de depósitos duros sobre substratos blandos de aluminio con propiedades tribológicas comparables a los obtenidos en otros sistemás para aplicaciones tribológicas. Particularmente, los sistemás que usaron capas de adhesión de aluminio puro mostraron el mejor juego de propiedades tribológicas, mientras que los sistemás con capas de adhesión de Ni, Cr y Ti requieren de ser optimizados en términos de las variables involucradas en estos procesos.
    • Producción de AIN por nutrición iónica y deposición física de vapor en la aleación de aluminio 7022

      Ulises Figueroa López; ULISES FIGUEROA LÓPEZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2005)
    • Producción de películas de óxido de aluminio por deposición física de vapores para prevenir la carburación de la aleación HK40

      Jorge Álvarez Díaz; JORGE ÁLVAREZ DÍAZ (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010)
    • Producción de Películas de óxido de Aluminio por Deposición Física de Vapores para Prevenir la Carburización de la Aleación HK40

      Álvarez Díaz, Jorge (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-01)
    • Producción de Películas de Óxido de Aluminio por Deposición Física de Vapores para Prevenir la Carburización de la Aleación Hk40

      Álvarez Díaz, Jorge (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-01)
      En este trabajo se propone un método alternativo para prevenir la carburización catastrófica (metal dusting) a altas temperaturas en el acero HK40. El método se basa en el diseño y desarrollo de un recubrimiento con una arquitectura formada por capas delgadas que funcione como una barrera de difusión y que sea producido por deposición física de vapores. La estructura de la arquitectura se compone de una capa protectora de óxido de aluminio, una capa de soporte mecánico graduada y/o una capa de adhesión. Las películas se depositaron por pulverizado reactivo con magnetrones no balanceados utilizando corriente directa y se analizaron los efectos que varias variables del proceso tienen sobre la estructura y en las propiedades de las películas. Las variables analizadas fueron la potencia en el magnetrón, el voltaje bias aplicada al sustrato, el flujo de oxígeno y el modo de suministro del flujo de oxígeno. El propósito de este análisis, fue determinar el intervalo de valores de los parámetros del proceso, de tal manera que puedan producirse sistemáticamente películas densas, adherentes y con la estabilidad térmica y mecánica requerida. Las películas de aluminio y de óxido de aluminio presentaron muy buena adherencia, ya que no se observaron desprendimientos de película. Se encontró que el incremento en la potencia en el magnetrón está asociado con la reducción en la tenacidad, tanto en las capas de adhesión como en las de óxido. Respecto al voltaje bias, se observó una relación directa con el nivel de rugosidad y con la densidad, y el incremento en el flujo de oxígeno con la reducción en la tenacidad y la densidad de la película. Se obtuvieron capas protectoras de óxido de aluminio, a temperaturas promedio de 150 C en el sustrato, con una estructura amorfa mezclada con pequeños cristales de óxido de aluminio cúbico. La resistencia de los recubrimientos a la carburización se probó mediante termogravimetría en una atmósfera de metano y argón a 600 C y 800 C. Los resultados obtenidos de estos ensayos mostraron que el efecto del incremento del flujo de oxígeno no graduado con la aplicación de voltaje bias mejoró el desempeño de las películas. Las arquitecturas con estas características obtuvieron menores ganancias de masa. La ganancia de masa, se observó principalmente sobre la superficie en forma de partículas compuestas de carbono, sin embargo se observaron precipitaciones internas de carburos de cromo en algunas de las muestras. Las películas protectoras depositadas con capa de adhesión se fracturaron después de los ensayos de carburización en ambos valores de temperatura. Los análisis de difracción de rayos X de las muestras carburizadas indicaron la presencia de cristalinidad del óxido de aluminio, probablemente como producto de la transformación de la estructura amorfa. En síntesis, se concluye que es factible la deposición de capas de óxido de aluminio con estructura amorfa, a través del pulverizado reactivo con magnetrones no balanceados, y que las capas protectoras reducen el efecto de la carburización de la aleación.
    • Progressive Failure Analysis of a Composite Thin-Walled Beam Finite Element Model Under Aeroelastic Loading Conditions: Modeling and Simulation

      Cárdenas Fuentes, Diego E. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-12)
      New advanced composite blades design methodologies can significantly impact the performance and reliability of wind turbine technologies. Current approaches employed in designing composite turbine blades, resort to sophisticated multiphysics codes taking into account fluid-structure interaction. When it comes to structural health monitoring and damage progression, the practitioner needs to evaluate the integrity of the composite structure by using in-situ real-time techniques, often neglecting the effect of the degradation of structure properties, particularly when addressing complex aeroelastic simulations. This work contributes to the state-of-the-art of damage progression in composite blade under dynamic operating conditions. Due to computational inefficiencies and the high demands of computational resources, dynamic aeroelastic simulations and performed using reduced order models. Wind turbine rotor blades are efficiently modeled using a thin-walled beam (TWB) approach, a ID FE model capable of capturing most essential characteristics of slender structures. The TWB was chosen because enables to recover the strains and stresses for all layers at any position of the blade, therefore enablesthe integration of failure models capable of predicting the propagation of damage in the structure. Due to its computational efficiency it is possible to integrate the TWB in a dynamic aeroelastic environment capable of describing the fluid-structure interaction occurring during operational conditions. The proposed architecture enables the evaluation of the blade structural integrity at every time-step. Failure criteria are checked at every time-step and when met, the mechanical properties of the damaged area are degraded and the stiffness matrix of the structure is updated. This approach fully couples the aerodynamics loads, structural and inertial loads, along with the effect of the damage caused by the applied loads. The ultimate goal is to provide the practitioner tools for the evaluation of blade integrity during operational condition, to assess their behavior during aeroelastic simulations and to provide insight into damage progression and reliability of composite turbine blades.
    • Propagation of electromagnetic helmholtz-gauss beams through paraxial optical systems and spatial correlation vortices

      Hernández Aranda, Raúl I. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-01-05)
      The propagation of electromagnetic beams through a large variety of optical systems has received much attention during the last two decades. Similar attention has been paid to singular points arising on fields that represent optical beams, also known as optical vortices. This thesis studies the propagation of electromagnetic Helmholtz-Gauss beams through optical systems that can be represented by an ABCD matrix. Closed form expressions for the field distributions are derived, showing that the propagation of these beams can be described by the paraxial transformation of two parameters. Three special cases of ABCD systems are considered, namely a free-space segment, a quadratic index medium, and an unapertured thin lens. A complete characterization of these beams is made by studying their polarization properties and angular spectrum distribution. An important phenomenon known as the focal-shift is studied for the case of vector Mathieu-Gauss beams, and the existence of this shift is confirmed theoretically by means of two methods. All studies previously mentioned are performed assuming highly coherent sources. Partially coherent optical systems are considered as well, but we now look at singularities of the wave function describing the optical beam, which are commonly known as optical vortices. It is shown that partial coherence requires a beam to exhibit Rankine vortex characteristics, in analogy to vortices in fluids. We suggest a method to study the coherence properties of a beam by looking at its cross correlation function. Potential applications of this method are proposed, for instance we introduce a "vortex stellar interferometer" to determine the angular extent of distant objects such as stars, and the measurement of orbital angular momentum content in an optical beam is briefly discussed.