• Large Scale Topic Modeling Using Search Queries: An Information-Theoric Approach

      Ramírez Rangel, Eduardo H. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-12)
      Creating topic models of text collections is an important step towards more adaptive information access and retrieval applications. Such models encode knowledge of the topics discussed on a collection, the documents that belong to each topic and the semantic similarity of a given pair of topics. Among other things, they can be used to focus or disambiguate search queries and construct visualizations to navigate across the collection. So far, the dominant paradigm to topic modeling has been the Probabilistic Topic Modeling approach in which topics are represented as probability distributions of terms, and documents are assumed to be generated from a mixture of random topics. Although such models are theoretically sound, their high computational complexity makes them difficult to use in very large scale collections. In this work we propose an alternative topic modeling paradigm based on a simpler representation of topics as freely overlapping clusters of semantically similar documents, that is able to take advantage of highly-scalable clustering algorithms. Then, we propose the Querybased Topic Modeling framework (QTM), an information-theoretic method that assumes the existence of a "golden" set of queries that can capture most of the semantic information of the collection and produce models with máximum semantic coherence. The QTM method uses information-theoretic heuristics to find a set of "topical-queries" which are then co-clustered along with the documents of the collection and transformed to produce overlapping document clusters. The QTM framework was designed with scalability in mind and is able to be executed in parallel over commodity-class machines using the Map-Reduce approach. Then, in order to compare the QTM results with models generated by other methods we have developed metrics that formalize the notion of semantic coherence using probabilistic concepts and the familiar notions of recall and precisión. In contrast to traditional clustering metrics, the proposed metrics have been generalized to validate overlapping and potentially incomplete clustering solutions using multi-labeled corpora. We use them to experimentally validate our query-based approach, showing that models produced using selected queries outperform the ones produced using the collection vocabulary. Also, we explore the heuristics and settings that determine the performance of QTM and show that the proposed method can produce models of comparable, or even superior quality, than those produced with state of the art probabilistic methods.
    • Mathematical models of some evolutionary systems under the influence of stochastic factors

      Rodríguez Said, Roberto D. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-12)
      As it is known, the problem of availability of information is normally addressed using a buffer. Most of the times it is required that the effectiveness or reliability of the system is calculated to optimize the amount of stored information according to the customers random requests and to the amount of incoming information from the supply line. In this thesis, we consider the case of single buffer connected to any number of customers with bursty demands. We model the variation of the level of stored information in the buffer as an evolution in a random media. We assume that the customers can be modeled as semi-Markov stochastic processes and we use the phase merging algorithm to reduce the evolution process in a semi-Markov to an approximated evolutions in a Markov media. Then we obtain a general solution to the stationary probability density of the level of the buffer and general results for the stationary efficiency of the system.
    • Methodology Based on the State Transition Concept for Simple Constitutive Modeling of Smart Materials

      Varela Jiménez, Manuel I. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2011-01-12)
      Smart materials have the capability to sense and respond to environmental stimuli in a predictable and useful manner. Its existence has transformed the paradigm that materials can be used only for structural purposes into the concept that these can also be the basis for actuators or sensors, generating new possibilities for design of devices. However, development of these materials also creates necessity of proposition of new theories and concepts that allow understanding its behavior. This dissertation focuses on development of a general constitutive model for describing response of several smart materials by considering that a microstructural change is stimulated in them, such a state transition that follows a sigmoidal behavior and can be modeled by a proposed expression that describes transition induced by an external factor. Such expression results flexible and able to adapt to take several kinds of external variable as the main parameter that induces transformation. A methodology for purposing a state transition in smart materials and modeling its response to some stimulus through a common mathematical expression relating the effect of microstructural changes on some variable associated to the material is proposed and evaluated. This way, there were studied; 1) effect of twinned martensite - detwinned martensite - austenite strain/temperature induced phase transformation on stress of Nicke l - Titanium shape memory alloy, 2) effect of glassy - active temperature induced state transition on stress of shape memory polymers, 3) effect o f magnetic field induced arrangement of iron particles on shear yield stress of magnetorheological fluid and 4) effect o f electric field induced arrangement of ions on the bending of a thin film of electroactive polymer. A constitutive model is proposed for each material resulting in promising results due to good fitting with experimental data and comparison with some other models, although it has some limitations such as being unidimensional, considering only one way behavior of the materials or have been fitted for specific geometries or chemical composition and stills needs to be generalized. However, it can be considered as an initial approach for a general model for smart materials regardless of their atomic structure, chemical bonds or physical domain, that could be applied for design of materials and simulation of its behavior through numerical methods.
    • Mixed Oligopoly: analysis of oligopoly models considering social welfare

      Cordero Franco, Alvaro E. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2009-01-12)
    • Modelación de Interacciones Múltiples en Sistemas de Información Cooperantes

      Camargo Santacruz, Francisco J. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2001-01-12)
      La naturaleza dinámica de los ambientes de agentes cooperativos dificulta la tarea de modelar interacciones permanentes entre agentes, resaltando los problemas de ambigüedad y control en la representación del mecanismo de interacción. La dificultad de modelar se incrementa si más de dos agentes están involucrados en la interacción de manera simultánea. Este problema es uno de los desafíos más importantes dentro de la investigación en Sistemas Multiagentes Cooperantes (SMAC´s). Los Sistemas de Información Cooperantes (SIC´s o CIS por sus siglas en Inglés, Cooperative Information Systems) pueden ser vistos como SMAC´s e integran diferentes tipos de sistemas de información para que trabajen cooperativamente por un objetivo común. Estos sistemas son considerados por su naturaleza como sistemas que presentan un comportamiento dina?mico y por ende, uno de sus principales problemas es el referente al como modelar y controlar múltiples interacciones simultáneas entre los agentes, de una manera sencilla para el ingeniero de software. El problema anterior se acentu?a debido a que los me?todos utilizados por los ingenieros de software para modelar la interacción de los SIC´s son poco expresivos y más aun, cuando se presentan situaciones de interacción entre más de dos agentes de manera simultánea. Esto complica la labor de modelación de estos sistemas y hace difícil la comunicación entre modeladores y desarrolladores lo que trae como consecuencia altos costos de desarrollo. La contribución principal de esta tesis se centra en un modelo basado en Redes de Petri Coloreadas (RPC o CPN por sus siglas en Inglés, Coloured Petri Nets) para modelar las interacciones múltiples simultáneas en Sistemas de Información Cooperantes de una manera expresiva. Este modelo contribuye a facilitar la representación de la dina?mica del sistema y en la reducción de la dificultad asociada con la modelación de la misma. El modelo integra principalmente: a) el ciclo básico de acción llamado "Loop", para representar las interacciones del sistema y modelar conversaciones en las organizaciones, b) las Redes de Petri Coloreadas para la especificación de las interacciones representadas en el loop y para la simulación del sistema, c) los actos comunicativos de la Fundación para Agentes Inteligentes Fi?sicos (FIPA por sus siglas en Inglés, Foundation for Intelligent Physical Agents), incluidos en la especificación del lenguaje de comunicación para agentes. El modelo brinda ventajas en la representación y el razonamiento de los mecanismos de interacción modelados en SIC´s. Para validar el modelo propuesto, se presentan dos aplicaciones de éste en los dominios de Negocios Electrónicos (e-business por sus siglas en Inglés, Electronic Business) y Centros de Contacto respectivamente, los cuales son ambiente dinámicos que requieren de herramientas adecuadas para representar y controlar múltiples interacciones de una manera expresiva.
    • Modelación Multiescala del Comportamiento Mecánico de Polímeros Reforzados con Nanotubos de Carbón de Pared Sencilla

      Rosales Torres, Conrado (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2010-01-03)
      En el desarrollo del presente trabajo de investigación, se puso especial énfasis en consolidar una teoría que permita relacionar el comportamiento de materiales poliméricos compuestos con nanotubos de carbón desde el continuo hasta el nivel atomístico. Como es de esperarse, las teorías que son factibles de aplicar en el continuo de un material en general no pueden desempeñarse igual en escalas nanoscopicas. Por lo anterior, es necesario recurrir a los aspectos energéticos asociados con los diversos fenómenos físicos que caracterizan el comportamiento de estos materiales. En este sentido, se desarrolló un modelo multiescala en el cual se consolidan diversos principios físicos que en conjunto con modelos mecanísticos han permitido caracterizar el comportamiento de estos materiales cuando son sometidos a diversos estados de carga. En particular, en este trabajo el modelo fue calibrado vía pruebas de tensión simple en materiales tales como el polietileno (PE), el policarbonato (PC) y el Acrilonitrilobutatieno-estireno (ABS) reforzados con nanotubos de carbón de pared sencilla. Algunas de las ventajas inherentes al modelo desarrollado están asociadas con el nÚmero de parámetros que este requiere para predecir teóricamente el comportamiento del compuesto en tensión simple. Además, con la teoría de campo medio de Mori-Tanaka, proveniente de la micromecánica, es posible determinar el tensor de rigidez equivalente del material compuesto considerando que los nanotubos de carbón de pared sencilla (SWCNT's) pueden estar alineados o bien tener orientaciones aleatorias. La sencillez del modelo así como su buen nivel de predicción de los resultados experimentales, sienta las bases para que este sea utilizado en el diseño y desarrollo de componentes estructurales para diversas aplicaciones ingenieriles.
    • Modelación y Análisis de la Respuesta Dinámica del Sistema de Control de Nivel Domo para Calderas Industriales VU 60

      Meléndez Nieto, Juan F. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 1999-05-01)
      La modelación y simulación de un generador de vapor se hacen en basealadescripciónde los fenómenos físicos con la ayuda de las ecuaciones diferenciales lineales o no lineales. Las leyes físicas para la modelación son la primera y segunda ley de la termodinámica (modelación del evaporador), y las reacciones químicas asociadas con la combustión (modelo simplificado de combustión). La estrategia de control utilizada en el simulador es de tres elementos para el modelo del control de flujo de agua de alimentación donde el nivel de agua en el domo, el flujo de agua de alimentación al domo, y el flujo de evaporación de la caldera son cada uno de los tres elementos del controlador. Para el control de combustión es utilizada una simplificación del control maestro de caldera, donde se retroalimenta una señal de presión y la cantidad de porcentaje de exceso de oxígeno es considerado constante y se considera que el flujo de aire siempre es suficiente para lograr quemar el combustible.El primer paso dentro de este trabajo fue escalar un modelo de un sistema caldera turbina de 235 MW de capacidad localizada en Texas11, modelado con base a 7 ecuaciones diferenciales no lineales y 27 ecuaciones algebraicas a un modelo de 3 ecuaciones diferenciales y algunas ecuaciones algebraicas Una vez hecha la modelación para este sistema, se simuló la operación del mismo en estado estable a las cargas de 75,107,131, 171, 203,235 MW. Para probar el simulador en estado transitorio se aplicó una rampa a 5 MW por minuto de 235 a 75 MW y se compararon los resultados gráficamente con el estado transitorio. Una vez hecha las pruebas para esta caldera para generación de electricidad, se modificaron los parámetros físicos de la caldera, el rango de presión y demanda de vapor en el cual trabaja, para adaptar el modelo a una de tipo industrial de una capacidad 10 veces menor en producción de vapor. El estudio se realizó en base a la caldera industrial tipo VU-60 fabricada por la compañía Cerrey. Ellos proporcionaron la información técnica de 2 calderas: una de ellas en operación en una planta de Cervecería Modelo de México, y otra más en construcción en Port Dickson, Malasia. Para validar el modelo en este caso, se montó un sistema de adquisición de datos en la caldera en operación, y se registró el desempeño de la caldera durante varios estados estables y se trató de producir aumentos y rechazos de carga que estuvieron limitados por el proceso al cual sirve este sistema. Sin embargo, se obtuvo información valiosa del generador de vapor, con el cual pudimos validar el modelo tanto en estado estable como en estado transitorio para rampas del 3% por minuto. Posteriormente con una nueva base de datos el modelo fue alimentado para simular la operación de loa planta de Port Dickson. A este modelo se le añadió un modelo lineal del sobre calentador, agregando una ecuación algebraica al modelo original. El modelo resultante fue sometido a las pruebas a las cuales fueron sometida la VU-60 II de C. Modelo en campo, además de rampas del 30 al 100 % de carga a 20% por minuto, y viceversa. Además se realizó un análisis de robustez del controlador con base a un diseño de experimentos tipo factorial donde se variaron cuatro parámetros del controlador de tres elementos: Ganancia Proporcional, Ganancia Integral del controlador de nivel, Ganancia Proporcional y Ganancia Integral del Controlador de Flujo de Agua de alimentación y estos se utilizaron como variables de entrada. La salida o índice de desempeño seleccionado es el valor absoluto entre la diferencia entre el nivel mayor alcanzado durante el transitorio y el nivel de referencia.
    • Modelo de Comportamiento Afectivo para Sistemas Tutores Inteligentes

      Hernández Pérez, María Y. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-12-01)
      Las emociones se han reconocido como parte fundamental de la motivación, y la motivación como un componente indispensable en el aprendizaje. En este documento se propone un modelo de comportamiento afectivo para sistemas tutores inteligentes. Dicho modelo combina el estado afectivo y pedagógico de los estudiantes para establecer las acciones tutoriales. En el contexto de este trabajo, el comportamiento afectivo tiene dos funciones principales: 1) inferir el estado afectivo del estudiante; y 2) establecer la acción tutorial óptima considerando el estado afectivo y pedagógico del estudiante. De esta manera, el sistema tutor inteligente proporciona a los estudiantes una acción tutorial adecuada para su estado afectivo y pedagógico. Nuestra propuesta para inferir el estado afectivo se basa en el modelo cognitivo de emociones OCC. De acuerdo con dicho modelo, las metas son fundamentales para establecer el estado afectivo. En este trabajo, las metas se infieren con base en el modelo de los cinco factores de la personalidad. Para determinar el estado afectivo del estudiante se usan los siguientes para?metros: 1) la personalidad del estudiante, 2) el estado pedagógico del estudiante, 3) las metas y 4) la situación tutorial. El modelo afectivo del estudiante esta? representado por medio de una red bayesiana dina?mica. Se utilizan redes bayesianas ya que en el proceso de modelado afectivo del estudiante hay incertidumbre, y las redes bayesianas son un mecanismo robusto para tratar la incertidumbre, y adema?s permiten modelar la naturaleza dina?mica del estado afectivo del estudiante. Una vez que se ha establecido el modelo afectivo del estudiante, el tutor tiene que responder acorde con el estado afectivo. Para modelar las decisiones del tutor, se usa la teori?a de decisiones considerando un balance entre aprendizaje y estado afectivo. El modelo afectivo del tutor esta? representado como una red de decisión dina?mica. La red bayesiana impli?cita en la red de decisión predice la influencia de las acciones tutoriales en el estado afectivo y pedagógico del estudiante considerando el estado afectivo y pedagógico actual. Esta predicción se usa para establecer la utilidad de cada acción tutorial en el afecto y aprendizaje del estudiante, seleccionando las acciones pedagógicas y afectivas de mayor utilidad. La utilidad de las acciones tutoriales se obtiene con base en las preferencias del tutor, que a su vez se basan en la experiencia de un grupo de profesores. Se llevaron a cabo dos investigaciones con profesores para validar nuestras suposiciones y para establecer el modelo afectivo del tutor. El modelo se evaluó en dos dominios de prueba: un juego educativo para aprender factorización de nu?meros y un sistema tutor inteligente de robótica móvil. Los resultados de la evaluación son alentadores y muestran que el modelo de comportamiento afectivo funciona en estudiantes cuyo perfil es adecuado para el sistema tutor inteligente. El modelo se ilustra con estos dos dominios de prueba, sin embargo el modelo es gene?rico y puede ser aplicado en cualquier ambiente de aprendizaje. Las principales contribuciones de esta investigación son: 1) una arquitectura general de sistema tutor inteligente afectivo; 2) una estructura de la acción afectiva que es parte de la ii acción tutorial, la acción tutorial se compone de una acción afectiva y una acción pedagógica; 3) un modelo de comportamiento afectivo gene?rico que puede integrarse a cualquier sistema tutor inteligente; y 4) conocimiento afectivo con base en la experiencia de profesores, este conocimiento puede usarse para disen?ar otros estudios y obtener conocimiento ma?s profundo sobre como los profesores ayudan a los estudiantes a aprender.
    • A Multiagent Approach to Outbound Intrusion Detection

      Mandujano Vergar, Salvador (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2004-01-12)
      A Multiagent Approach to Outbound Intrusion Detection. Ph.D. dissertation by Salvador Mandujano Vergara, Instituto Tecnológico y de Estudios Superiores de Monterrey. Advisor: Prof. Arturo Galván. December � 2004. This is a dissertation on the topic of intrusion detection. It supports the philosophy of system vigilance by exploring the concept of outbound intrusion detection, which is concerned with the identification and collection of evidence that helps prove local resources are being used to compromise external systems. We discuss the motivation behind the approach, explain the need for splitting the scope of intrusion detection into sub-problems, and present trends in computer security that reveal basic design considerations that need to be taken into account when developing modern information security tools. We propose a multiagent architecture for outbound intrusion detection supported by an ontology. Groups of agents collectively monitor outbound network traffic and local activity in order to identify references to neighboring systems that may be indicative of a compromise attempt. We organize agents into sub-environments called agent cells that are connected to each other in a non-hierarchical fashion. Different classes of agents and cells compose the system, which performs attack modeling by employing multiple concurrent agents. Detection cells implement independent misuse intrusion strategies whose output is systematically fed to correlation cells capable of more accurate diagnosis. We present an attack-source-centric ontology that extends previous work in the area. It enables message interpretation and enhanced agent communication within the architecture sim- plifying at the same time system maintenance and facilitating the integration of new components. We describe the implementation of the proposed architecture through the FROID prototype as a proof of concept. This is a misuse-based intrusion detection system built with agent and semantic web open-source technology whose particular focus is the identification of automated remote attack tools. It performs signature generation, matching, and correlation, and supports a signature deployment mechanism over the Internet. We introduce a similarity matching method that improves the performance of existing algorithms by leveraging entropy and frequency properties of the input hereby reducing search time. We link detection with incident response by procuring low false alarm rates that allow us to study local and external reaction methods to outbound intrusion events. We also present a component of the architecture that performs tracing of interactive sessions as a way of identifying the root location of a security event. We describe the experimental design and report the results obtained with the prototype that show the feasibility of the approach as an alternate way of containing the impact of security incidents through the integration of a mesh of monitoring agents.
    • Natural Gas Imbalance System Optimization

      Pérez Valdés, Gerardo A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2009-12-01)
    • Navegación autónoma de un dron hexacóptero con visión estereoscópica para mapeo y evasión de obstáculos en tiempo real.

      Sánchez Rodríguez, José Pablo
      La presente tesis aborda como tema central el uso de un dron de tipo multi-rotor para navegación autónoma por medio de visión estereoscópica. Su vuelo puede resultar en una tarea difícil ya que los pilotos requieren de cierta experiencia para volarlos. Los pilotos tienen un campo de visión limitado desde tierra, y situaciones desafortunadas, tales como colisión con objetos pueden ocurrir. Un reto aún más complejo es la navegación autónoma, porque los drones deben tomar decisiones por sí mismos en tiempo real y simultáneamente construir mapas del ambiente si no están disponibles. Para tareas autónomas se debe considerar que los drones están limitados en términos del tamaño de su carga útil y consumo de energía. Por eso, se instrumentó un dron para poder cargar una cámara estereoscópica, una computadora y demás elementos necesarios para volar como son: controlador de vuelo, GPS, radio receptor y antenas de telemetría. El vehículo en cuestión es uno de tipo multi-rotor, con seis pares de hélice-motor como únicos actuadores. Este dron es clasificado como del tipo `micro' por su tamaño menor a 5 kg y rango menor a 10 km.\cite{Dalamagkidis2015} Toda la instrumentación tiene como objetivo reconstruir un espacio exterior en un modelo virtual tridimensional y que al mismo tiempo resulte de información útil para su navegación autónoma. La cámara estereoscópica se considera adecuada por las posibilidades que brinda para extraer información tridimensional. De esta manera, un dron puede navegar por medio de visión computarizada evadiendo colisiones y autolocalizándose dentro de un mapa si está disponible; si no, la navegación autónoma se convierte en un problema de autolocalización y mapeo simultáneos. Así mismo, para la generación de un mapa tridimensional, se propuso un método de reducción de información por un método de súper-pixeles, sacrificando detalle en textura a estructuras de planos simples útiles para navegación autónoma. Los mismos planos funcionan como elementos de navegación. Para ello, se implementó un algoritmo de RRT (árboles aleatorios de exploración rápida) el cual crece acorde a los elementos encontrados mientras el dron navega hacia el punto objetivo.
    • Navegación Reactiva de un Robot Móvil Basada en Visión y Localización con Incertidumbre en Exteriores

      Alencastre Miranda, Moíses (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-12)
      Existen pocos trabajos en robótica móvil basada en visión donde se realicen tareas de localización y planificación considerando incertidumbre en ambientes de exterior. A nuestro conocimiento, no hay trabajos que incluyan un ana?lisis y describan bajo que? condiciones es mejor para un robot móvil localizarlo con respecto a un marco de referencia global o con respecto a marcos de referencia locales mientras este navega. Para que un robot móvil no-holonómico real pueda percibir el ambiente de exterior se han utilizado una ca?mara esta?ndar y una ca?mara omnidireccional. Con las ima?genes capturadas con dichas ca?maras, se ha realizado un eficiente algoritmo de visión que reconoce las diferentes clases definidas (pasto, cielo, a?rboles y arbusto) en tiempo real. Este algoritmo esta? basado principalmente en un proceso de segmentación por color, y una clasificación utilizando Campos Aleatorios de Markov (MRFs). Con ese algoritmo de visión, se pudo desarrollar y probar en un robot real Pioneer 3- AT un me?todo de navegación reactiva basada en trayectorias definidas por curvas de Bezier, en el cua?l se pudo considerar la no-holonomi?a del robot al momento de navegar. En base a la información omnidireccional percibida mediante visión el robot móvil tiene una representación del ambiente con la cua?l podri?a realizar tareas de planificación y localización con incertidumbre. Se ha desarrollado un algoritmo para encontrar una ruta que disminuya la incertidumbre en localización del robot móvil. Para realizar esto, se considera incertidumbre en control y sensado, y se hace un ana?lisis comparativo acerca de la pertinencia de cua?ndo utilizar en localización del robot el marco de referencia global y cuando utilizar cierto marco de referencia local. Se utiliza la covarianza como me?trica para medir la incertidumbre, y el modelado matema?tico se hace utilizando transformaciones aproximadas propuestas en [Smith 86]. Los marcos de referencia locales son definidos en base a hitos (en Inglés landmarks, comu?nmente son obsta?culos, por ejemplo a?rboles). En base a simulaciones realizadas, en la mayori?a de los casos se disminuye ma?s la incertidumbre utilizando marcos de referencia locales.
    • Novel bioengineering strategies for the recovery and purification of PEGylated lysozyme conjugates: in situ ATPS and affinity chromatography

      Mejía, Luis (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2017-07-13)
      PEGylation is the modification of therapeutic proteins with polyethylene glycol (PEG) with the goal of improving their bioavailability and effectivity in the organism. During the PEGylation process, proteins with different degrees of PEGylation and positional isomers are generated. Numerous chromatographic and non-chromatographic techniques have been used for the purification of the adequate or most active conjugate. However, the obtained yields are still low, representing an interesting engineering challenge to address. Therefore, novel techniques to achieve this must be devised. In the present work, two strategies were explored: in situ aqueous two-phase systems (ATPS) and affinity chromatography. Aqueous two-phase systems (ATPS) are a promising alternative for recovering modified proteins but this technique has not been tested with complete PEGylation reactions. In this work, lysozyme PEGylation reactions were used as part of the phase-forming chemicals to form in situ ATPS. This was best achieved by adding a 4M ammonium sulphate in a 20 mM Tris-HCl pH 7.0 solution. The phases were separated and analyzed by monolithic chromatography and SDS-PAGE. Results indicate that PEGylated lysozymes (mono- and di-) are mainly fractionated to the top phase (56% and 100% respectively) while native lysozyme was found in the bottom phase (97.7%). On the other hand, PEG-modified and native lysozyme adsorption to Heparin Sepharose was described by Langmuir isotherms. The affinity of the conjugates decreased with the PEGylation degree with no significant binding of the reactive 20 kDa mPEG to the resin. A method in Heparin Affinity Chromatography (HAC) eluting with NaCl gradient was developed and optimized through Response Surface Methodology for the purification of mono-PEGylated lysozyme with a better yield, purity and productivity than other reported chromatographic modes. A formulated rate model could model and simulate the separation of mono-PEGylated and native lysozymes in HAC. Diverse mass transfer data were obtained from this simulation. Finally, as an antecedent to the generation of immunosorbents to purify PEGylated proteins, the immobilization conditions of antibodies on NHS Sepharose 4 Fast Flow were viii optimized with a factorial design. The antibody isotype showed effects on the coupling efficiency, being improved when isotype G was used. In conclusion, in situ ATPS and heparin affinity chromatography combined with optimization tools such as design of experiments, modelling and simulation represent new and never reported before techniques in the recovery and purification of PEGylated lysozyme with several advantages with respect to currently used methods.
    • Nutraceutical properties of isolated starch, phytochemical compounds and bioactive peptides from pigmented chickpea cultivars influenced by cooking or germination process.

      Serna Saldívar, Sergio O.; Gutiérrez Uribe, Janet Alejandra; Milán Noris, Ada Keila; Jacobo Velázquez, Daniel A.; Santacruz López, Yolanda Arlette; Reyes Moreno, Cuauhtémoc Reyes Moreno (2017-12-14)
      Chickpea (Cicer arietinum L.) is the third most consumed pulse worldwide and a potential functional ingredient due to its nutritious composition and bioactive compounds. The aim of this investigation was to evaluate the potential of ten pigmented chickpea cultivars as ingredients in functional foods using cooking or germination to enhance bioactive compounds with health effect. The investigation was performed in five steps in order to evaluate the potential of ten chickpea cultivars differing in seed coat color (black, brown, green, red and cream). The first approach was to evaluate chickpea flours on the techno-functionality, chemical composition and nutritional properties related to starch and protein. The colored chickpeas flours showed higher content of bioactive compounds as total phenolics (TPC), β-glucans, resistant starch and higher protein digestibility corrected amino acid score (PDCAAS) compared with the commercial chickpea Blanco Sinaloa (cream seed coat). The limiting amino acids in chickpea flours were Trp, Thr and Met+Cys, whereas PDCAAS ranged from 0.59 to 0.82. Correlation analysis showed a possible interaction between TPC and starch which influenced thermal properties and starch digestion. The principal component analysis (PCA) showed several differences among the chemical compositions, starch digestions and seed protein qualities. Moreover, starch is the major component of chickpea seeds; therefore the wet-milled chickpea starches were studied on physicochemical, functional and in vitro starch digestion properties. The yield of chickpea starches ranged from 19.22 to 30.06%; total starch and amylose contents in the starches varied from 87.14 to 96.02% and 25.05 to 35.26%, respectively. Gelatinization properties (DSC, RVA) showed large differences among starches. The rapidly digestible (RDS), slowly digestible (SDS) and resistant (RS) gelatinized starch fractions varied from 56.34 to 59.15%, 33.22 to 35.43% and 6.42 to 9.22%, respectively. The predicted glycemic indexes (pGI) of native and gelatinized chickpea starches ranged from 65.52 to 66.10 and 74.39 to 75.74, respectively. A close correlation among the viscosity characteristics of isolated starches and the starch digestion fractions were found after PCA analysis. The starches properties were not dependent of the seed coat coloration of the cultivars. Overall, the results suggest that the starches of the array of chickpeas studied may hold a potential for the development of functional foods especially due to its functional properties, medium glycemic index, high SDS and RS contents. Additionally, the fate of phytochemicals during cooking and germination was evaluated. The 10 chickpea cultivars were soaked and cooked for the phytochemical evaluation. The compounds were identified by HPLC-IT-MS and quantified by HPLC-UV-ELSD. In Milán-Noris, A.K. 7 the raw chickpea seeds, eleven compounds were identified among cultivars; soyasaponin βg (m/z 1068) and biochanin A (m/z 285) were the principal compounds found. The thermal process caused significant (p≤0.05) reduction in flavonoids content but only minor lost of total saponins content. Besides, the effect of the germination process on phytochemicals of four chickpea cultivars (black, cream, green and red) was evaluated. Chickpea cultivars were germinated during five day at 24ºC. Eight isoflavonoids and soyasaponin βg were identified in germinated chickpea cultivars. However, genotype showed a significant effect on the profile and content of isoflavonoids during germination process. Phytochemical content increased significantly during germination process in all chickpea cultivars. Lastly, the anti-inflammatory effects of peptides and isoflavonoids associated to the unabsorbed digestion of protein concentrates from cooked or germinated (G.ICC5613 and Blanco Sinaloa) chickpea cultivars were investigated. The simulated gastrointestinal digestion released isoflavonoids and peptides (<10 kda=""><10kDa) in coocked and germinated samples whit adequate capacity to reduce nitric oxide production in induced- LPS macrophages. In both cultivars, the germinated samples showed higher reduction in nitric oxide by phenolics and peptides fraction. The digest from ferminated Blanco Sinaloa showed anti-inflammatory effects exerted by phenolics (IC50 : 0.22 mg/mL) and peptides (IC50: 1.92 mg protein/mL). The major phenolics were biochanin-A and formononetin. The further purification of the most active fraction produced peptides from legumin and vicilin. This is the first report of anti-inflammatory peptides from processed chickpea released by simulated gastrointestinal digestion. Overall, the results suggest that pigmented chickpea cultivars of this study showed a great potential as functional ingredients.
    • Oligopoly studies: on the interaction of private firms with homogeneous and heterogeneous objectives

      Kalashnikov, Viacheslav; Kalashnykova, Nataliya; Leal Coronado, Mariel Adriana; David Güemes Castorena; Smith Cornejo, Neale Ricardo; Bello Acosta, Francisco Román Ángel (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2018-05-14)
      Two oligopoly studies compose this thesis. The first study considers that firms have the homogenous objective of maximizing their profits. The second one contemplates the presence of a private firm with a different objective, a consumer friendly firm. In detail, in the second chapter, the effects of uniting two separated markets each monopolized initially by a producer into a globalized duopoly market are studied. A linear inverse demand with cap price and quadratic cost functions is considered. After globalization, the Consistent Conjectural Variations Equilibrium of the duopoly game is found. Unlike the Cournot Equilibrium, complete symmetry (same cost function’s parameters of both firms) does not represent the strongest coincident profit degradation. When both firms are low-marginal cost firms, it is found that the firm with a technical advantage over her rival has a better ratio and as the rival becomes weaker, this is, as the slope of the rival’s marginal cost function increases, the profit ratio improves. In the third chapter, the study considers a Cournot duopoly model with a consumer-friendly firm and analyzes the interplay between the strategic choice of abatement technology and the timing of government’s commitment to the environmental tax policy. It is shown that the optimal emission tax under committed policy regime is always higher than that under non-committed one, but both taxes can be higher than marginal environmental damage when the consumerfriendliness is high enough. It is also shown that the emergence of a consumer friendly firm might yield better outcomes to both welfare and environmental quality without the commitment to the environmental policy.
    • On the Automated Correction of Faulty Security Protocols

      López Pimentel, Juan C. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2008-01-04)
      Un Protocolo de Seguridad se usa para establecer una comunicacio ?n segura entre dos o más agentes a pesar de condiciones adversas. Cr ??menes tales como la usurpacio ?n de identidades o accesos no autorizados a la informacio ?n han provocado incontables pérdidas econo ?micas especialmente cuando se realizan transacciones electro ?nicas. Por ese motivo, la comunidad de los métodos for- males ha puesto un interés especial en la verificacio ?n de protocolos de seguridad, produciendose en los u ?ltimos an ?os una gran cantidad de técnicas y herramientas. Otros autores han tomado un enfoque diferente, proponiendo principios de disen ?o para ayudar al desarrollo de mejores protocolos. Esta iniciativa se origina porque ellos han observado que los ataques de protocolos de seguridad son un resultado de malas prácticas de disen ?o. Algunos de los más importantes principos de disen ?o han sido publicados por Abadi y Needham. A pesar de ésto, el disen ?o de protocolos de seguridad es particularmente dif ??cil y propenso a errores. En esta tesis presentamos SHRIMP (a Smart metHod for Repairing IMperfect security Pro- tocols). SHRIMP tiene como objetivo acelerar el ciclo de desarrollo de protocolos de seguri- dad, uniendo la brecha que hay entre disen ?o y análisis por medio de una tarea de diagno ?stico y reparacio ?n. SHRIMP trabaja con herramientas de verificacio ?n existentes para el proceso de bu ?squeda de ataques en el protocolo (en particular hemos usado AVISPA ya que es considerado el estado del arte). SHRIMP primero analiza un protocolo y, si el protocolo tiene fallas, busca una o más corridas del protocolo que violan un requirimiento de seguridad, llamado ataque. As ??, SHRIMP analiza el protocolo y el ataque para indicar qué pasos fallan en el protocolo y de esta forma sintetizar cambios apropiados para corregirlos. SHRIMP produce una versio ?n mejorada del protocolo, el cuál es analizado y parchado nuevamente hasta que no sean detectados más errores. Para organizar la aplicacio ?n de diagno ?stico y reparacio ?n, hemos adoptado la metodolog ??a proof planning de Bundy. As ??, SHRIMP es un conjunto de métodos de parche, cada uno de ellos es capaz de parchar una clase general de fallas. Para arreglar una falla, en cada método de parche hemos traducido algunos de los principios de Abadi y Needham en requirimientos formales, la cual llamamos precondiciones. Estas precondiciones son una coleccio ?n de reglas que identifican la clase de ataque que el protocolo sufre y a partir de las cuales se propone un parche. En esta tesis nos hemos enfocado en parchar protocolos vulnerables a los ataques de tipo replay. SHRIMP toma cuidado de este tipo de ataques cuando el mensaje siendo re-enviado es un texto cifrado. Si éste es el caso, SHRIMP incluye tres principles métodos de parche para enfrentar este tipo de ataques: message encoding, agent naming y session binding. Hasta ahora hemos probado SHRIMP en 36 protocolos, 21 de ellos fueron obtenidos de la librer ??a Clark-Jacob, obteniendo una tasa de reparacio ?n del 90%.
    • OntoOAI : modelo semántico para el descubrimiento selectivo de conocimiento sobre contenidos estructurados con OAI-PMH

      Becerril García, Arianna; ARIANNA BECERRIL GARCíA
      El principio fundamental en la Web es la comunidad abierta: cualquiera puede contribuir sus ideas al todo. Esta apertura a la colaboración, su flexibilidad y tolerancia son factores que le han permitido convertirse en un recurso universal. Sin embargo, la masa creciente, dinámica y muchas veces poco estructurada de información en la Web impone retos importantes, uno de ellos: el descubrimiento de conocimiento. El descubrimiento de conocimiento, uno de los productos finales más interesantes de la computación, resulta particularmente relevante en la tarea de un investigador, profesor o alwnno, que usan la información científica para su quehacer profesional. Entre los esfuerzos que se han dado para organizar y estructurar la masa de datos, se ubica el Protocolo para Cosecha de Metadatos de la Iniciativa de Archivos Abiertos (OAIPMH ), estándar para los repositorios de información científica y académica.
    • Optimal Workers Allocation for the Crossdocking Just in Time Scheduling Problem

      Álvarez Pérez, Guillermo A. (Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-01-05)
      In this work, a warehouse is allowed to function as a crossdock to minimize costs for a scheduling problem. These costs are due to two factors: the number of teams of workers hired to do the job, and the transit storage time for cargo. Each team of workers has a fixed cost per working day, and the cargo can incur early and tardy delivery costs. Then, the transit storage time for cargo is minimized according to Just in Time (JIT) scheduling. The goal is to obtain both: the optimal number of teams of workers in the crossdock and a schedule that minimizes the transit storage time for cargo. An integrated model to obtain both the optimal number of teams of workers and the schedule for the problem is written. The model uses the machine scheduling notation to describe it. Since the problem is known as NP-hard, a solution approach based on a combination of two metaheuristics, Reactive GRASP embedded in a Local Search algorithm and Tabu Search (RGLSTS), is provided. The results obtained from the exact method that uses the ILOG CPLEX 9.1 solver for 14 problem instances and the results obtained from the RGLSTS metaheuristic algorithm for the same problem instances are discussed. This research has an important academic contribution because it involves the development of a metaheuristic algorithm not previously applied to a relevant problem that has not received attention. Besides, the source codes of the programs that solve the problem are available for the reader and they can be modified according to the user needs. In the industry field, the algorithm mentioned above can be easily adapted in order to be applied to a real problem (i.e., large transshipments in companies like Wal-Mart, HEB, among others). Obtaining optimal or near optimal solutions for the problem of this work represents an improvement in the movement or distribution of the workforce and products, reducing this way, hiring costs, transportation costs and inventory costs.
    • Optimization of distribution networks using evolutionary algorithms

      Avilés Arévalo, Juan Pablo
      One of the biggest problems that a distribution network (DN) must face is the constant increase in load demand, which eventually will cause the degradation of its optimal operation. To overcome these challenges the distribution network usually is oversized or reinforced, however, although this is a quick and practical solution, it is not necessarily the most economical and efficient one. For this reason, it is desirable to implement an optimization algorithm to improve the network without increasing investment costs. The optimization of a power distribution network is not an easy task, because this is the most extensive part of the entire electrical system. Due to this extension, along with the high complexity of the topology, and some quality parameters that must be respected, the entire design or improvement of a distribution network can be considered as an extremely hard combinatorial, non-convex, and non-linear optimization problem, difficult to solve by conventional methods. For these reasons, we propose a Two-Stage Multiobjective Evolutionary Approach (TS-MOEAP) capable to design and optimize distribution networks, at primary and secondary levels. Due to the complexity of the optimization problem, the approach is implemented in two stages, that can be summarized as follows: Stage-1. Optimal placement and sizing of generation units, as well as optimal branch routing and conductor sizing. For this purpose, an Improved Particle Swarm Optimization technique (IPSO) combined with a greedy algorithm is introduced. Stage-2. Optimal network reconfiguration. For this, an Improved Nondominated Sorting Genetic Algorithm with a Heuristic Mutation Operator (INSGA-HO) is presented, aiming at minimizing the total power loss and investment cost of the system. Finally, to complement the optimization process, the software DER-CAM will be used to find optimal investment solutions for Distributed Energy Resources (DER). Both algorithms are successfully applied to design and optimize real distribution networks that presented several problems, concluding that the combination of these approaches -network reconfiguration with optimal installation of DERs- can converge toward better configurations than other algorithms.