Show simple item record

dc.contributor.advisorDr. Luis Enrique Sucar Succares
dc.creatorMartínez Arroya, Miriamen
dc.date.accessioned2015-08-17T11:32:39Zen
dc.date.available2015-08-17T11:32:39Zen
dc.date.issued2007-01-06
dc.identifier.urihttp://hdl.handle.net/11285/572456en
dc.description.abstractAunque el clasificador bayesiano simple ha sido ampliamente utilizado debido a que es un modelo de clasificacio ?n eficiente, fácil de aprender y con gran exactitud en muchos dominios, este presenta dos principales desventajas: la exactitud de la clasificacio ?n disminuye cuando los atributos no son independientes, y no puede ocuparse de atributos continuos. Además de que existen otras con- sideraciones que afectan el proceso de aprendizaje, tales como trabajar con informacio ?n incompleta o faltante, manejo de grandes cantidades de datos y/o variables, seleccio ?n de atributos representativos al problema, entre otras. Un clasificador bayesiano simple puede representar dominios estáticos o puede también representar dominios dinámicos, considerar este aspecto complica au ?n mas el proceso de aprendizaje. El objetivo, entoces, es proporcionar un método aprendizaje de clasificadores bayesianos sim- ples que evite que la exactitud de la clasificacio ?n disminuya cuando los atributos no sean independien- tes, y se ocupe de atributos continuos no paramétrizados, además de considerar aspectos de seleccio ?n de atributos relevantes y manejar informacio ?n oculta, garantizando obtener una buena estructura y conservando la simplicidad del modelo o reduciendo la complejidad del mismo. Proponemos dos nuevos métodos: aprendizaje de clasificadores bayesianos estáticos (ACBE) y aprendizaje de clasificadores bayesianos dinámicos (ACBD). El método ACBE incluye cuatro etapas, Inicializacio ?n, Discretizacio ?n, Mejora estructural y Clasificacio ?n. Las etapas de Discretizacio ?n y Mejora estructural se repiten hasta que la exactitud de la clasificacio ?n no puede ser mejorada. La Discretizacio ?n se basa en el principio MDL, donde el nu ?mero de intervalos que minimiza el MDL se obtiene por cada atributo. Para tratar con atributos dependientes y atributos irrelevantes, aplicamos un método que elimina y/o une atributos, basado en medidas de informacio ?n mutua condicional y evaluando la exactitud de la clasificacio ?n despues de cada operacio ?n. El método ACBD incluye cinco etapas, Inicializacio ?n, Discretizacio ?n, Determinacio ?n del no- do clase oculto, Mejora estructural y Clasificacio ?n dinámica. En método de Discretizacio ?n es el mismo que para el ACBE; la etapa de Mejora estructural es similar, solo varia la evaluacio ?n de las estructuras resultantes, ya que se consideran como estructuras de árbol y se evaluan través de una medida de calidad basada en el principio MDL, la Determinacio ?n del mejor nu ?mero de estados para el nodo clase oculto se basa en el algoritmo EM y las estructuras resultantes se evaluan con base a la medidad de calidad. Finalmente para la Clasificacio ?n dinámica se construye la red de transicio ?n mediante una técnica general de redes bayesianas dinámicas. Los métodos se probaron en aplicaciones con datos reales obteniendo muy buenos resultados. El método estático se aplico ? en el reconocimiento de piel (con un 98 % de exactitud) y en la deteccio ?n de cancer cervical (94 % de exactitud), el modelo dinámico se aplico ? en el reconocimiento de siete gestos, usando un modelo para cada gesto, los cuales son representados por un clasificador bayesiano dinámico que obtuvo en promedio 98 % de exactitud para los datos de prueba.
dc.languagespa
dc.publisherInstituto Tecnológico y de Estudios Superiores de Monterrey
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0*
dc.titleAprendizaje de Clasificadores Bayesianos Estáticos y Dinámicoses
dc.typeTesis de doctorado
thesis.degree.levelDoctor en Ciencias Computacionaleses
dc.contributor.committeememberDra. Mónica larre Bolaños Cachoes
dc.contributor.committeememberDr. Nehl Hernández Gresses
dc.contributor.committeememberDr. Manuel Valenzuela Rendónes
thesis.degree.disciplineEscuela de Graduados en Informática y Computaciónes
thesis.degree.namePrograma de Graduados en Informática y Computaciónes
dc.subject.keywordClasificadoreses
dc.subject.keywordBayesianoses
dc.subject.keywordEtapases
thesis.degree.programCampus Cuernavacaes
dc.subject.disciplineIngeniería y Ciencias Aplicadas / Engineering & Applied Scienceses
refterms.dateFOA2018-03-16T15:09:26Z
refterms.dateFOA2018-03-16T15:09:27Z
html.description.abstractAunque el clasificador bayesiano simple ha sido ampliamente utilizado debido a que es un modelo de clasificacio ?n eficiente, fácil de aprender y con gran exactitud en muchos dominios, este presenta dos principales desventajas: la exactitud de la clasificacio ?n disminuye cuando los atributos no son independientes, y no puede ocuparse de atributos continuos. Además de que existen otras con- sideraciones que afectan el proceso de aprendizaje, tales como trabajar con informacio ?n incompleta o faltante, manejo de grandes cantidades de datos y/o variables, seleccio ?n de atributos representativos al problema, entre otras. Un clasificador bayesiano simple puede representar dominios estáticos o puede también representar dominios dinámicos, considerar este aspecto complica au ?n mas el proceso de aprendizaje. El objetivo, entoces, es proporcionar un método aprendizaje de clasificadores bayesianos sim- ples que evite que la exactitud de la clasificacio ?n disminuya cuando los atributos no sean independien- tes, y se ocupe de atributos continuos no paramétrizados, además de considerar aspectos de seleccio ?n de atributos relevantes y manejar informacio ?n oculta, garantizando obtener una buena estructura y conservando la simplicidad del modelo o reduciendo la complejidad del mismo. Proponemos dos nuevos métodos: aprendizaje de clasificadores bayesianos estáticos (ACBE) y aprendizaje de clasificadores bayesianos dinámicos (ACBD). El método ACBE incluye cuatro etapas, Inicializacio ?n, Discretizacio ?n, Mejora estructural y Clasificacio ?n. Las etapas de Discretizacio ?n y Mejora estructural se repiten hasta que la exactitud de la clasificacio ?n no puede ser mejorada. La Discretizacio ?n se basa en el principio MDL, donde el nu ?mero de intervalos que minimiza el MDL se obtiene por cada atributo. Para tratar con atributos dependientes y atributos irrelevantes, aplicamos un método que elimina y/o une atributos, basado en medidas de informacio ?n mutua condicional y evaluando la exactitud de la clasificacio ?n despues de cada operacio ?n. El método ACBD incluye cinco etapas, Inicializacio ?n, Discretizacio ?n, Determinacio ?n del no- do clase oculto, Mejora estructural y Clasificacio ?n dinámica. En método de Discretizacio ?n es el mismo que para el ACBE; la etapa de Mejora estructural es similar, solo varia la evaluacio ?n de las estructuras resultantes, ya que se consideran como estructuras de árbol y se evaluan través de una medida de calidad basada en el principio MDL, la Determinacio ?n del mejor nu ?mero de estados para el nodo clase oculto se basa en el algoritmo EM y las estructuras resultantes se evaluan con base a la medidad de calidad. Finalmente para la Clasificacio ?n dinámica se construye la red de transicio ?n mediante una técnica general de redes bayesianas dinámicas. Los métodos se probaron en aplicaciones con datos reales obteniendo muy buenos resultados. El método estático se aplico ? en el reconocimiento de piel (con un 98 % de exactitud) y en la deteccio ?n de cancer cervical (94 % de exactitud), el modelo dinámico se aplico ? en el reconocimiento de siete gestos, usando un modelo para cada gesto, los cuales son representados por un clasificador bayesiano dinámico que obtuvo en promedio 98 % de exactitud para los datos de prueba.


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

info:eu-repo/semantics/openAccess
Except where otherwise noted, this item's license is described as info:eu-repo/semantics/openAccess