Presentación - XXX Foro Internacional de Estadística

 Contenido Presentación ......................................................................................................................... 2 Directorio .............................................................................................................................. 3 Patrocinadores ...................................................................................................................... 4 Organizadores ....................................................................................................................... 5 Actividades de Interés ........................................................................................................... 6 Cursos Pre-­‐Foro ..................................................................................................................... 7 Cursos Cortos ...................................................................................................................... 16 Conferencias Magistrales .................................................................................................... 21 Sesiones Temáticas ............................................................................................................. 26 Análisis de Datos .............................................................................................................. 27 Análisis Multivariado ....................................................................................................... 33 Análisis de Supervivencia ................................................................................................ 38 Estadística Aplicada al Turismo ....................................................................................... 40 Estadística Bayesiana ....................................................................................................... 51 Estadística y Ciencias Sociales ......................................................................................... 54 Enseñanza y Divulgación de la Estadística ....................................................................... 59 Estadística y Medio Ambiente ......................................................................................... 64 Estadística y Salud Pública ............................................................................................... 67 Modelos Lineales ............................................................................................................. 69 Muestreo ......................................................................................................................... 71 Pruebas de Hipótesis ....................................................................................................... 73 Simulación ....................................................................................................................... 75 Series de Tiempo ............................................................................................................. 77 Teoría de Valores Extremos ............................................................................................. 79 Carteles ............................................................................................................................... 80 Presentación La Asociación Mexicana de Estadística (AME), conjuntamente con una institución anfitriona, organiza anualmente el Foro de Estadística, el cual, a partir de su edición 29 organizada en el año 2014, fue llamado Foro Internacional de Estadística. Este evento, el más importante de los que realiza la Asociación, promueve la difusión de los resultados de las experiencias profesionales y de investigación de colegas de la comunidad estadística mexicana y de otros países. En esta ocasión, bajo la temática Estadística aplicada al turismo y desarrollo sustentable, la institución sede es la Universidad Autónoma de Guerrero (UAGro), teniendo como anfitriones a las Unidades Académicas de Matemáticas y Turismo. La edición número 30 del foro se llevará a cabo del 14 al 18 de Septiembre del presente año en el Centro de Congresos Copacabana, Acapulco, Guerrero, México. Durante estos días se impartirán cuatro Conferencias Magistrales ofrecidas por distinguidos expertos nacionales e internacionales, cinco cursos pre-­‐Foro y cuatro Cursos cortos. Se tienen programadas quince Sesiones Temáticas, y una sesión de dos horas en la que se presentarán 66 carteles. A tan solo pocos días de dar inicio, los participantes registrados al foro son de Chile, Colombia, Costa Rica, Cuba, Ecuador, España, Estados Unidos, México y Panamá. Como es de esperar, el país con el mayor número registrado de participantes es México, provenientes de 22 Universidades e instituciones del país. La organización de un evento de esta magnitud no sería posible sin el patrocinio de instituciones y organismos gubernamentales y privados. Nuestro más sincero agradecimiento a todos los patrocinadores de este evento, los cuales se enlistan en las primeras páginas de este manuscrito. No menos importante es la participación de cada integrante de los distintos comités. Manifestamos nuestro más sincero agradecimiento a todos ellos, y de manera muy especial, a los doctores Agustín Santiago y Francisco Ariza, Presidentes de los comités local y científico, respectivamente. Deseamos que en el foro se alcancen las metas de todos y cada uno de los participantes y que disfruten su estancia en este tradicional puerto de México donde se realizará este evento.
Dr. Gabriel Rodríguez Yam Presidente Comité Organizador Nacional Acapulco, Gro., México Septiembre de 2015 AME, UAGro | Acapulco, Guerrero, México 2 Directorio Dr. Javier Saldaña Almazán Rector Universidad Autónoma de Guerrero Dr. Sergio Hernández González Presidente de la Asociación Mexicana de Estadística Universidad Veracruzana Dr. Gabriel A. Rodríguez Yam Presidente del Comité Organizador Nacional Universidad Autónoma de Chapingo Dr. Francisco J. Ariza Hernández Presidente del Comité Científico Universidad Autónoma de Guerrero Dr. Agustín Santiago Moreno Presidente del Comité Organizador Local Universidad Autónoma de Guerrero Dr. Edgardo Locia Espinoza Director de la Unidad Académica de Matemáticas Universidad Autónoma de Guerrero Dr. Héctor Pastor Durán Director de la Unidad Académica de Turismo Universidad Autónoma de Guerrero AME, UAGro | Acapulco, Guerrero, México 3 Patrocinadores . AME, UAGro | Acapulco, Guerrero, México 4 Organizadores Comité Organizador Nacional Dr. Gabriel Rodríguez Yam (Presidente) Universidad Autónoma de Chapingo Dr. Sergio Hernández González Universidad Veracruzana Dr. Agustín Santiago Moreno Unidad Académica de Matemáticas, UAGro. Comité Científico Dr. Francisco J. Ariza Hernández (Presidente) Unidad Académica de Matemáticas, UAGro. Dr. José Maclovio Sautto Vallejo Coordinador del campus Costa Chica, UAGro. Dr. Darbelio Agatón Lorenzo Unidad Académica de Turismo , UAGro. Dra. Ernestina Felicia Castells Gil Unidad Académica de Matemáticas, UAGro. Dra. Hortensia Reyes Cervantes Facultad de Ciencias Físico-­‐Matemáticas , BUAP Dr. Fidel Ulín Montejo Universidad Juárez Autónoma de Tabasco Dra. Blanca Rosa Pérez Salvador Universidad Autónoma Metropolitana Comité Organizador Local Dr. Agustín Santiago Moreno (Presidente) Unidad Académica de Matemáticas, UAGro. Dr. Edgardo Locia Espinoza Unidad Académica de Matemáticas, UAGro. Dr. Dante Covarrubias Melgar Unidad Académica de Matemáticas, UAGro. Dr. Héctor Pastor Durán Unidad Académica de Turismo, UAGro Dr. Hernando Avilez Pineda Unidad Académica de Turismo, UAGro. AME, UAGro | Acapulco, Guerrero, México 5 Actividades de Interés Cursos Pre-­‐Foro Salones Perla 1 y 2 y Mar 1, 2 y 3 del Hotel Copacabana Acapulco. 14 y 15 de Septiembre. Registro de participantes Lobby del Hotel Copacabana. Martes 15 de Septiembre de 18:00 a 21:00 hrs Centro de Congresos Copacabana del Hotel Copacabana Acapulco el miércoles 16 de septiembre de 8:00 a 10:00 hrs Ceremonia de Inauguración Salón Monte Carlo del Centro de Congresos Copacabana Acapulco el miércoles 16 de septiembre de 13:00 a 14:00 hrs Sesión de Carteles y Brindis Patio del Ángel del Centro de Congresos Copacabana el miércoles 16 de septiembre de 17:30 a 19:30 hrs Asamblea de la AME Salón Monte Carlo. Jueves 17 de Septiembre de las 18:30 a las 20:00 hrs Ceremonia de clausura Salón Monte Carlo. Viernes 18 de Septiembre a las 13:30 hrs AME, UAGro | Acapulco, Guerrero, México 6 Cursos Pre-­‐Foro AME, UAGro | Acapulco, Guerrero, México 7 Lunes 14 y Martes 15 de Septiembre 9:00–10:50 hrs, 11:30-­‐13:00 hrs, 14:30-­‐15:55 hrs, 16:30-­‐17:30 hrs Salón Perla 1 Curso Pre-­‐Foro 1 Minería de Datos Textuales "Herramienta productiva para las ciencias sociales" Dr. Martín Oller Alonso, Dr. Daniel Barredo Ibalñez y Dr. Segio Hernández González Parte 1: Presentación Introducción al análisis de contenido informatizado Una revisión histórica La hipótesis de los campos semánticos organizados Usos científicos y usos comerciales Los yacimientos textuales digitalizados Principales programas utilizados Parte 2: Análisis estadístico de datos textuales Definición de estadística Aplicaciones y muestras Análisis univariante / bivariante / multivariante Variables cualitativas y cuantitativas Los datos textuales: un recorrido a partir de Benzècri El análisis factorial de correspondencias Representaciones de los datos textuales Parte 3: Introducción a la escritura científica Estructura del artículo científico Diferencia entre tema y título El resumen y las palabras clave El marco teórico: fuentes fiables y no fiables La búsqueda de información en la web Preguntas de investigación / objetivos / hipótesis La metodología Resultados y conclusiones La bibliografía Parte 4: Práctica Captura y descarga de los yacimientos textuales Almacenaje y clasificación Un software de análisis: Concordance La construcción de la tabla léxica Recodificaciones y exclusiones El tratamiento de los resultado AME, UAGro | Acapulco, Guerrero, México 8 Lunes 14 y Martes 15 de Septiembre 9:00–10:50 hrs, 11:30-­‐13:00 hrs, 14:30-­‐15:55 hrs, 16:30-­‐17:30 hrs Salón Perla 2 Curso Pre-­‐Foro 2 Enseñanza de Inferencia Estadística Utilizando GeoGebra Dr. Carlos Monge Madriz, Dr. Steven Gabriel Sánchez Ramírez, Dra. Zuleyka Suárez Valdés-­‐
Ayala Introducción El software GeoGebra se ha caracterizado por su alta funcionalidad para la enseñanza de las matemáticas como herramienta tecnológica, facilitando la interacción entre los estudiantes y la visualización de los contenidos matemáticos. Sin embargo, GeoGebra permite el análisis de la estadística descriptiva e inferencial mediante una gama de procedimientos, métodos y técnicas computacionales que facilitan la labor del estadístico. Del-­‐Pino (2013, p.243) manifiesta que este software presenta varios beneficios, dentro de los cuales destacan que: es gratuito y de código abierto, es multiplataforma, sencillo, fácil de usar y lleno de funcionalidades indispensables para el quehacer dentro del área de la estocástica. El curso-­‐taller se desarrollará dentro de un marco de aplicaciones interactivas las cuales se utilizarán para la explicación y comprensión de problemas afines a la temática. Los asistentes de manera dinámica aprenderán a modelar situaciones de la estadística inferencial, bajo los siguientes tópicos: Programa Parte 1: Variables y modelos de distribución Parte 2: Aproximación de la binomial mediante la normal Parte 3: Distribución de la media muestral y teorema del límite central Parte 4: Intervalos de confianza Parte 5: Pruebas de hipótesis con un parámetro 5.1. Hipótesis nula y alternativa 5.2. Aceptación, rechazo y errores 5.3. Pruebas con un promedio 5.4. Pruebas con una proporción 5.5. Pruebas con una varianza Parte 6: Pruebas de hipótesis con dos poblaciones 6.1. Pruebas con dos promedios 6.2. Pruebas con dos proporciones 6.3. Pruebas con dos variancias AME, UAGro | Acapulco, Guerrero, México 9 Parte 7: Análisis de regresión Parte 8: ANOVA Fuentes consultadas Acuña, P. (2004). Estadística aplicada con Fathom. Cartago, Costa Rica: Editorial Tecnológica de Costa Rica. Gómez, V. y Haro, M. (2014). Estadística con GeoGebra. Consultado en: IntroEstadistica.pdf J. M. Contreras, G. R. Cañadas, M. M. Gea y P. Arteaga (Eds.), Actas de las Jornadas Virtuales en Didáctica de la Estadística, Probabilidad y Combinatoria (pp.243-­‐250). Granada, Departamento de Didáctica de la Matemática de la Universidad de Granada, 2013. AME, UAGro | Acapulco, Guerrero, México 10 Lunes 14 y Martes 15 de Septiembre 9:00–10:50 hrs, 11:30-­‐13:00 hrs, 14:30-­‐15:55 hrs, 16:30-­‐17:30 hrs Salón Agave Curso Pre-­‐Foro 3 Recientes Desarrollos en Análisis Multivariante "Del BIPLOT al STATICO, pasando por la COINERCIA" Mª Purificación Galindo-­‐Villardón Departamento de Estadística, Universidad de Salamanca, España En Análisis Multivariante estándar los datos se colocan en una matriz de dos vías (individuos x variables, por ejemplo). En este caso los datos pueden ser indexados por dos índices, uno referido al individuo y el otro para identificar la variable. Sin embargo, muchos datos tienen estructura de tres vías, por ejemplo, cada individuo es considerado en diferentes tiempos o condiciones. En este caso los datos son indexados con tres índices. (Three way data). En este curso se presentan, en un marco común, los principales desarrollos para el análisis conjunto de dos matrices y matrices de tres vías. Partiremos del supuesto de que los participantes conocen las Componentes Principales y el Análisis de Cluster para el análisis de una matriz de datos y comenzaremos revisando brevemente, por ser menos conocidos, los métodos Biplot, el Análisis de Cluster sobre las coordenadas del HJ Biplot, poniendo de manifiesto sus ventajas frente a los Clusters clásicos, el GGE Biplot y el Biplot Logístico. Como herramientas básicas para el análisis de pares de matrices, que contemplan dos conjuntos de variables sobre los mismos individuos, presentaremos el CCA (Canonical Correspondence Analysis) y el Análisis de Coinercia. Para el estudio de tablas de tres vías partiremos de los Métodos Statis y Statis Dual. El Statis, una extensión del Análisis de Componentes Principales, es un método para analizar tablas de tres entradas que consideran varios conjuntos de variables sobre los mismos individuos, o bien, las mismas variables sobre varios conjuntos de individuos (Statis Dual), en tiempos u ocasiones diferentes. Se presentarán aplicaciones a datos reales de campos diferentes: Educación (Estilos de aprendizaje), Psicología (Inteligencia Emocional, Burnout), Biología (Interacción genotipo-­‐
ambiente) Medicina (Datos de expresión genética en cáncer de mama y en cáncer de piel), Economía (Innovación, Libertad Económica, Responsabilidad Social Corporativa), etc. AME, UAGro | Acapulco, Guerrero, México 11 Lunes 14 y Martes 15 de Septiembre 9:00–10:50 hrs, 11:30-­‐13:00 hrs, 14:30-­‐15:55 hrs, 16:30-­‐17:30 hrs Salón Perla 1 Curso Pre-­‐Foro 4 Métodos de muestreo basados en diseño y avances recientes Dr. Omar De La Riva Torres Parte 1: Antecedentes Este curso está diseñado asumiendo que los asistentes cuentan con conocimientos básicos de probabilidad y estadística. Una gran cantidad de información que se obtiene acerca de nuestra economía y nuestras comunidades proviene de las encuestas de muestreo. Existen encuestas generadas en el sector gubernamental, en el sector académico y en el sector privada. Una encuesta por muestreo cuesta mucho menos que un censo, generalmente es mucho más rápida para obtener información y podría ser más precisa que una enumeración completa. Este curso se concentra en los aspectos estadísticos de la recolección y análisis de datos de encuestas. El instructor que impartirá el curso posee estudios de postgrado en Probabilidad y Estadística, además cuenta con experiencia docente y profesional en aplicaciones reales de los temas del curso. Parte 2: Metas y objetivos El objetivo de este curso es la introducción de las técnicas y aspectos del diseño, estimación e inferencia de una encuesta. Parte 3: Resultados de aprendizaje Al final del curso se tendrán el conocimiento de: Técnicas básicas para encuestas relacionadas con muestreo aleatorio, sistemático y estratificado. Técnicas avanzadas para encuestas relacionadas con muestreo por conglomerados, multi-­‐etápico y muestreo de dos fases. Técnicas de estimación de varianza. Inferencia para encuestas con diseño muestral complejo. Análisis de datos de poblaciones reales para generar estimaciones de parámetros poblacionales con la asistencia de paquetes estadísticos. Técnicas recientemente propuestas en la inferencia de datos de encuestas. La teoría expuesta en el curso permitirá Interpretar los resultados generados por paquetes estadísticos. Análisis y resolución de problemas asociados a las encuestas de muestreo. Parte 4: Instructor AME, UAGro | Acapulco, Guerrero, México 12 Omar De La Riva Torres ([email protected]) obtuvo el grado de doctor (estadística matemática del diseño y análisis de encuestas por muestreo) en la Universidad de Southampton, Reino Unido; ha publicado artículos de investigación en temas de muestreo y psicometría en memorias de congresos nacionales e internacionales; ha laborado en la DGEE-­‐UNAM y ha sido asesor técnico en el área de estadística para el IIEc-­‐UNAM; ha sido profesor asistente en cursos a nivel licenciatura, maestría y doctorado en la Universidad de Southampton, y profesor de licenciatura en la Facultad de Ciencias-­‐UNAM. Actualmente trabaja en el Centro de Investigación en Evaluación y Encuestas, Instituto Nacional de Salud Pública. Parte 5: Computo estadístico Adicionalmente, se mostrará la implementación del análisis de encuestas en el paquete estadístico R de distribución gratuita y se interpretarán los resultados generados por los paquetes estadísticos. Recomendamos que obtengan el programa de cómputo estadístico del curso será R, que es un poderoso programa gratuito para realizar análisis estadísticos. Únicamente se necesita descargarlo en el sitio de internet The Comprehensive R Archive Network e instalarlo en una computadora. Además es posible emplear la interfaz gratuita Rstudio para facilitar el uso de R ya que incluye una consola para la ejecución de programas, un editor de sintaxis que puede ejecutar directamente los códigos de R; también se puede manipular imágenes, historial de comandos ejecutados y manejo de bases de datos usadas. Parte 6: Métodos de enseñanza y aprendizaje En el aula se presentará completamente el material del curso descrito en el temario y se enfocará en proveer los aspectos teóricos del análisis de datos de encuestas. Se darán ejercicios y ejemplos para ilustrar la teoría. Las demostraciones de los resultados generados por los paquetes estadísticos otorgarán ejemplos de la teoría y técnicas presentadas en el curso. Se usarán las bases de datos de la Encuesta Nacional de Salud y Nutrición (Ensanut) 2012. Parte 7: Distribución El curso se dividirá en cuatro sesiones de cuatro horas. Parte 8: Temario del curso A continuación se presenta un esquema general de los tópicos que serán cubiertos durante el curso. Tema 1 Introducción al curso/Historia de encuestas de muestreo/Panorama actual de las encuestas. Tema 2 ¿Qué es una encuesta? Error total de muestreo. Tema 3 Revisión de conceptos básicos de muestreo. Tema 4 Muestreo por conglomerados. Tema 5 Muestreo multi-­‐etápico. Tema 6 Muestreo en dos fases. Tema 7 Datos faltantes. Tema 8 Métodos de imputación. Tema 9 Ponderación. AME, UAGro | Acapulco, Guerrero, México 13 Tema 10 Calibración. Tema 11 Estimación de varianza. Tema 12 Muestreo en contexto-­‐Uniendo todas las partes; Pérdida de eficiencia debido al diseño muestral. Tema 13 Estimación basada en Modelos. Tema 14 Análisis de encuestas con diseños complejos. Tema 15 Avance recientes en muestreo: Estimación en áreas pequeñas (Small area estimation) Verosimilitud empírica (Empirical Likelihood) Parte 9: Bibliografía recomendada Los siguientes libros cubren el material del curso: Cochran, W.G. (1977). Sampling Techniques (3rd edition). New York: Wiley. Lohr, S. (2009). Sampling: Design and Analysis, 2d. Ed. Brooks Cole. Sarndal, C.E., Swensson, B. and Wretman, J.W. (1992). Model Assisted Survey Sampling. New York: Springer-­‐Verlag. Skinner, C.J., Holt, D. and Smith, T.M.F. (1989). Analysis of Complex Surveys. Wiley. Pfeffermann, D. & Rao, C. R. (2009). Sample Surveys: Inference and Analysis. North-­‐Holland. Lumley, T. (2010). Complex Surveys: A Guide to Analysis Using R. Wiley. AME, UAGro | Acapulco, Guerrero, México 14 Lunes 14 y Martes 15 de Septiembre 9:00–10:50 hrs, 11:30-­‐13:00 hrs, 14:30-­‐15:55 hrs, 16:30-­‐17:30 hrs Salón Perla 2 Curso Pre-­‐Foro 5 Análisis Geoestadística de Indicadores Sociodemográficos con Sistemas de Información Geográfica Dr. Ángel Fernando Arguello Ortíz Universidad Veracruzana, México Parte 1: Contenido Manejo de capas vectoriales de MADI1 -­‐ECEG2 Extracción de capas vectoriales de MADI-­‐ECEG en formato Shapefile Geoprocesamiento de las capas vectoriales de MADI-­‐ECEG en formato Shapefile con ArcGis Manejo de estadísticas censales de localidades urbanas a nivel de AGEB y Manzana asociadas a las capas vectoriales Parte 2: Objetivo Capacitar al asistente al curso en el manejo de los sistemas geográficos elaborados por el INEGI que incluyen cartografía nacional desarrollando conocimientos y habilidades para la conversión de la información cartografía a formato Shapefile y poder manipularla en cualquier otro SIG, al tiempo de asociar información sociodemográfica a nivel de AGEB y Manzana. Parte 3: Resumen El asistente identificará los sistemas geográficos elaborados por el INEGI y de mayor impacto en el manejo de información espacial (disponibles en internet y en su momento a la venta) MADI y ECEG. Se dará capacitación en la mecánica de transformación de archivos vectoriales para manipularse en cualquier SIG que soporte este formato. Se destacará la clasificación y asignación de la clave de los AGEB y Manzanas de las zonas urbanas para después demostrar mediante el manejo de bases de datos la mecánica para asociar información sociodemográfica del apartado “Datos por AGEB” y manipular así datos geoestadísticos a un mayor nivel de desagregación, incluyendo los datos a nivel de sección electoral del IFE. Destacando a manera enunciativa, que los datos de ECEG se proporcionan a nivel de sección electoral a pesar de mostrar un nivel de desagregación espacial de manzana (sin datos); mientras que en el caso del MADI con capas de información del IRIS-­‐SCINCE se puede identificar la clave de la manzana, dato con el cual se cruza la información de ECEG, MADI y SCINCE3 2010 AME, UAGro | Acapulco, Guerrero, México 15 Cursos Cortos AME, UAGro | Acapulco, Guerrero, México 16 Miércoles 16, jueves 17 y viernes 18 de Septiembre 8:30 – 9:50 hrs. Salón Mirage 1 Curso Corto 1 Clustering Disjoint Biplop Dra. Ana Belén Nieto Librero Universidad de Salamanca, España Recientemente, vichi y saporta, 2009 proponen un método en el que simultáneamente se busca la estructura de grupos de los individuos y se generan componentes disjuntas en las que cada variable sólo aporta información a un eje, a diferencia de las componentes sparse en las que cada variable puede contribuir a más de una componente. Esto tiene como ventaja una interpretación más fácil al proporcionar una partición de las variables en las que los grupos son mutuamente excluyentes. Recientemente, macedo y freitas, 2015 han desarrollado un software en el entorno r para la utilización de este método. Siguiendo esta línea, en este curso se presenta esta problemática y un nuevo método denominado clustering disjoint biplot, en el que se busca la estructura de grupos subyacente de los datos, se generan unos ejes factoriales disjuntos, es decir, cada variable sólo contribuye a la conformación de un eje y se presentan los resultados, tanto de individuos como de variables, mediante el método hj biplot (Galindo, 1986). Para facilitar el uso de este nuevo método existe un programa interactivo, cdbiplot, desarrollado en el software r que permite aplicarlo en cualquier contexto práctico, cuyo manejo se verá también en este curso. AME, UAGro | Acapulco, Guerrero, México 17 Miércoles 16, jueves 17 y viernes 18 de Septiembre 8:30 – 9:50 hrs. Salón Mirage 2 Curso Corto 2 Tips para Desarrollar un Curso Básico de Estadística Dr. Roberto Behar Universidad del Valle, Cali, Colombia. En no pocas ocasiones, un curso introductorio se convierte en el desarrollo de un listado de temas, a veces no conectados, en donde la matemática se apodera del curso, las fórmulas y su aplicación son la esencia de los problemas de aplicación. Un esquema similar a este, se puede encontrar casi en cualquier libro de texto básico en estadística. La ausencia de contexto y de utilidad práctica puede hacer que el estudiante no esté lo suficientemente motivado para enfrentarse al aprendizaje con un enfoque profundo y al contrario genere angustia y ansiedad que conduce casi de manera natural a una actitud negativa hacia la disciplina estadística. En este encuentro de 6 horas, intentaremos mostrar otra perspectiva para desarrollar un primer curso introductorio, donde el eje conductor es la búsqueda de conocimiento en ambiente de variabilidad e incertidumbre. La matemática no es la protagonista del curso. La estadística como garante de la validez en la investigación, intentando lograr aprendizaje a largo plazo de los conceptos esenciales, más que el aprendizaje de un conjunto de fórmulas que pronto serán olvidadas. Énfasis en el contexto. Se compartirán algunas experiencias y tips que pueden hacer el curso ameno y generar una percepción de conocimiento útil que propicia el aprendizaje significativo y una actitud positiva y de respecto por la estadística. Palabras clave: búsqueda del conocimiento, variabilidad, incertidumbre, distribución de frecuencia, desviación estándar, media, validez de una investigación empírica. AME, UAGro | Acapulco, Guerrero, México 18 Miércoles 16, jueves 17 y viernes 18 de Septiembre 8:30 – 9:50 hrs. Salón Monte Carlo Curso Corto 3 Métodos Cuantitativos Básicos Aplicados en Investigación Epidemiológica Dr. Juan José Romero Zúñiga Universidad Nacional de Costa Rica, Costa Rica La epidemiología es una disciplina que se encarga del estudio del comportamiento de los eventos (p.ej. Enfermedades, accidentes, fenómenos sociales), respecto a sus determinantes en una población. Esta labor requiere del uso intensivo de métodos cuantitativos que aseguren que los indicadores que se obtienen sean precisos y válidos para la población diana y, ojalá, para la población universo. De ese modo, desde el proceso de diseño del estudio, con la selección de la muestra, la captura, edición y análisis de los datos, hasta el proceso final de la presentación de los resultados, la estadística aporta los métodos cuantitativos más adecuados y robustos para hacer de la investigación epidemiológica un proceso fiable, en el cual haya la menor incertidumbre posible para la toma de decisiones en políticas de salud. El curso “métodos cuantitativos básicos aplicados en investigación epidemiológica” pretende acercar al público general al uso práctico de los métodos cuantitativos más frecuentemente utilizados en la investigación epidemiológica, utilizando un caso para su estudio. AME, UAGro | Acapulco, Guerrero, México 19 Miércoles 16, jueves 17 y viernes 18 de Septiembre 8:30 – 9:50 hrs. Salón Luxor 1 Curso Corto 4 Diseño de Experimentos de Bioquivalencia en Nutrición Animal Dr. Jorge Camacho Sandoval Universidad Nacional de Costa Rica, Costa Rica En nutrición animal a menudo se realizan experimentos para determinar diferencias en el rendimiento de los animales debidas a la dieta consumida. El planteamiento del problema y el diseño del estudio cambia en función de si el objetivo es demostrar la superioridad de una dieta sobre otra o, por el contrario, si lo que se quiere es demostrar que las dietas son similares o bioequivalentes en términos de rendimiento, es decir, que no existen diferencias significativas entre ellas. En este caso es muy importante considerar las probabilidades de aceptar una hipótesis falsa y la de rechazar una hipótesis correcta de diferencia. Un experimento subdimensionado nos puede llevar, erróneamente, a la conclusión de que las dietas son bioequivalentes. Se revisan los conceptos de bioequivalencia y los parámetros asociados, se revisan los aspectos estadísticos y de diseño experimental de pruebas de bioequivalencia en nutrición animal, incluyendo tamaño de muestra, potencia estadística y métodos de análisis y su aplicación a distintas especies ganaderas. AME, UAGro | Acapulco, Guerrero, México 20 Conferencias Magistrales AME, UAGro | Acapulco, Guerrero, México 21 Miércoles 16 de Septiembre, 10:00 – 10:55 hrs Salón Monte Carlo Conferencia Magistral 1 Nuevo macro escenario para la educación superior. MOOC y maestrías por videoconferencia en tiempo real Dra. Ma. Purificación Galindo-­‐Villardón Universidad de Salamanca, España. Durante cinco siglos la forma de transmitir el conocimiento fue básicamente la misma, pero en menos de cinco años la potencia de las tecnologías de la comunicación amenaza con llevarse por delante a quienes se siguen resistiendo a actualizar su oferta formativa y su relación con los usuarios. Actualmente los procesos formativos en la educación superior se están dirigiendo hacia un novedoso formato que integra tres principios básicos que son gratuidad, masividad y ubicuidad. Estos principios son la esencia de los mooc (cursos online masivos en abierto), que tienen su origen en el año 2008 y que saltaron a los medios digitales cuando uno de esos cursos, sobre inteligencia artificial, registró más de 160,000 matriculados en la universidad de Stanford en 2011. En estados unidos, además de Stanford, la universidad de Harvard, y el resto de las entidades que forman parte de la ivy league, llevan varios años ofertando mooc. Esta innovación disruptiva ha incitado una revolución en la formación universitaria, removiendo la estructura organizativa tradicional de las universidades. En el último año, en la educación superior, estamos ante un tsunami provocado por los mooc. Aparecen cursos impartidos por profesores de muy alto nivel, gratuitos, abiertos, con vocación de transmitir el conocimiento masivamente… nos encontramos ante un movimiento en aumento con cuantiosas oportunidades pero también con retos que se deben acometer con prontitud para un correcto ajuste con la sociedad actual. A modo de ejemplo se presentan la implementación didáctica del Workspace del curso estadística para investigadores, internacional, el primero que lanzó la universidad de salamanca (España), la universidad española más antigua de España, que actualmente es campus de excelencia, el cual va ya por la 3ª edición y en el que se han inscrito más de 33,000 alumnos de todo el mundo. AME, UAGro | Acapulco, Guerrero, México 22 Jueves 17 de Septiembre, 10:00 – 10:55 hrs Salón Monte Carlo Conferencia Magistral 2 Problemas frecuentes de la aplicación de la estadística en ciencias de la salud Dr. Juan José Romero Zúñiga y Dr. Jorge Sandoval Universidad Nacional de Costa Rica, Costa Rica A pesar de que los profesionales e investigadores de las ciencias de la salud reciben formación estadística, es frecuente encontrar errores o fallas en la aplicación de métodos estadísticos en el diseño de estudios, análisis de datos y presentación de resultados de investigación. Se mencionan los errores más frecuentes en la investigación médica y las implicaciones sobre la validez de los estudios, el uso de los recursos de investigación, aspectos bioéticos, entre otros. Se exploran causas probables de la problemática y se proponen líneas de acción para su solución. AME, UAGro | Acapulco, Guerrero, México 23 Jueves 17 de Septiembre, 17:00 – 17:55 hrs Salón Monte Carlo Conferencia Magistral 3 Estadística y Elecciones en México Dr. Rubén Hernández Cid. Instituto Tecnológico Autónomo de México Los procesos electorales, como todos los hechos sociales, pueden ser estudiados desde diferentes perspectivas de análisis. La historia de las elecciones en México tiene apenas unos doscientos años y su estudio ha sido emprendido, sobre todo, desde el contexto político dejando fuera otros aspectos sustantivos de análisis. En particular, poco se sabe acerca de aspectos tales como la logística, la organización y el estudio de las elecciones durante ese periodo. En esta charla se presentan algunos elementos alternativos de esta historia en los que la Estadística –junto con otras ciencias-­‐ ha tenido una destacada importancia en los procesos electorales en México. De manera especial se comentan algunas de las aplicaciones del análisis estadístico que, en las tres últimas décadas se han venido desarrollando tanto por los órganos del Estado encargados de la realización de las elecciones como por otros actores de la sociedad civil. Finalmente, se expone un conjunto de problemas abiertos de otros fenómenos sociales, específicos de nuestro país, cuyas soluciones podrían estar relacionadas con lo realizado en el terreno de las elecciones. AME, UAGro | Acapulco, Guerrero, México 24 Viernes 18 de Septiembre, 12:30 – 13:25 hrs Salón Monte Carlo Conferencia Magistral 4 La Desviación Estándar: Reina Incomprendida. ¿Cómo Explicarla? Roberto Behar Universidad del Valle, Cali, Colombia Hay cierto consenso sobre que la desviación estándar es la medida estadística por excelencia, podría decirse que es la reina de las medidas estadísticas. Es la que se encarga de reportar la magnitud de la variabilidad hermana de la incertidumbre, esencia epistemológica y razón de ser de la estadística como disciplina, sin embargo, cuando intentamos explicarla, en el marco de un curso introductorio, nos cuesta justificar esta categoría y además nos cuesta hacer útil interpretación de un valor particular en un problema específico. En esta conferencia se comparte una experiencia que pretende aportar una aproximación a su comprensión y de paso justificar por qué merece ser la dama principal en el reino de la estadística. Palabras clave: desviación estándar, media, interpretación útil, inclusión de la variabilidad. Principio de chebyshev, distribución normal. AME, UAGro | Acapulco, Guerrero, México 25 Sesiones Temáticas AME, UAGro | Acapulco, Guerrero, México 26 Análisis de Datos Miércoles 16 Septiembre, 11:00 – 11:25 hrs. Salón Mirage 1 Get more information from recurrent-­‐events data Wayne Nelsen Asesor Privado Recurrent-­‐events data arise in biomedical, engineering, sociological, business, and many other applications. Despite over 25 years of literature articles and books (e.g., Nelson 2003, Cook and Lawless, 2007) on analysis of such data, some current medical studies of recurrent diseases use only each patient's first occurrence time and ignore subsequent ones. This expository talk provides an introduction to recurrent-­‐events data analysis. It also provides new results on how much information is lost by using only first occurrences and urges the use of all recurrences. Miércoles 16 Septiembre, 11:30 – 11:55 hrs Salón Mirage 1. Propuesta de un clasificador híbrido para Minería de Datos y Minería de Texto Ponente: Francisco Javier Landa Torres1 Colaboradores: Sergio Hernández González , Genaro Rebolledo Méndez1, Nery Sofía Huerta Pacheco1 y Daniel Barredo Ibáñez2 1
1
2
Universidad Veracruzana, México Universidad Laica Eloy Alfaro de Manabí, Ecuador En los últimos años las ramas de investigación como Minería de Datos y Minería de Texto han ganado gran popularidad debido a que aporta importante información descriptiva e inductiva en diferentes áreas. Sin embargo, dentro de la naturaleza de los datos en problemas reales también puede encontrarse tanto información cuantitativa/cualitativa como textual. En este trabajo de investigación se propone una evaluación de clasificadores tanto para Minería de Datos como de Textos para proponer un clasificador ensamblador unificando ambos análisis para obtener un único resultado. Este estudio se aplica en un contexto de evaluación a un juego serio con características esenciales del mismo. Los resultados obtenidos contribuyen tanto a la construcción AME, UAGro | Acapulco, Guerrero, México 27 y mejoramiento del juego serio identificando tendencias, como también al procesamiento de extracción de conocimiento a través de datos y texto. Miércoles 16 Septiembre, 12:00 – 12:25 hrs Salón Mirage 1. Los migrantes de retorno en México. Un segmento de la población Mexicana con necesidades insatisfechas a su regreso Javier González Rosas Consejo Nacional de Población, México En México, en los últimos años se ha registrado un aumento de la migración de retorno. La migración de retorno constituye un fenómeno "relativamente nuevo" que demanda acciones de política pública que faciliten la re-­‐integración económica, social y cultural de los migrantes de retorno. Estimaciones de la Encuesta Nacional de Ocupación y Empleo (ENOE) de 2014, indican que en México, el porcentaje de población desocupada entre los migrantes de retorno es de 21.22, mientras que en el resto de la población es de 4.81, lo que implica una brecha en la desocupación de 16.4 puntos porcentuales. El porcentaje de la población ocupada en las personas migrantes de retorno sin acceso a los servicios de instituciones de salud es de 86.39 y en el resto de la población es de 63.14, que representa una brecha de 23.2 puntos porcentuales. Finalmente, el porcentaje de la población ocupada sin prestaciones en las personas migrantes de retorno es de 65.92, en tanto que en el resto de la población es de 37.71, lo que resulta en una brecha de 28.2 puntos porcentuales. Estos datos prueban que en México, la desocupación de los migrantes de retorno es más alta que la del resto de la población. También muestran que tienen problemas de acceso a servicios de salud, y que están en desventaja con respecto a sus prestaciones laborales, lo que indica que, los migrantes de retorno, conforman un segmento poblacional de México, que enfrenta graves necesidades que hoy en día, el desarrollo del país no satisface. AME, UAGro | Acapulco, Guerrero, México 28 Miércoles 16 de Septiembre, 16:00 – 16:25 hrs Salón Luxor 2 Acerca de una variable simbólica aleatoria para las aplicaciones de Bases de Datos con incertidumbre Ponente: Martin Guadalupe Chac Kantún, Colaboradores: Norma Edith Alamilla López y Medel Jerónimo Velázquez Universidad Politécnica del Centro, Tabasco, México En la actualidad y en muchos casos donde se maneja grandes volúmenes de información usamos valores cualitativos de forma natural a como razona un ser humano, pero en algunos casos no existe información precisa de algún evento en cuestión a analizar. No obstante, desde hace ya varios años gracias a la expansión de la informática, ha crecido el uso de conjuntos cada vez más especiales que incluyen datos no numéricos o también llamados datos cualitativos, cuyas aplicaciones dentro del análisis de cúmulos y minería de datos se ha hecho importante incluirlos. Por lo tanto en esta plática se definen variables simbólicas que además son aleatorias, enfocándonos en el caso discreto para universos de datos mixtos, que incluyen tanto expresiones para datos numéricos como para los datos cualitativos y se hace referencia a las aplicaciones informáticas que pudiera conllevar las investigaciones respectivas hacia el manejo de grandes volúmenes de información por ejemplo empresas encuestadoras. Miércoles 16 de Septiembre, 16:30-­‐16:55 hrs Salón Luxor 2 Estimación del Costo Promedio de Siniestros en Seguros de Autos con Información Incompleta, Truncada y Censurada Ponente: Lizania De La Cruz De La Cruz Colaboradores: Fidel Ulín Montejo y Luis Reyes Velázquez Universidad Juárez Autónoma De Tabasco, México La ciencia actuarial es una disciplina que aplica métodos probabilísticos, estadísticos, matemáticos, económicos y financieros para la evaluación y análisis de riesgos en el sector de servicios financieros y de seguros. Un modelo actuarial pretende describir y pronosticar pagos futuros e inciertos, esta incertidumbre puede referirse a la ocurrencia de un siniestro, al tiempo y a la severidad. El objetivo de este trabajo es ilustrar un desarrollo metodológico para la obtención de estimaciones del costo promedio, variabilidad, cuantíles y porcentajes respecto a pago de reclamaciones en seguro de autos; así como obtener pronósticos desde registros, informes y reportes de aseguradoras conteniendo información incompleta (datos truncados o censurados) en AME, UAGro | Acapulco, Guerrero, México 29 bases de los datos que se registran: montos múltiples de deducibles, reclamaciones cuantificables y eventos de pérdida total. Para ello se emplean las distribuciones de probabilidad exponencial, Pareto y Weibull; y como herramienta de estimación paramétrica, los métodos de máxima verosimilitud para ajustar los modelos a este tipo de datos de seguros. Se ilustran algunas aplicaciones utilizando programación en R y una modificación del algoritmo EM para la obtención de inferencia estadística y pronósticos. Miércoles 16 de Septiembre, 17:00 – 17:25 hrs Salón Luxor 2 Análisis de segmentación en el cálculo de probabilidad de permanencia y abandono en la Universidad Veracruzana: área económico administrativa región Xalapa. Ponente: Julio Cesar Costeño Hernández Colaboradores: Juan Carlos Ortega Guerrero, Nancy Jácome Ávila y Ragueb Chain Revuelta Universidad Veracruzana, México La educación superior en México se enfrenta al gran problema de la deserción estudiantil, este problema, no puede ser considerado solo desde la perspectiva dentro de la Universidad, sino que también deben considerarse características previas al filtro de selección, como sociodemográfica y trayectoria escolar de su paso por el bachillerato, debido que es causado por múltiples y variadas causas. Para los estudiantes el primer año universitario se considera como un tramo crítico, marcando en gran medida el curso de las trayectorias académicas. Particularmente para la Universidad Veracruzana en los cinco últimos años aproximadamente el 15% de los estudiantes que son aceptados no se inscriben al tercer periodo los cuales provienen de múltiples contextos. Esta investigación estudia los factores determinantes en la permanencia escolar al tercer periodo, en la Universidad Veracruzana para 1660 estudiantes aceptados en el proceso 2012, en la región Xalapa y el área Económico-­‐Administrativa a partir de un grupo de factores específicos en trayectoria académica, sociodemográficos y trayectoria escolar. Se calcula la probabilidad de no permanecer inscrito a través del método de segmentación utilizando arboles de decisión con el logaritmo CHAID y TAID, se identifican los perfiles de los estudiantes que abandonan y de aquellos que logran permanecer en sus estudios. Los primeros resultados muestran que el 52.5% de los estudiantes son de sexo masculino, el 21.1% de los estudiantes aceptados no logran inscribirse al tercer periodo y el 48.1% de los estudiantes aprobó en cualquier modalidad menos del 89% de experiencias educativas inscritas. AME, UAGro | Acapulco, Guerrero, México 30 Viernes 18 de Septiembre, 11:00-­‐11:25 hrs Salón Luxor 2 Plataforma Web para el análisis de información de contexto en Sistemas Colaborativos Ponente: Alejandro Maldonado Navarro Colaboradores: Luis G. Montané Jiménez, Carmen Mezura Godoy, Edgard I. Benítez Guerrero y N. Sofía Huerta Pacheco Facultad de Estadística e Informática, Universidad Veracruzana, México Los sistemas colaborativos ofrecen servicios y herramientas para que los integrantes de un equipo interactúen entre si y cumplan sus objetivos comunes, generando y ofreciendo herramientas con información de contexto que apoya a los equipos a entender o caracterizar la situación de un equipo o una entidad (persona, lugar u objeto). Sin embargo, la presentación y gestión de esta información tradicionalmente se realiza de forma particular por cada sistema colaborativo. Por lo tanto, en este trabajo de investigación se propone una plataforma web que ayude a la gestión de múltiples casos de estudios para comprender de mejor forma el desempeño grupal de los equipos, facilitando el uso y aplicación de técnicas estadísticas para el análisis y obtención de datos. La plataforma fue implementada y adaptada con un sistema colaborativo del género videojuego, evaluando de forma preliminar características descriptivas y graficando comportamientos de equipo. Los resultados obtenidos muestran un análisis inicial de patrones de comportamiento encontrados en interacciones entre uno o más usuarios de equipo. Viernes 18 de Septiembre, 11:30-­‐11:35 hrs Salón Luxor 2 Módulo en R de características relacionadas con el impacto de los ítems (preguntas abiertas y cerradas) Ponente: Israel Huesca Domínguez1 Colaboradores: 1
Sergio Hernández González , N. Sofía Huerta Pacheco2, M. Purificación Vicente Galindo2 y Claudio R. Castro López1 1
Facultad de Estadística e Informática, Universidad Veracruzana, México 2
Departamento de Estadística, Universidad de Salamanca, España Dentro de un cuestionario se tiene variedad de ítems que tienen como objetivo común medir una característica. Las escalas de medición de las preguntas son vitales, ya que el uso correcto de ellas permite erradicar problemáticas durante el análisis, debido a la reducción de ruido y prevención de sesgo. Un claro ejemplo es la escala de Likert propuesta en 1932 que brinda puntos bipolares en la opinión que la mayoría de la gente está familiarizada. Sin embargo, esta escala no presenta una forma correcta ó incorrecta de construirla, solo tiene una consideración primordial que es AME, UAGro | Acapulco, Guerrero, México 31 incluir al menos cinco categorías de respuesta. No obstante, existen ciertos casos donde los instrumentos contienen alguna ó algunas preguntas abiertas, con la finalidad de enriquecer más la información y así ser más específicos en el contexto del tema. En este trabajo de investigación se propone identificar factores complementarios establecidos en las respuestas de preguntas abiertas y su relación con el impacto de los ítems (pregunta cerrada con escala de Likert) presentados. Para ello se realizó una implementación gráfica en R que permite evaluar las características definidas de cada ítem, dando como resultado las relaciones presentadas de ellas. AME, UAGro | Acapulco, Guerrero, México 32 Análisis Multivariado Miércoles 16 de Septiembre, 11:00 – 11:25 hrs Salón Mirage 2 Clasificación estadística binaria Blanca Rosa Pérez Salvador Universidad Autónoma Metropolitana Iztapalapa, México La clasificación binaria es un problema muy común en varios tipos de aplicaciones como diagnósticos clínicos, decisiones financieras o determinación de riesgo crediticio. Existen algunos métodos populares para resolver este problema, como el análisis de discriminantes propuesto por Fisher (1936), el k-­‐ésimo vecino más cercano propuesto por Fix y Hodges (1951), la máquina de vector soporte propuesto por V. Vapnik (1995) y la regresión logística. En esta plática se presenta la clasificación binaria usando el cociente de verosimilitud y se compara su eficiencia con otros métodos conocidos. Miércoles 16 de Septiembre, 11:30-­‐11:55 hrs. Salón Mirage 2. Visión METABIPLOT de la delincuencia en América Latina: 2003-­‐2012 Ponente: Carmen Cecilia Rodríguez Martínez1 Colaboradora: Purificación Galindo Villardón2 1
Universidad de Panamá, Panamá 2
Universidad de Salamanca, España Al analizar la situación de Latinoamérica con relación al crimen, observamos que el delito representa uno de los problemas que repercute de gran manera en la vida de sus habitantes. Las estadísticas muestran que anualmente se cometen unos 140000 homicidios y 28000000 de habitantes han sido víctimas de robo o hurto; igualmente se señala que por cada habitante se pierden al menos tres días de vida saludable, lo que constituye un gasto cercano al 14% del PIB regional. Una medida del desarrollo de un país es su tasa de delincuencia. La naturaleza y tipos de delito son características que distinguen a los diferentes países. La finalidad de esta investigación es proporcionar una visión multivariante de los patrones delincuencia de 14 países latinoamericanos en la década estudiada 2003-­‐2012, analizando las estructuras de covariación en los datos transnacionales sobre la desigualdad, desempleo, y las tasas de criminalidad, en un período de 10 años, a partir de 14 variables (6 socio demográficas, 5 tipos de delitos y 3 variables de percepción ciudadana). Para ello se ha utilizado la técnica METABIPLOT (Martín-­‐Rodríguez y col., 2002), herramienta multivariante que proporciona la proyección de los datos originales sobre AME, UAGro | Acapulco, Guerrero, México 33 un subespacio de ajuste óptimo, de manera tal que se captura la similitud en los patrones de delincuencia de los países y su evolución a lo largo del tiempo. El programa utilizado fue MultBiplot. Miércoles 16 de Septiembre, 12:00 – 12:25 hrs Salón Mirage 2 MANOVA con el Modelo Lineal General Multivariante: una estrategia integral de análisis de datos usando R Ponente: Alberto Vázquez Gil Colaboradores: Andrea Hernández Arena, Ruth Elizabeth Aldama Rosas y Mario Miguel Ojeda Ramírez Universidad Veracruzana, México Uno de los problemas que se tienen en la utilización de las técnicas multivariantes inferenciales es la falta de la integralidad de las estrategias de análisis de los datos en aplicaciones concretas. Particularmente, los usuarios del análisis de varianza multivariante, optan por correr procedimientos en algún software estadístico, los cuales regularmente arrojan valores de estadísticos de prueba. Con esto se toma la decisión de rechazar o no la hipótesis de igualdad de promedios multivariantes. Sabemos que hay que validar supuestos y así mismo hay que encontrar formas creativas de explotar la información de cada variable en cada grupo y en la comparación de los grupos. Con frecuencia se realiza la construcción de intervalos de confianza marginales, para así hacer la presentación de las diferencias entre los promedios de cada variable. Todo esto carece de integralidad y se construye, en el mejor de los casos, acorde a las necesidades establecidas por el reporte de resultados. El problema es que en este enfoque tradicional se pierde mucha información y la que se obtiene puede resultar artificiosa y hasta contradictoria; la integralidad del proceso de análisis de datos evitaría esto. En esta ponencia proponemos una estrategia de modelación en el caso del MANOVA, utilizando el Modelo Lineal General Multivariante, realizando las fases de exploración de los datos, postulación del modelo, ajuste del modelo, evaluación de los supuestos a partir de los residuos multivariantes y finalmente interpretación del modelo, soportando las conclusiones en el uso de la Hipótesis Lineal General Multivariante. AME, UAGro | Acapulco, Guerrero, México 34 Jueves 17 de Septiembre, 12:30 – 12:55 hrs Salón Luxor 1 Representación geométrica de datos de dimensión alta Addy Margarita Bolívar Cimé Universidad Juárez Autónoma de Tabasco, México En esta plática se hablará de la representación geométrica que tiene cierta clase de datos multivariados cuando su dimensión tiende a infinito, mientras el tamaño de la muestra se mantiene fijo. Esta representación se puede observar por ejemplo en datos multivariados Gaussianos cuya matriz de covarianza cumple ciertas propiedades. Se verá el tipo de aplicaciones que tiene este resultado en el estudio de métodos estadísticos multivariados para datos de dimensión alta. Jueves 17 de Septiembre, 13:00 – 13:25 hrs Salón Luxor 1 Análisis Confirmatorio de Estructuras Causa-­‐Efecto con Modelos de Ecuaciones Estructurales y Mínimos Cuadrados Parciales Ponente: Julia Aurora Montano Rivas, Colaborador: Sergio Francisco Juárez Cerrillo Universidad Veracruzana, México El desarrollo de los modelos de ecuaciones estructurales (MEE) ha revolucionado la investigación empírica en áreas como la sociología, la educación, y la psicología. Los MEE son herramientas poderosas de análisis confirmatorio en el sentido de que permiten evaluar empíricamente relaciones de causa-­‐efecto basadas en premisas derivadas de alguna teoría subyacente. Además consideran variables no observables que se aproximan con variables observables. Sin embargo, la aplicación delos MEE tiene limitaciones cuando se estiman con el método de máxima verosimilitud bajo el supuesto de normalidad multivariada. Un enfoque alternativo de estimación, es el de Mínimos Cuadrados Parciales (MCP). Los procedimientos de ajuste de MCP proporcionan flexibilidad en la modelación en el sentido de que no requieren de supuestos distribucionales ni de tamaños de muestra grandes. En esta plática discutimos el alcance y limitaciones de los MEE ajustados con MCP para analizar estructuras de causa-­‐efecto con fines confirmatorios. AME, UAGro | Acapulco, Guerrero, México 35 Jueves 17 de Septiembre, 13:30 – 13:55 hrs Salón Luxor 1 Estudio de las estructuras de covariación entre las componentes del modelo de Gardner de Inteligencias Múltiples Ponente: Ángel Rafael Vargas Valencia1 Colaboradoras: Ma. Purificación Galindo Villardón2 y Mercedes Sánchez Barba2 1
2
Universidad de Colima, México Universidad de Salamanca, España La manera en la que aprendemos en escenarios educativos formales es sin duda una de las grandes preocupaciones y curiosidades de las personas relacionadas en el ámbito educativo, es por ello que es interesante conocer la manera en la cual las inteligencias múltiples hacen una fuerte presencia en los diferentes ámbitos educativos y como pueden llegar a influir. El presente trabajo tiene como objetivo encontrar la relación existente entre las inteligencias múltiples propuestas por Gardner y cada uno de los perfiles profesionales correspondientes a cada licenciatura y detectar los patrones de covariación existentes entre las inteligencias utilizando métodos multivariantes. Así mismo, se pretende probar que los datos sobre inteligencias múltiples recogidos con el cuestionario TIMI, pueden ser abordados como datos composicionales. Los participantes en este estudio fueron todos los estudiantes de la Facultad de Ciencias de la Educación (FCE) de la Universidad de Colima pertenecientes a la generación del 2006-­‐2010 de manera intencional en dos momentos, al inicio de la licenciatura y al final de la misma, en tres licenciaturas diferentes. Después de haber hecho un estudio minucioso de todos los resultados obtenidos de los diferentes métodos estadísticos multivariantes podemos ver que se cumple una de las teorías de Gardner, la cual nos dice que la inteligencia lingüística que tiene la capacidad de utilizar las palabras de manera eficaz y la inteligencia lógico matemática que tiene la capacidad de utilizar los números con eficacia y de razonar bien, tienen una muy fuerte relación en los estudiantes de la FCE. Jueves 17 de Septiembre, 16:00 – 16:25 hrs. Salón Monte Carlo Versión Inferencial de los métodos Biplot basada en remuestreo Bootstrap Ana Belém Nieto Universidad de Salamanca, España Un Biplot es una representación gráfica de datos multivariantes de dos vías basada en marcadores para filas y columnas que son representados en un mismo espacio de dimensión reducida con AME, UAGro | Acapulco, Guerrero, México 36 pérdida de información mínima. Estos marcadores definen parámetros que ayudan a interpretar bondad de ajuste, calidad de representación y variabilidad y relaciones entre variables e individuos. Sin embargo, estos parámetros son estimados puntualmente en el Biplot, sin proporcionar información acerca de la precisión de los estimadores. Por ello, se propone el desarrollo de una versión inferencial de los métodos Biplot basada en el remuestreo Bootstrap. Esta versión proporciona intervalos de confianza basada en los métodos t-­‐Bootstrap, Percentiles Bootstrap y Percentiles Bootstrap corregidos por sesgo y acelerados (BCa). Para facilitar su uso se ha implementado un paquete en R llamado biplotbootGUI a modo de interfaz gráfica que permite al usuario obtener los resultados mediante ventanas, botones y menús de una forma amigable sin necesidad de un amplio conocimiento del lenguaje R. Jueves 17 de Septiembre, 16:30 – 16:55 hrs Salón Monte Carlo Caracterización multivariante del perfil del joven sudcaliforniano Ponente: Miguel Ángel Celestino Sánchez1 Colaboradoras: 1
Zaira Jazmín Zárate Santana , Purificación Vicente Galindo2, María Teresa Celestino Buentello1 1
Universidad de Colima, México 2
Universidad de Salamanca, España La presente investigación, pone de manifiesto el perfil multivariante del joven sudcaliforniano para conocer la situación de los jóvenes en cuanto a ocupación e ingresos, su inversión en ocio y tiempo libre, salud, consumo de tecnologías y medios de comunicación, su sentido de legalidad y cultura de la paz, que nos permiten obtener panoramas claros de la dirección que deben tomar las políticas estatales y los programas locales, esto con el objetivo de realizar un diagnóstico sobre la realidad de los jóvenes que habitan el estado de Baja California Sur para determinar el perfil que los caracteriza mediante técnicas estadísticas multivariantes tomando aspectos relacionados a uso de tiempo libre, salud (adicciones, sexualidad), religión, expectativas a futuro, escuela, tecnología, trastornos, prevención, etcétera, que permitan ser eje rector para el diseño de estrategias de prevención. Tal estudio se llevó a cabo con un instrumento compuesto por 76 preguntas distribuidas en 8 apartados aplicado a una muestra de 1714 jóvenes. En esta investigación se recurrió a la técnica estadística multivariante Biplot para enriquecer tanto la elaboración del diagnóstico, como el proceso de extracción de conclusiones y las posteriores sugerencias o recomendaciones. Específicamente, se utilizó el HJ – Biplot, el cual consiste en una representación gráfica multivariante de marcadores fila y columna, elegidos de tal forma que puedan superponerse en el mismo sistema de referencia con máxima calidad de representación. AME, UAGro | Acapulco, Guerrero, México 37 Análisis de Supervivencia Miércoles 16 de Septiembre, 16:00 – 16:25 hrs Salón Monte Carlo How to make outstanding statistical presentations Wayne Nelsen Asesor Privado, WNconsult Success for statisticians is enhanced by the ability to make effective presentations to colleagues, clients, and management. This how-­‐to tutorial provides easy steps for preparing and presenting outstanding presentations. The steps are illustrated with an award winning presentation. Speaker. Dr. Wayne Nelson is a leading expert on analysis of reliability and accelerated test data. He consults on applications, gives training courses for companies and professional societies, and works as an expert witness. He was elected a Fellow of the Amer. Statistical Assoc. (1973), the Amer. Society for Quality (1983), the Institute of Electrical and Electronics Engineers (1988) for his innovative developments. He received 9 Outstanding Presentation Awards of the Section for Physical and Engineering Sciences of the Amer. Statistical Assoc., and was invited by ASA and IEEE to give presentations at four national meetings and various chapter meetings on how to make outstanding presentations. He was awarded the 2005 Lifetime Achievement Award of the Reliability Society. Miércoles 16 de Septiembre, 16:30-­‐16:55 hrs Salón Monte Carlo Weibull prediction of a future number of failures Wayne Nelsen Asesor Privado, WNconsult Statistical prediction is useful in practice but rarely taught in reliability courses. This talk explainsbasic prediction concepts and presentsnew prediction limits, motivated by an application on maintenance of equipment. Nuclear power plants contain large heat exchangers, each with 10,000 to 20,000 stainless Steel tubes. In service, the tubes develop defects, which are detected duringperiodic inspections; then such defective tubes are plugged to remove them fromservice. To manage a heat exchanger, apower company uses a Weibull prediction of the future random number of tubesthat will be failed at the next inspection, using the previous number of tubefailures. The company uses theprediction to plan for 1) future plugging effort, 2) repair of defective tubes (restoring them to service), 3) reduced power production, and 4) retirement ofthe steam generator. The statisticaluncertainty of such a prediction is given by a prediction interval. This important information indicates howreliable the prediction is. AME, UAGro | Acapulco, Guerrero, México 38 Miércoles 16 de Septiembre, 17:00 – 17:25 hrs Salón Monte Carlo Estimación de los parámetros y del punto de cambio en un modelo de riesgo tipo Weibull Ponente: Oscar Palmeros Rojas1 Colaboradores: 2
José Aurelio Villaseñor Alva , Elizabeth González Estrada2 y Francisco Tajonar Sanabria3 1
Universidad Autónoma Chapingo 2
Colegio de Postgraduados 3
Benemérita Universidad Autónoma de Puebla En supervivencia, el riesgo de observar una falla, en un momento determinado, se cuantifica a través de la función de riesgo, esto se debe a que esta mide la razón o taza de falla instantánea de un individuo al tiempo t, dado que el individuo ha sobrevivido hasta ese momento. En análisis de supervivencia, es de interés identificar dónde se observa un punto de cambio en la función de riesgo, dicho cambio se genera debido a los efectos de las covariables Z. En este trabajo, considerando observaciones censuradas y covariables, se realiza la estimación del punto de cambio en un modelo de riesgo tipo Weibull, el cual es una generalización del modelo exponencial. Para este modelo más general, se obtuvieron estimadores de máxima verosimilitud para los parámetros del modelo. Se presenta un estudio de simulación Monte Carlo, con la finalidad de mostrar la utilidad del modelo en la práctica. Además, se incluye una aplicación del modelo a una base de datos reales, los cuales provienen de un ensayo clínico. AME, UAGro | Acapulco, Guerrero, México 39 Estadística Aplicada al Turismo Miércoles 16 de Septiembre, 11:00-­‐11:25 hrs Salón Luxor 1 Análisis de la Competitividad en el sector de Viajes y Turismo de América, a través del GGEBiplot Ponente: Mitzi Cubilla Montilla1 Colaborador: Elisa Frutos Bernal2 1
Universidad de Panamá, Panamá 2
Universidad de Salamanca, España En este trabajo se analiza el comportamiento de los factores y las políticas que determinan el Índice de Competitividad de Viajes y Turismo en América. Los resultados obtenidos facilitan la descripción de la dinámica turística; y en consecuencia, contribuyen a medir la competitividad del país en cuanto a su capacidad turística. El tratamiento estadístico está basado en el modelo GGE Biplot y supone la primera aplicación a datos de turismo de una herramienta que tradicionalmente se utiliza en estudios de interacción genotipo-­‐ambiente. Los datos se analizan a través de la interfaz gráfica en R: GGEBiplotGUI, un software abierto, interactivo y de libre distribución que facilita la visualización e interpretación gráfica. Miércoles 16 de Septiembre, 11:30 – 11:55 hrs Salón Luxor 1 La confiabilidad del instrumento que mide el grado de satisfacción del turista y derrama económica en Acapulco, Guerrero. Ponente: Norberto Noé Añorve Fonseca Colaborador: Darbelio Agatón, Miguel Ángel Cruz Unidad Académica de Turismo, UAGro. México. El objetivo de los estudios del Grado de Satisfacción es caracterizar al turista de acuerdo a sus variables sociodemográficas y de hábitos de viaje, y generar el índice de satisfacción del destino. Con esta metodología, el Centro de Estudios Superiores en Turismo atiende recomendaciones internacionales, se alinea a estándares de calidad en investigación, incluye un índice de satisfacción del destino basado en un modelo estadístico, explica a detalle la forma de recopilar, integrar y procesar la información, se pueden contrastar los resultados entre diferentes destinos turísticos del país; además pretende generar una estrategia de transferencia de conocimiento a los destinos turísticos para garantizar la confiabilidad de los resultados y un mejor aprovechamiento AME, UAGro | Acapulco, Guerrero, México 40 de la información. La confiabilidad se refiere a la confianza que se tiene a los datos recolectados, debido a que hay una repetición constante, estable de la medida; es la exactitud o precisión de un instrumento de medición. En Acapulco a partir de la presente administración municipal (2012-­‐
1025) y en cada periodo vacacional (semana santa, verano y fin de año) se aplica un instrumento que se desarrolló para identificar el perfil socioeconómico y demográfico del visitante, así como el grado de satisfacción que obtienen los turistas de los servicios públicos y privados, que les son ofrecidos durante su estancia; con variables tales como: 1) información socioeconómica y demográfica, 2) los hábitos de viajes; 3) la satisfacción; 4) la estimación del gasto turístico y derrama económica; y 5) la lealtad de los visitantes. El objetivo del presente documento es determinar la confiabilidad del instrumento que se aplica en los periodos vacacionales en Acapulco a partir de la aplicación del coeficiente Alfa de Cronbach. La validez se refiere al grado en que el instrumento mide aquello que pretende medir; y la fiabilidad de la consistencia interna se puede estimar con el alfa de Cronbach. El método de consistencia interna permite estimar la fiabilidad de un instrumento de medida a través de un conjunto de ítems que se espera que midan el mismo constructo o dimensión teórica. El Alfa de Cronbach asume que los ítems miden un mismo constructo y que están altamente correlacionados. Cuanto más cerca se encuentre el valor del alfa a 1 mayor es la consistencia interna de los ítems analizados. Miércoles 16 de Septiembre, 12:00 – 12:25 Salón Luxor 1
Modelo Kano en el diseño de paquetes turísticos sostenibles Ponente: Sandra Lizbeth Oseguera Bernal1, Colaboradores: Marcos Hernández Suárez2 y María Purificación Galindo Villardón3 1
CIEMA, Universidad de Colima, México 2
Departamento de Innovación, Parque Científico Tecnológico Aula Dei. España 3
Universidad de Salamanca, España. El turismo sostenible es el que satisface las necesidades de visitantes, empresas y poblaciones locales sin dañar el medio ambiente en el presente ni hipotecarlo para el futuro. Así el turismo puede contribuir de modo positivo a lograr una economía saludable y diversificada, que aprovecha y desarrolla las potencialidades y los recursos locales. En este sentido, es fundamental hacer un adecuado diseño de los paquetes turísticos. Una forma de llevar a cabo este diseño es mediante el modelo Kano. Este modelo es una teoría de desarrollo de productos y de satisfacción del cliente desarrollada en la década de 1980 que clasifica las preferencias del cliente en cinco categorías. Para demostrar la validez de este modelo como herramienta de diseño de paquetes turísticos sostenibles, se ha elaborado una encuesta según los requerimientos del método en el que se ha preguntado por aspectos vinculados al turismo solidario, al ecoturismo, al turismo activo y al turismo de esparcimiento en la naturaleza, el cual ha sido contestado por 238 personas. El procesado posterior de los datos se ha modificado con respecto a la evaluación según la Tabla de Evaluación de Kano. Con el propósito de encontrar las relaciones entre la satisfacción del cliente y AME, UAGro | Acapulco, Guerrero, México 41 su preferencia hacia un tipo de turismo sostenible según las características demográficas, lo que implica la primera aproximación al análisis matricial de datos Kano al no encontrar referencias alguna previamente en la bibliografía científica. Miércoles 16 de Septiembre, 16:00 – 16:25 hrs Salón Luxor 1 Perfil Multivariante del Turista del Estado de Jalisco (México) Ponente: Zaira Jazmín Zárate Santana1 , Colaboradores: Carmelo Antonio Ávila Zarza2 y Jaime Egido Miguélez2 1
CIEMA, Universidad de Colima, México 2
Universidad de Salamanca, España En el presente trabajo se realizó un estudio con el objetivo de definir el perfil de los turistas que visitaron los municipios con más afluencia turística del Estado de Jalisco (México); con el fin de conocer el mercado meta para dirigir estrategias que generen un impacto positivo en la derrama económica y mayor afluencia turística, satisfaciendo las necesidades que requieren los visitantes de acuerdo a los lugares que visitan, para esto se utilizó el Análisis Clúster y la técnica estadística multivariante HJ-­‐Biplot de Galindo (1986) donde los individuos y las variables se representan en el mismo sistema de referencia. En particular este estudio pretende conocer las características que definen a los individuos nacionales y extranjeros que visitan el Estado de Jalisco para encontrar el perfil que los describe de acuerdo a las variables estudiadas. Con este propósito, hemos desarrollado el estudio en una muestra de 6988 turistas y 16 variables tomadas del cuestionario original aplicado. En el contenido de este trabajo se explica la situación turística de Jalisco, sus características geográficas, los datos estudiados, la técnica multivariante aplicada en el estudio, los resultados y las conclusiones obtenidas. Miércoles 16 de Septiembre, 16:30-­‐16:55 hrs Salón Luxor 1 Estimadores de totales y proporciones en el sector turismo Ponente: Alexander De la rosa Damián, Colaboradores: Agustín Santiago Moreno y José Maclovio Sauto Vallejo Universidad Autónoma de Guerrero, México Una de las principales dificultades en las encuestas turísticas surge en la estimación de las características numéricas de la población de turistas. El muestreo clásico exige la existencia de un AME, UAGro | Acapulco, Guerrero, México 42 marco de muestreo, a partir del cual se calculan las probabilidades de inclusión de las unidades básicas, dependiendo del esquema de muestreo elegido, toda vez que se conoce N, el tamaño de la población. En la práctica esto resulta imposible debido a que la población de turistas es dinámica y, aunque en un momento dado tengamos un listado de las personas que arriban a un destino turístico, tomar una muestra y entrevistar a los elementos de esta muestra, transcurrido un periodo vacacional, es impensable. En el presente trabajo se propone un método de estimación de N o NL, los totales poblacionales o totales en áreas pequeñas o estratos y un conjunto de estimadores bajo el diseño, que pueden adaptarse a la estimación de proporciones y totales, que se demandan en el sector turístico en forma de estadísticas turísticas. Estas estadísticas turísticas, entre otras, son el total de gasto turístico, el total de turistas en un centro turístico, la proporción de visitantes satisfechos por los servicios turísticos, la proporción de turistas fieles al destino. Los estimadores que se presentan aquí son el estimador de regresión generalizado, estimadores de James-­‐Stein, un estimador de proporciones tipo regresión y algunos estimadores combinados, cuya bondad se establece a partir del criterio de mínima varianza. Miércoles 16 de Septiembre, 17:00 – 17:25 hrs Salón Luxor 1 Pruebas de diagnóstico del modelo econométrico para determinar la demanda de agua de las empresas que ofrecen servicio de hospedaje Ponente: Miguel Ángel Cruz1, Colaboradores José Luis Montesillo Cedillo2 y Justiniano González González3 1
Unidad Académica de Turismo, UAGro, México 2
Instituto de Estudios sobre la Universidad de la Universidad Autónoma del Estado de México 3
Unidad de Ciencias en Desarrollo Regional, UAGro, México La demanda de agua que realizan las empresas que ofrecen servicio de hospedaje es un factor de producción y debe ser tratado como tal, es decir, la demanda de agua como insumo es una demanda derivada de la producción de un bien o servicio final. Es decir, la demanda de un insumo es una demanda derivada del producto final. La demanda es esencial en el estudio de las decisiones individuales y juega un papel fundamental en el estudio de la econometría. La econometría se interesa por la medición de los datos económicos; trata del estudio de la teoría económica (hipótesis), con base en las observaciones empíricas (estadística económica), utilizando métodos estadísticos de estimación (estadística matemática), y la comprobación de hipótesis (inferencia estadística). La primera fase del planteamiento de un estudio econométrico es la formulación del modelo. Gujarati (1997) sugiere la siguiente anatomía para la elaboración de modelos econométricos: 1) teoría económica, 2) modelo matemático de la teoría, 3) modelo econométrico de la teoría, 4) datos, 5) estimación del modelo econométrico, 6) pruebas de hipótesis, 7) pronóstico o predicción y 8) usos del modelo para fines de control o de política. Sin embargo, Arbués (2006) propone el procedimiento siguiente para caracterizar la demanda de AME, UAGro | Acapulco, Guerrero, México 43 agua: 1) aspecto geográfico, 2) horizonte temporal, 3) tipos de usuarios de agua, 4) dimensión temporal, 5) nivel de agregación, 6) tipo de variables, 7) forma funcional, 8) método de estimación, 9) síntesis de los resultados y 10) usos de la función de demanda. Para que los resultados obtenidos del modelo econométrico sean MELI se deben realizar una serie de pruebas estadísticas no convencionales. Por consiguiente, el objetivo principal de la presente investigación es aplicar y explicar las pruebas estadísticas no convencionales al modelo econométrico de la demanda de agua de las empresas que ofrecen servicios de hospedaje (hotelería) en Acapulco. Es un estudio transversal que explica el consumo de agua que realizan los hoteles, ya que su demanda depende del número de cuartos ocupados y del precio del servicio que ofrece. Recordando que los hoteles forman parte de la planta turística y son piezas importantes del patrimonio turístico, y como empresas privadas demandan bienes y servicios que son producidos por particulares, otras empresas o por el gobierno. Entre los servicios que demanda se encuentra el agua. Jueves 17 de Septiembre, 11:00 – 11:25 hrs Salón Luxor 1 10 años de medir el NPS NET Promoter Score para un destino turístico y dimensiones latentes que lo explican: Caso de costa Rica, como destino turístico Ponente: Greibin Villegas Barahona1, Colaboradoras: María Purificación Galindo Villardón2 y Mercedes Sánchez Barba2 1
Universidad Estatal a Distancia, Uned, Costa Rica 1,2
Universidad de Salamanca, España El concepto del NPS o Net Promoter Score fue introducido por Frederick Reichheld en su artículo “The One Number You Need to Grow”, publicado en la revista Harvard Business Review en diciembre del 2003, dos años después Costa Rica lo introduce en sus investigaciones del mercado turístico. En la presentación se muestra la evolución que ha tenido este indicador en Costa Rica como destino turístico desde el año 2005-­‐2014 y las dimensiones latentes que explican la variabilidad del NPS. Para ello, se utiliza una técnica denominada STATIS de la Escuela francesa, que también es novedosa para este tipo de análisis, pues permite mediante un análisis multivariante brinda la posibilidad de valorar el efecto que tienen diferentes dimensiones latentes sobre el NPS; determinando así el impacto que pueden tener otras variables relacionadas para mantener niveles altos de la probabilidad de que un turista recomiende a amigos visitar un destino turístico, caso particular: Costa Rica. No se ha escrito en la literatura académica nada sobe el NPS para destinos turísticos, solo para compañías, no fue sino hasta el 17 de Abril 2015, que Rob Markey publicó en el New York Times que un pueblo en Colorado, Estados Unidos utiliza el NPS, este periódico destaca la noticia señalando “Una ciudad entera en Colorado empuja para mejorar su servicio al cliente”, el NPS de esta ciudad es de 68.0%. (Mount, 2014). Costa Rica ha medido el NPS desde el 2005 y hasta el 2014, promediando a 74.4% este indicador en los últimos años. AME, UAGro | Acapulco, Guerrero, México 44 Jueves 17 de Septiembre, 11:30-­‐11:55 hrs Salón Luxor 1 La potencia predictiva de las técnicas de series temporales: una aplicación al sector turismo en México Ponente: Rafael Morales Ibarra, Colaboradoras: Anareli Domínguez Gómez y Gandhi González Guerrero Universidad Autónoma del Estado de México En el presente trabajo se realiza un análisis comparativo de la potencia predictiva de dos métodos para modelar la demanda turística. Tradicionalmente, la estimación de la demanda por servicios turísticos se realiza mediante el análisis de regresión múltiple, y ya que éstos ignoran la no estacionariedad de las series turísticas, podrían conducir a regresiones espurias. Los modelos de series temporales, propuestos recientemente, como es el caso de los modelos de cointegración y de corrección del error, resuelven este problema. En este trabajo se implementan ambos enfoques para estimar la demanda turística en México en el periodo comprendido entre 1980 y 2015; en el primer modelo se estudia la demanda mediante una relación funcional con el nivel de precios, tipo de cambio e ingreso, mientras que en el segundo la demanda turística es representada por el número de turistas extranjeros, y se realiza un comparativo de la bondad de las predicciones obtenidas en estos modelos. Jueves 17 de Septiembre, 16:00 – 16:25 hrs Salón Luxor 1 Satisfacción del servicio y lealtad en hoteles de Acapulco, una aplicación de Kruskal Wallis Ponente: David Antonio Reyes Peña, Colaboradores: Diego Guzmán Balderas, Ernesto García Díaz, Juan Gilberto González Velázquez y Adrián Morales Gálvez Universidad Autónoma de Guerrero, México La satisfacción al cliente es un reflejo de lealtad que garantiza éxito a cualquier empresa hotelera. El objetivo fue evaluar la satisfacción del servicio y lealtad de los huéspedes en siete categorías de Hoteles de Acapulco, Guerrero, verano 2013.El tamaño de muestra fue 582 turistas en 123 hoteles. Se utilizó el modelo SERVPERF y pruebas no paramétricas Kruskal Wallis, reflejo un rechazo de la hipótesis, porque hay diferencias significativas en cinco dimensiones y con el estadístico Bonferroni Dunn, se identificó donde difieren las evaluaciones en cada categoría. Siendo las mejores calificaciones con respecto a las dimensiones de tangibilidad, capacidad de AME, UAGro | Acapulco, Guerrero, México 45 respuesta, empatía, seguridad y fiabilidad los hoteles gran turismo, una estrella, clase especial, tres estrellas y los de menores calificaciones fueron los de dos, cuatro y cinco estrellas. Con relación a la lealtad, se encontró, que los hoteles de una y dos estrellas fueron lo que tuvieron una calificación aprobatoria arriba del 63 %, no así para los hoteles de gran turismo, tres y cinco estrellas, clase especial y cuatro estrellas, que representan una calificación reprobatoria menor del 50%. Estos resultados encontrados nos indican que no necesariamente los hoteles de mejores categorías y más caros van a tener mejores calificaciones. Jueves 17 de Septiembre, 16:30 – 16:55 hrs Salón Luxor 1 Análisis de la seguridad como un componente de la imagen del destino turístico Acapulco, mediante Big Data Ponente: Ramón Aguilar Torreblanca Colaboradores: Lucio Hernández Lobato, María Magdalena Solís Radilla y Héctor Tomás Pastor Durán Universidad Autónoma de Guerrero, México Un estudio realizado por el Instituto Mexicano de Competitividad en el 2014 señala que la violencia y el crimen organizado imponen costos a la actividad económica y erosionan la calidad de vida de la población, destacando que en el Estado de Guerrero, Acapulco, incluyendo el municipio de Coyuca de Benítez, se ubica en el último lugar de las 78 principales zonas metropolitanas del país, y que la ciudad más violenta del país en 2012, lo ocupó Acapulco. Lo anterior lleva a la conclusión de que Acapulco como destino turístico se ha visto afectado, entre otros sucesos, por la imagen de inseguridad proyectada en el extranjero y una muestra de ello, son las advertencias que los gobiernos hacen a sus ciudadanos, sugiriéndoles no viajar a ciertos destinos, reflejándose en una clara tendencia negativa en los últimos años de la afluencia turística internacional, particularmente del mercado de América del Norte, con sus respectivas consecuencias. El propósito de este estudio es, mediante Big Data, realizar un diagnóstico de las actividades delictivas registradas en el Municipio de Acapulco y subsecuentemente un análisis predictivo, permitiendo la recolección y el análisis de datos, a través de metodologías, técnicas, herramientas e instrumentos de ciencia de datos, que están al alcance de prácticamente cualquier persona, para estudiar todo lo relacionado con las variables de las actividades criminales de manera histórica y en tiempo real, acontecidas en el Municipio de Acapulco. La metodología para este estudio está compuesta por análisis de Big Data, que incluye la recolección de datos mediante herramientas de Map Reduce, Hadoop, Pig y Pig Latin, Apache S4, Twitter Storm, entre otros. Para la organización e integración de datos se usa Open Stack; en el análisis de datos se utilizan métodos matemáticos y estadísticos incluyendo análisis descriptivo, inferencial, de componentes principales, predictivo y prescriptivo; mediante las herramientas de R Studio, SPPS, KNIME, ELKI, entre otros. La visualización de datos se realiza mediante QGI, Gephi y Axiis y para el análisis cualitativo Orange y Rapid Miner. Dicho análisis permitirá establecer entre otras estrategias, la de gestión mercadológica del destino turístico, particularmente relacionada al posicionamiento de la imagen AME, UAGro | Acapulco, Guerrero, México 46 turística de Acapulco, distinguiendo además de manera geoespacial, lo acontecido en el municipio y lo que se conoce propiamente como la zona turística de Acapulco. Viernes 18 de Septiembre, 10:00-­‐10:25 hrs Salón Luxor 1 Metodología para la actualización del inventario de empresas prestadoras de servicios turísticos en Acapulco Ponente: Teresa de Jesús Rivas Pérez Colaboradores: Hernando Avilez Pineda, Darbelio Agatón Lorenzo y Ma. Elvia Chavarría Solís Universidad Autónoma de Guerrero, México
Contar con un inventario de las empresas ubicadas en los destinos turísticos es una necesidad para sus autoridades así como un plus para las empresas. El trabajo consistió en la actualización del inventario de empresas prestadoras de servicios turísticos ubicadas en la franja turística de Acapulco. Para una nueva administración municipal contar con información de este tipo es primordial, sobre todo si el destino atraviesa por un periodo económico crítico que, entre otras características, enfrenta el cierre de establecimientos comerciales principalmente en la franja turística de la ciudad, aunque también se observa así como la apertura de nuevos establecimientos. Aunque se contaba con un inventario que databa de varios años no se había tenido el cuidado de actualizarlo ocasionando problemas en la información a proporcionar por el organismo oficial de turismo de la ciudad. Para la actualización se recorrió la franja turística identificando cada uno de los negocios abiertos así como los que se encontraban cerrados, llenando una cédula de identificación para cada uno de ellos. Se identificó que la zona turística con mayor cantidad de problemas es la Zona Tradicional incluido Pie de la Cuesta, y que es la zona en donde se encuentra el mayor número de empresas de hospedaje. Viernes 18 de Septiembre, 10:30-­‐10:55 hrs AME, UAGro | Acapulco, Guerrero, México 47 Salón Luxor 1 Propuesta para la implementación de un observatorio del Turismo Sustentable para el Estado de Guerrero Ponente: Hernando Avilez Pineda Colaboradores: Teresa de Jesús Rivas Pérez, Ma. Elvia Chavarría Solís y Oswaldo Lorenzana Núñez Universidad Autónoma de Guerrero, México El turismo como actividad económica representa un remecimiento de la economía, de la cual dependen decenas de países a nivel global, y México no es la excepción, nuevamente en el año 2015 está inserto entre los diez países más visitados del planeta. El Estado de Guerrero alberga tres destinos turísticos con la simetría que dos ofertan el producto de sol y playa. Acapulco cuya génesis es a partir de un pequeño pueblo de pescadores despunta aceleradamente como centro turístico de clase mundial e Ixtapa-­‐Zihuatanejo que surge como política pública de Centro Integralmente Planificado. Ambos presentan características disímiles, además del pueblo mágico de Taxco cuya atributo es cultural, triada ya consolidada, sin embargo, el estado posee un litoral de 522 km en etapa primigenia, impeliéndolo a generar acciones que lo robustezcan para hacerlo competitivo. Un Observatorio del Turismo Sustentable apalancaría soluciones estratégicas de corto y mediano plazo. En este sentido, el objetivo de la investigación es conocer la relevancia de los insumos que un Observatorio del Turismo Sustentable para el Estado de Guerrero aportaría para dinamizar una actividad que puede equilibrar los altibajos que se manifiestan en los flujos turísticos a los destinos turísticos conocidos y otros que intentan emerger en escenarios inciertos. Un Observatorio del Turismo Sustentable posibilitaría obtener información consistente del todo turístico, con rigor científico que coadyuve a la mejora en todos los componentes de los destinos receptores que permitan el óptimo manejo del interés de los visitantes por explorar sus propias percepciones de los destinos seleccionados. Palabras clave: observatorio, sustentable, destinos turísticos, insumos. Viernes 18 de Septiembre, 11:00 – 11:25 hrs AME, UAGro | Acapulco, Guerrero, México 48 Salón Luxor 1 Diseño estadístico para medir la ocupación hotelera en el Puerto de Acapulco, Guerrero Ponente: Miguel Ángel Cruz Colaborador: Darbelio Agatón Lorenzo Unidad Académica de Turismo, UAGro., México Reiteradamente se escucha y se lee en diferentes medios de comunicación sobre las estadísticas del sector turismo en el Puerto de Acapulco, variables como: ocupación hotelera, derrama económica, arribo de turistas nacionales o extranjeros, gasto promedio y otras más. Esta información es de suma importancia para los usuarios e interesados en esos datos, como lo son: instituciones públicas, privadas y los centros de investigaciones a nivel local, nacional e internacional; información que le permite tomar decisiones en sus áreas de influencia de la actividad económica en la que se desenvuelven. En el Puerto de Acapulco existen dos dependencias que se encargan de darle seguimiento a esta actividad: la Secretaría de Fomento Turístico (dependiente del gobernador del estado) y la Secretaría de Turismo Municipal (dependiente de la autoridad municipal), aunque son de partido político diferente, no existe justificación alguna para que las cifras sobre los indicadores turísticos no concuerden; pero, la alternancia política municipal ha sido dinámica, lo cual podrían generarse desencuentros estadísticos en las posteriores administraciones municipales, bajo esta circunstancia se propone diseñar una metodología que eficiente los resultados y que se adapte a los criterios científicos establecidos. Se pretende encontrar un diseño de recolección de datos sometidos a un método riguroso (científico), que permita tener una certeza y minimizar los errores posibles en su aplicación, se propone un procedimiento estadístico que bajo los criterios de uso internacional (OMT), que se utilice en el Puerto de Acapulco y que pueda ser replicado en otros destinos turísticos del país u otras partes del mundo. Viernes 18 de Septiembre, 11:30-­‐11:55 hrs Salón Luxor 1 Estudios de la satisfacción de servicios hoteleros: reflexiones y estudio estadísticos. Carlos N. Bouza-­‐Herrera Universidad de La Habana. A partir del uso de índices de satisfacción del cliente (Consumer Satisfaction Index) se han erigido diversas metodologías para evaluar el desempeño de los hoteles. El interés primal es considerar diversos atributos y servicios y como estos conforman la satisfacción de los clientes. Dada la naturaleza del problema la población bajo estudio es dinámica. De hecho lo más usual es que la recolección de información deba ser considerada como de naturaleza censal. En algunos casos esta es complementada por encuestas especialmente diseñadas. Esta situación establece que los índices no son analizables utilizando métodos estadísticos inferenciales. Solo se puede hacer uso AME, UAGro | Acapulco, Guerrero, México 49 de métodos descriptivo y valerse de la modelación moderna para hacer análisis coherentes. Consideramos la posibilidad de que el gerente pueda aceptar la validez de un cierto modelo superpoblacional. Se justifica como entonces es posible hacer estudios utilizando métodos como los de Componentes. Se ilustra lo discutido al hacer un estudio de las cadenas hoteleras de Cuba con datos recolectados en el 2005. AME, UAGro | Acapulco, Guerrero, México 50 Estadística Bayesiana Viernes 18 de Septiembre, 10:00 – 10:25 hrs Salón Monte Carlo Modelo Probit Multinomial con data augmentation marginal Alejandro Guzmán Rodríguez Colegio de Postgraduados, México Se presenta la implementación del Modelo Multinomial Probit MNP con aumentación de datos marginales, i.e. con uso de variables latentes. El MNP tiene como ventaja frente al modelo logístico que solventa el problema de la alternativa irrelevante, la inclusión de variables latentes provenientes de normales multivariadas permite incluir una estructura apriori de covarianzas entre las alternativas. La estimación bayesiana permite marginalizar sobre cada una de las alternativas, lo cual permite estimaciones para casos cuando una de las alternativas no se encuentra presente. El método de estimación es por medio de MCMC, donde se incluye una variable adicional marginalizable, que aumenta la velocidad de simulación y permite que las distribuciones condicionales sean conocidas, por lo cual se puede recurrir directamente a un Gibbs sampler sin pasar por un paso metropolis. Esta forma de estimación fue propuesta por Imai & van Dyk (2005), en nuestra investigación nos centramos en tres aspectos: 1. Comentar y documentar la implementación, basado diferentes valores de los parámetros de las distribuciones a prioris. 2. El problema del tiempo computacional del cálculo, centrándonos en la simulación variables latentes de la normal truncada. 3. Proponemos una modificación al matriz diseño original para incluir en las variables explicativas correspondientes a las alternativas variables de tipo categóricas, basándonos en la inclusión de variables dummies. Trabajamos con datos simulados; pero adicionalmente se incluye una implementación a un caso de las ciencias sociales, específicamente en encuestas electorales. Viernes 18 de Septiembre, 10:30 – 10:55 hrs Salón Monte Carlo Modelos no-­‐paramétricos para datos circulares. Ponente: Gabriel Núñez Antonio1, Colaboradores: 2
Michael Wiper , Concepción Ausín2 y Gabriel Escarela1 1
Universidad Autónoma Metropolitana-­‐Iztapalapa, México 2
Universidad Carlos III de Madrid, España En los últimos años se ha vuelto a tener un desarrollo importante en las propuestas de metodologías estadísticas para analizar datos que representan direcciones; es decir, datos direccionales. Lo anterior, con énfasis en problemas que van desde el planteamiento de nuevos modelos estadísticos que describan el comportamiento probabilístico de estos datos, hasta AME, UAGro | Acapulco, Guerrero, México 51 metodologías para realizar inferencias en los modelos propuestos. Aunque la mayoría de los modelos propuestos para datos circulares (direcciones en dos dimensiones) son paramétricos, en muchas aplicaciones prácticas los datos observados poseen características tales como asimetría y multimodalidad, características que pueden no ser bien descritas a través de modelos paramétricos estándar. En tales casos, puede ser preferible considerar modelos no paramétricos o semiparamétricos como una alternativa. En el contexto de inferencia Bayesiana, el enfoque usual para proponer modelos no-­‐paramétricos es considerar mezclas de procesos Dirichlet (DP). En este trabajo se presenta dos modelos Bayesianos no-­‐paramétricos para describir datos circulares multimodales. Ambos modelos son modelos de variables latentes por lo que para llevar a cabo una comparación se introduce una variante del criterio de devianza (DIC) denominado DIC3 en Celeux et al. (2006), el cual se recomienda para modelos con datos faltantes. Viernes 18 de Septiembre, 11:00 – 11:25 hrs Salón Monte Carlo Modelo Bayesiano para evaluar los efectos de factores que influyen en el logro en matemáticas en estudiantes de bachillerato Ponente: Ramón Reyes Carreto Colaboradores: Flaviano Godínez Jaimes y Elizabeth Solís Alonso Universidad Autónoma de Guerrero, México La evaluación de efectos de factores que influyen en el logro escolar es comúnmente estudiado mediante el modelo de ecuaciones estructurales. Sin embargo, es común que no se cumplan algunos supuestos de dicho modelo, que el tamaño de muestra sea pequeño o que no se cumpla el supuesto de linealidad entre las variables observadas y latentes. El objetivo del trabajo es probar un modelo teórico mediante ecuaciones estructurales usando enfoque bayesiano para determinar los efectos de cuatro factores que influyen en el logro en matemáticas de estudiantes de bachillerato. Se utilizan los resultados de la prueba Enlace Media Superior y sus respectivos cuestionarios de contexto para el bachillerato del estado de Guerrero. El trabajo se desarrolla en dos etapas: en la primera, mediante regresión ordinal se seleccionan las principales variables asociadas al desempeño en matemáticas; en la segunda, mediante el modelo bayesiano de ecuaciones estructurales se ajusta y evalúa el modelo empírico propuesto. AME, UAGro | Acapulco, Guerrero, México 52 Viernes 18 de Septiembre, 11:30-­‐11:55 hrs Salón Monte Carlo Análisis Bayesiano de modelos espaciales Alejandro Alegría Hernández Facultad Latinoamericana de Ciencias Sociales, FLACS-­‐México Los datos espaciales contienen información de localización de las unidades de observación así como de atributos que se estudian en dichas unidades. Para analizar este tipo de información es conveniente considerar, de forma explícita, un factor que explique la autocorrelación espacial que surge de forma natural. En general, durante las últimas dos décadas se han realizado avances significativos en estadística espacial, en gran parte debido al desarrollo e implementación de métodos computacionales. La aplicación de modelos espaciales inició principalmente en Geografía, pero en la actualidad se ha extendido su uso a diferentes áreas tales como, economía, demografía, sociología, opinión pública, agricultura, turismo, salud, violencia, educación, etc. En esta plática se presentan algunos modelos espaciales, así como sus principales características. El análisis de estos modelos se hará desde el punto de vista bayesiano. Por último se presenta una aplicación con datos de la realidad mexicana. AME, UAGro | Acapulco, Guerrero, México 53 Estadística y Ciencias Sociales Miércoles 16 de Septiembre, 16:00-­‐16:25 hrs Salón Mirage 1 Migración, remesas y desarrollo económico. El caso de México en 2015 Ponentes: Javier González Rosas e Iliana Zárate Gutiérrez Consejo Nacional de Población, México En los últimos años, se ha producido una modificación muy importante en el ámbito internacional sobre el modo de pensar acerca de la migración y el desarrollo. Durante muchos años, la migración fue vista como un problema tanto para los países expulsores como los de destino. Sin embargo, en la mayoría de los países en desarrollo, el flujo de remesas tiene un efecto importante en la disminución de la pobreza, en la distribución del ingreso y en el impulso del desarrollo económico, especialmente en las zonas rurales. Actualmente, muchos de los análisis que se realizan en el ámbito nacional e internacional sobre migración y remesas, se han hecho mayoritariamente en un nivel microeconómico, basados en encuestas por muestreo en hogares, centradas principalmente en el trabajador migrante y su familia. El objetivo de esta ponencia es, probar que existe una relación entre remesas (RM) y variables macroeconómicas como el producto interno bruto (PIB) y el consumo nacional (CN), en un intento por determinar el efecto de la migración en el crecimiento y desarrollo económico de México. La fuente de datos de las remesas es el Banco Nacional de México, mientras que para el PIB y el CN es el INEGI. La metodología se basa en aplicar la teoría del modelo de regresión lineal simple, a datos observados en el periodo 1980-­‐2014. Los principales resultados de la ponencia indican que, por cada unidad de incremento en las remesas, el PIB y el CN se incrementan también en cantidades estadísticamente muy significativas. AME, UAGro | Acapulco, Guerrero, México 54 Miércoles 16 de Septiembre, 16:30-­‐16:55 hrs Salón Mirage 1 Contraste de enfoques de Modelo Educativo Integral y Flexible en la Universidad Veracruzana Ponente: Elizabeth García Pérez1 Colaboradores: 2
N. Sofía Huerta Pacheco , Sergio Hernández González1, Sergio Rafael Vásquez Zárate3 y M. Purificación Vicente Galindo2 1
Facultad de Estadística e Informática, Universidad Veracruzana, México 2
Departamento de Estadística, Universidad de Salamanca, España 3
Facultad de Antropología, Universidad Veracruzana, México El Modelo Educativo Integral y Flexible (MEIF) fue implementado a partir del siglo XXI con la finalidad de logra un mejor rendimiento en la comunidad estudiantil. La flexibilidad del modelo permite que el estudiante adecue de acuerdo a sus necesidades sus horas de estudio y desarrollen otras habilidades complementaria. El presente trabajo de investigación se enmarca desde el punto de vista preliminar, con el fin de identificar característica teóricas, prácticas y de opinión acerca del modelo educativo implementado actualmente en los programas de estudio en la Universidad Veracruzana. Para ellos se realizó un meta-­‐análisis de las referencias documentales en R de los últimos años que presentan el marco de referencias del comportamiento de la transición e implementación del modelo. Los resultados encontrados son tendientes a presentar de forma inicial características de la concepción del modelo, los enfoques de desarrollo y las ventajas o no implementas del mismo por cada área de formación. Miércoles 16 de Septiembre, 17:00-­‐17:25 hrs Salón Mirage 1 Indicadores en el programa institucional de seguimiento de egresados en la UAQ Ponente: Sara Silva Colaboradora: Liliana Trujillo Gallardo Universidad Autónoma de Querétaro, México. Como se establece en el más reciente plan institucional de desarrollo, la Universidad Autónoma de Querétaro ha establecido el programa de seguimiento de egresados para conocer la forma en que los recién egresados se insertan en el mercado laboral. Esta retroalimentación se realiza mediante una encuesta anual a los egresados de la institución, cuyo diseño tanto de muestra como de instrumento y el análisis de la información obtenida es una actividad conjunta entre las diferentes Facultades, dirigida por la Coordinación General de Seguimiento de Egresados. Al final AME, UAGro | Acapulco, Guerrero, México 55 de este proceso se logra un diagnóstico sobre la situación del egresado, lo que permite el rediseño curricular de los distintos programas educativos así como formular acciones para atender las áreas de oportunidad. Se presenta la metodología de este procedimiento certificado así como los resultados de los años recientes y el impacto que han tenido en la institución a través de los programas derivados de ellos. Jueves 17 de Septiembre, 16:00 -­‐16:25 hrs Salón Mirage 2 Abstencionismo influenciado por la corrupción Ponente: J. Guadalupe Cárdenas Sánchez Colaborador: Andrés Carrazco Chocoteco. Centro de Estudios Sociales y de Opinión Pública (CESOP). Cámara de Diputados, México El abstencionismo representa uno de los puntos más frágiles de régimen democrático mexicano al ser uno de los fenómenos sociales de mayor complejidad para su compresión y análisis. Este tema ha sido estudiado de manera coyuntural, contextualizando la situación de cada región, por lo que en este estudio nos concentraremos en los determinantes del abstencionismo para el caso de México en las elecciones intermedias del 2015. La presente investigación analiza la relación del abstencionismo con sus causas coyunturales y sus componentes sociales para explicar el razonamiento del ciudadano al ausentarse el día de la elección, por medio de un modelo de regresión logística ordinal aplicado a dos encuestas realizadas por el Centro de Estudios Sociales y de Opinión Pública (CESOP), donde se obtuvieron opiniones sobre la percepción y la perspectiva del pasado proceso electoral. Tiene como objetivo principal detectar qué factores perturbaron la decisión del ciudadano para dudar sobre si asistía o no a votar y el efecto que causaron las campañas políticas. El estudio concluye que una de las causas que ha propiciado el abstencionismo es la falta de credibilidad y confianza en el sistema electoral de nuestro país, aunado a esto se encuentra la corrupción y la violencia que están presentes antes, durante y después del día de la elección. AME, UAGro | Acapulco, Guerrero, México 56 Jueves 17 de Septiembre, 16:30 -­‐16:55 hrs Salón Mirage 2 Diagnóstico de la participación ciudadana en el Distrito Federal. Ponente: Juan José Reyes Vázquez Colaborador: J. Guadalupe Cárdenas Sánchez, Centro de Estudios Sociales y de Opinión Pública (CESOP). Cámara de Diputados, México La participación ciudadana es el derecho de los habitantes, vecinos y ciudadanos a intervenir y colaborar, individual o colectivamente, en las decisiones públicas, en la formulación, ejecución y evaluación de las políticas, programas y actos de gobierno. Con la participación se contribuye a la solución de problemas de interés general y al mejoramiento de las normas que regulan las relaciones en la comunidad. La presente investigación analiza exhaustivamente el panorama actual en torno a la participación ciudadana en el Distrito Federal mediante diversas técnicas estadísticas como análisis de correspondencias, CHAID, conglomerados bi-­‐etápicos, regresión logística y análisis multivariado, aplicadas a una encuesta realizada por el Centro de Estudios Sociales y de Opinión Pública (CESOP), en colaboración con el Instituto Electoral del Distrito Federal (IEDF), donde se obtuvieron opiniones sobre los comités ciudadanos y consejos de los pueblos, la consulta ciudadana de presupuesto participativo y la participación ciudadana en general. El estudio concluye con un diagnóstico que visibiliza los retos que enfrentan estos mecanismos y organizaciones de participación, y que contribuye a la generación de estrategias para potenciar el desempeño de los órganos de representación ciudadana, lograr su consolidación y fortalecer la democracia. Viernes 18 de Septiembre, 10:00-­‐10:25 hrs Salón Mirage 1 Teoría de Respuesta al Ítem: Un análisis sobre la estructura del instrumento VFQ-­‐25 aplicado a la evaluación de Calidad de Vida en pacientes miopes operados, en Costa Rica Ponente: Estelina Ortega Jalil1, Colaboradores: 2
Francisco Perdomo Arguello , Ma. Purificación Vicente Galindo3 y Ma. Purificación Galindo Villardón3 1
Universidad de Panamá 2 UNIBE, Costa Rica 3
Universidad de Salamanca, España La Teoría de Respuesta al Ítem (TRI) se constituye como una fundamentación probabilística para medir constructos latentes al entender que los ítems son las unidades básicas de medición dentro de un instrumento. Un reciente estudio sobre la evaluación del cambio en la Calidad de Vida de AME, UAGro | Acapulco, Guerrero, México 57 218 pacientes miopes operados con cirugía de láser Eximer corneal, realizado en la ciudad de San José de Costa Rica (Perdomo, 2015), evidenció cómo los pacientes sometieron a este tipo de cirugía mejoraron significativamente su Calidad de Vida. Para la recolección de los datos se aplicó el instrumento NEI-­‐VFQ-­‐25 que consta de 25 ítems que miden la Calidad de Vida Relacionada con la Visión (CVRV), agrupados en 12 subescalas (García-­‐Catalán et al, 2009). El instrumento debe ser utilizado al menos dos veces en cada paciente y generalmente se utiliza 4 o 5 veces a lo largo del tiempo para poder evaluar el verdadero cambio en la CVRV. Esto implica un tiempo largo de ejecución. Por esta razón, nos planteamos estudiar la capacidad informativa de cada ítem para conocer si es posible simplificar el instrumento sin pérdida de información. Se aplicó el análisis de la TRI utilizando el programa MULTILOG (Thissen, 1991), que incluye las estimaciones de los parámetros utilizando el método de máxima verosimilitud y el modelo de respuestas graduadas, lo que permitió evidenciar la capacidad de información y el poder discriminante de cada ítem. El estudio ha puesto de manifiesto que es factible conseguir un instrumento más simple con la misma capacidad informativa. Viernes 18 de Septiembre, 10:30-­‐10:55 hrs Salón Mirage 1 El entorno y su relevancia en la medición de la Calidad de Vida percibida. María Teresa Celestino Buentello CIEMA La calidad de vida es un término que engloba diversos aspectos que afectan nuestra percepción de la misma. Uno de los aspectos importantes que tiene relativamente poco en ser considerado para la medición de la calidad de vida es el Entorno y esto puede ser debido a la complejidad de este término. Se ha realizado un cuestionario que busca cubrir buena parte de los diferentes aspectos que de acuerdo a diferentes teorías deben ser considerados. En el caso del entorno y con el uso del Análisis Factorial exploratorio se ha optimizado la estructura de más de 50 preguntas en 5 factores con valores aceptables y se hace una comprobación del mismo utilizando el AMOS. Por otro lado para conocer la relación y el comportamiento entre estos factores con la percepción de la calidad de vida en general se realizó un análisis HJ-­‐Biplot con el software MULTBIPLOT. AME, UAGro | Acapulco, Guerrero, México 58 Enseñanza y Divulgación de la Estadística Miércoles 16 de Septiembre, 16:00-­‐16:25 hrs Salón Mirage 2 Una propuesta didáctica para la enseñanza del contraste de hipótesis desde el punto de vista bayesiano Ponente: Norma Edith Alamilla Lopez1 Colaboradores: 2
Álvaro Cortinez Pontoni , José Armando Albert Huerta3 y José Guadalupe Ríos Alejandro3 1
Universidad Politécnica del Centro, Tabasco, México 2
Universidad de Tarapacá, Arica Chile 3
ITESM, México El posicionamiento de la estadística en el proceso educativo ha puesto en evidencia las dificultades de su entendimiento y su interpretación, como lo muestran muchos trabajos (Harris y Kanji, 1988; Vallecillos, 2000; McLean, 2002; Alvarado y Batanero, 2007; Rodríguez y Albert, 2007; Olivo y Batanero, 2008) entre otros. No sólo dificultades de naturaleza cognitiva como interpretaciones erróneas del Valor P, por ejemplo, sino también de naturaleza epistemológica como el sincretismo que se da en los libros de texto y las aulas del enfoque de contraste de hipótesis de Fisher, Neyman-­‐Pearson y el enfoque bayesiano. La gran mayoría de los cursos de estadística de la actualidad están basados en el enfoque clásico. El concepto de probabilidad requiere, desde este punto de vista, una repetición indefinida del experimento en condiciones idénticas, lo cual no siempre se puede realizar. En inferencia estadística donde los contrastes de hipótesis, por ejemplo, se realizan en función de una muestra que por sí sola debe permitir llegar a una decisión sobre los valores poblacionales. El punto de vista bayesiano, por su parte, además toma en cuenta la información previa del investigador. En este trabajo se presenta una propuesta didáctica para enseñar los contrastes de hipótesis utilizando la metodología bayesiana. Se mostrará cómo es posible llegar a conclusiones similares a las clásicas en el caso en que no se tiene información previa, comparables a las que están asociadas al p-­‐valor clásico. AME, UAGro | Acapulco, Guerrero, México 59 Miércoles 16 de Septiembre, 16:30-­‐16:55 hrs Salón Mirage 2 Construcción de la distribución de probabilidad geométrica de una variable aleatoria discreta a partir de una aplicación práctica, con series infinitas Ponente: Jorge Antonio Castillo Medina Miguel A. Herrera Miranda, Juan Villagómez Méndez, José Maciste Mendoza Millán e Israel Herrera Miranda Universidad Autónoma de Guerrero, México La enseñanza de la estadística ha presentado un gran desarrollo en los últimos años debido a su creciente aplicación en varios campos de la ciencia, la tecnología y las disciplinas sociales y administrativas. Gran parte de los países han dedicado grandes esfuerzos a diseñar currículos y materiales específicos, detectándose dificultades en el proceso de enseñanza-­‐aprendizaje de la probabilidad y la repercusión que tiene en la calidad de la educación. El tema que se propone nace del interés de contribuir en la enseñanza de la Probabilidad de Variables Aleatorias Discretas y Continuas. En específico, abordamos el tema de distribución de probabilidad geométrica, al igual presenta dificultades de significado, comprensión y aplicación por parte del estudiante. Esta problemática nos ha llevado a una reflexión profunda tanto de los profesores como de los alumnos para proponer acciones didácticas que permitan una mejor comprensión de estos temas así como la aplicación y significación del objeto de estudio. El conocimiento que se requiere para abordar la problemática de la distribución de probabilidad geométrica tiene su fundamento cognoscitivo en el experimento de Bernoulli, por lo que para desarrollar esta demostración requiere de habilidad por parte de los estudiantes en el manejo de series y sucesiones con un nivel superior en álgebra. Aunado a esta base de conocimiento, se requiere manejar conceptos estadísticos de variable aleatoria y probabilidad de un suceso. Así, estudiantes y maestros tendrán la posibilidad de definir y construir la distribución de probabilidad, que cumpla con las propiedades teóricas de la distribución geométrica. AME, UAGro | Acapulco, Guerrero, México 60 Miércoles 16 de Septiembre, 17:00-­‐17-­‐25 hrs Salón Mirage 2. Guía práctica para la solución de problemas de probabilidad Ponente: Topiltzin González Corrales Colaboradores: Miguel Apolonio Herrera Miranda, Juan Villagómez Méndez e Israel Herrera Miranda Universidad Autónoma de Guerrero, México El estudio de la probabilidad aparece en México en 1950, la época propiciaba el desarrollo económico y educativo especialmente en el IPN y la UNAM, a la par con las políticas públicas educativas en el país los centros educativos se convirtieron en los espacios privilegiados para difundir la nueva cultura estadística. El presente trabajo tiene como objetivo aportar mediante el desarrollo de técnicas y estrategias apoyado con software matemático MATHEMATICA Ver. 8 un camino para facilitar el proceso de la Enseñanza Aprendizaje, su desenvolvimiento y diversificación de las diferentes situaciones típicas en el planteamiento y resolución de problemas de probabilidades. dentro de los objetivos tenemos el diseño y construcción de técnicas y estrategias para la resolución de problemas, identificar las técnicas y estrategias que faciliten el proceso enseñanza aprendizaje de la probabilidad en el nivel superior, Incidir en los diseños y elaboración de programas específicos para alumnos con dificultades en el aprendizaje de las Matemáticas (probabilidad). Jueves 17 de Septiembre, 11:00 -­‐11:25 hrs Salón Monte Carlo Promoviendo la lectura crítica de resultados de estudios estadísticos en un curso introductorio de estadística. Roberto Hernández Ramírez Universidad de Monterrey El objetivo de la mayoría de los cursos introductorios de estadística se enfoca en proveer a los estudiantes de los elemento básicos de los métodos de la estadística e ilustrar su aplicación en diferentes áreas del quehacer humano. No obstante es necesario que los estudiantes también desarrollen estrategias que le permitan interpretar los resultados de estudios estadísticos no solamente desde el contexto de la metodología estadística sino también desde el contexto en el que estos estudios se llevan a cabo. El objetivo de esta presentación es la de compartir una serie de actividades de aprendizaje orientadas a desarrollar en los estudiantes la competencia para hacer una lectura crítica de reportes de estudios estadísticos que aparecen en los medios mediante la aplicación de criterios de validación y la búsqueda de elementos contextuales entorno a los estudios para darle un sentido más objetivo a dichos resultados. Adicionalmente estas AME, UAGro | Acapulco, Guerrero, México 61 actividades tienen por objetivo confrontar ideas erróneas en torno a la validez, confiabilidad y relevancia de los resultados de estudios estadísticos, en particular, en las encuestas de opinión. Jueves 17 de Septiembre, 11:30 -­‐11:55 hrs Salón Monte Carlo Motivación y uso de la tecnología en un curso de la estadística para estudiantes de trabajo social Ponente: Álvaro Cortinez Pontoni1 Colaborador: José Armando Albert Huerta2 1
Universidad de Tarapacá, Chile 2
Instituto Tecnológico y de Estudios Superiores de Monterrey, México Es muy conocida la dificultad que tienen los estudiantes de carreras lejanas a las matemáticas con asignaturas que son esenciales en su formación. La estadística suele presentar grandes problemas para los futuros trabajadores sociales, a pesar de ser la base para muchos análisis que se deben realizar en sus diferentes investigaciones. El trabajo que se presenta, se basa en un curso de Estadística de forma asistida con un programa computacional, SPSS, para la carrera de pregrado de Trabajo Social, en la Universidad de Tarapacá de Chile. En esta investigación se reporta la evolución de la motivación hacia la Estadística a lo largo del curso y de su relación con el uso de la tecnología desde que es un artefacto hasta que se ha convertido en una herramienta necesaria para su actividad estadística. Viernes 18 de Septiembre, 11:00-­‐11:25 hrs Salón Mirage 1 Enseñanza de la probabilidad a nivel universitario Ponente: Elsa Edith Rivera Rosales1 Colaboradores: 1
Rogelio Aguilar Veliz , Jacob Wilfrido Pérez García2, Luis Antonio García Trujillo1 y María Teresa Romero De la Cruz1 1
Universidad Autónoma de Coahuila, México 2
Colegio de Estudios Científicos y Tecnológicos del Estado de Coahuila, México La enseñanza de la probabilidad a nivel universitario es base para una formación sólida de los alumnos de la Facultad de Ciencias Físico Matemáticas de la Universidad Autónoma de Coahuila. El AME, UAGro | Acapulco, Guerrero, México 62 mapa curricular de la Licenciatura en Matemática Aplicadas contempla 3 asignaturas de Estadística e Ingeniería Física contempla 2, por lo que este estudio pretende que los estudiantes del programa educativo logren desarrollar una serie de competencias y conceptos estadísticos que faciliten su inclusión a otras ciencias. Es de vital importancia que los alumnos desarrollen la aplicación de conocimientos a situaciones prácticas. Por lo cual el estudio aborda conceptos desde la noción hasta la distribución de probabilidad en casos discretos y continuos a través de una hoja de trabajo como mediador del aprendizaje. El diseño de una hoja de trabajo es un método de mediación y evaluación en la enseñanza y aprendizaje de la probabilidad, para ello se selecciona un tema del currículo de la materia de Estadística, la hoja estará estructurada en las secciones de: Diagnóstico, Motivación, Conocimientos y habilidades básicas, En acción y Evaluación. En general una hoja de trabajo es un instrumento que puede ser utilizado por maestros con fines de enseñanza o aprendizaje, ya sea para mejorar técnicas de enseñanza o recabar información útil sobre alguna asignatura, en nuestro caso Estadística. Se decide estudiar la noción de probabilidad y distribución de probabilidad ya que es un tema fundamental en el estudio de la probabilidad, es la base para poder entender conceptos más complejos e iniciarse en el estudio de distribuciones especiales, tal es el caso de la distribución Binomial, Poisson, Hipergeométrica, entre otras. Viernes 18 de Septiembre, 11:30-­‐11:55 hrs Salón Mirage 1 Enseñanza en Ingeniería mediante un Modelo Estadístico Jorge Domínguez CIMAT, México En esta presentación se mostraran una serie de casos en el área de ingeniería, luego se irá mostrando secuencialmente los pasos que sigue la estadística para plantear y resolver un problema de investigación con aplicación en la industria. La finalidad es que el asistente conozca una propuesta metodológica de acercamiento entre lo que se aprende en la universidad y su práctica en procesos industriales. El modelo estadístico planteado pretende ligar los conceptos de los temas básicos en la enseñanza de la estadística, hasta los conceptos de análisis de la varianza. Se ilustrará el procedimiento con aplicación a lo que se comprende como función de deseabilidad en el contexto del diseño de parámetro. Con este enfoque se resuelven problemas de optimización en procesos de ingeniería con varias respuestas. AME, UAGro | Acapulco, Guerrero, México 63 Estadística y Medio Ambiente Jueves 17 de Septiembre, 11:00 -­‐11:25 hrs Salón Mirage 1 Modelo estadístico de predicción de riesgo fitosanitario por plagas cuarentenarias Ponente: Martha Elva Ramírez Guzman1 Colaboradora: Beatriz Arreola Martinez2 1
Colegio de Postgraduados, México 2
Universidad Autónoma de San Luis Potosí, México Desarrollar un modelo estadístico para la predicción del riesgo fitosanitario por plagas cuarentenarias, es una prioridad para el Servicio Nacional de Sanidad, Inocuidad y Calidad Agroalimentaria (SENASICA-­‐SAGARPA). Lo anterior debido a las pérdidas económicas que sufre el campo mexicano por plagas y enfermedades. Estos organismos se encuentran asociados a los productos de importación como son: frutas, hortalizas, granos y semillas. Los modelos estudiados en esta investigación se dividen en dos secciones, por un lado aquellos que consideran conteos de detecciones, distribución asimétrica y exceso de dispersión, y por el otro, aquellos que además de las características antes mencionadas, incluyen la presencia de exceso de ceros. Se concluye que la regresión binomial negativa fue la mejor para explicar la diferencia entre grupos epidemiológicos y tipos de oficinas de inspección sanitaria (OISA) respecto al número de detecciones. Las regresiones de exceso de ceros y Hurdle proporcionan la probabilidad de que ocurran cero detecciones, así como la probabilidad de que rebasen este umbral, respectivamente. Las siguientes probabilidades de riesgo se encontraron: 6,55% para malezas, 2.04%, para nematodos, 1.7% para hongos y bacterias, 1.1% para virus, ácaros e insectos y 0.02% para protozoarios, viroides y mollicute. Por cada kg importado existe una probabilidad de 1% de encontrar plaga. Los resultados del modelo podrían justificar una nueva reorganización de los recursos económicos y humanos para disminuir el riesgo fitosanitario en México. AME, UAGro | Acapulco, Guerrero, México 64 Jueves 17 de Septiembre, 11:30 -­‐11:55 hrs Salón Mirage 1 Degradación del plaguicida 2,4-­‐D en agua subterránea mediante Foto-­‐Fenton a pH cercano a la neutralidad Ponente: Cristian Eduardo García Bermúdez Colaboradores: Ángela Patricia Cadena Ramírez, Héctor Mario Gutiérrez Zapata y Karen Lorena Rojase, Mercedes Andrade Bejarano Universidad del Valle, Colombia Se ha demostrado que el Proceso Avanzado de Oxidación foto-­‐Fenton tiene la capacidad descomponer la materia orgánica recalcitrante (plaguicidas) y realizar la desinfección en forma simultanea (Malato et al. 2009). Se plantea un diseño experimental que permita establecer el efecto que producen cinco iones (Carbonatos, Nitratos, Cloruro, Fosfato y Manganeso) presentes en aguas subterráneas y su respectiva concentración (alta y baja), en la degradación del plaguicida 2,4-­‐D mediante el proceso foto-­‐Fenton a pH cercano a la neutralidad utilizando el Hierro natural presente en el agua. Jueves 17 de Septiembre, 16:00 – 16:25 hrs Salón Mirage 1 Determinación de los factores de éxito o fracaso de proyectos forestales comunitarios en México, usando STATA Ponente: Humberto Martínez Bautista Colegio de Postgraduados, México El propósito fue determinar los factores sociales, económicos y ambientales que influencian la probabilidad de éxito (o fracaso) de proyectos maderables con financiamiento gubernamental en México. Los resultados tienen relevancia para diseñar programas públicos efectivos orientados a mitigar la pérdida de la biodiversidad y la persistencia de la pobreza en la región. Siguiendo el esquema de la silvicultura comunitaria en América Latina, el Banco Mundial financió en México, entre 2004 y 2008, 96 proyectos en 68 comunidades. Utilizamos nueve factores y sus niveles (variables explicativas) para explicar el éxito o fracaso de los proyectos (variable respuesta). Nuestras fuentes de información fueron reportes oficiales y entrevistas estructuradas a conocedores (informantes clave) elegidos de forma dirigida. Usando análisis de asociación, correlación y modelos de regresión logística encontramos que el capital social fue el factor más importante para explicar tanto la probabilidad de éxito como de fracaso. Un nivel de capital social alto explicó más del 43 % de la probabilidad de éxito mientras que los niveles bajo y medio explicaron casi el 55 % de la probabilidad de fracaso. Encontramos también que: el tipo de AME, UAGro | Acapulco, Guerrero, México 65 proyecto influye fuertemente en el éxito o fracaso del mismo; la continuación de los proyectos, no necesariamente incrementa su probabilidad de éxito; por último, el tipo de propiedad social no determina el éxito o fracaso de los proyectos. Palabras clave: Desarrollo forestal comunitario, silvicultura comunitaria, capital social. Jueves 17 de Septiembre, 16:30 – 16:55 hrs Salón Mirage 1 Predicción de lluvias en la Ciudad de México por análisis de correlación canónica a partir de la temperatura de la superficie marina. Ponente: Violeta de la Huerta Contreras1 Colaboradora: Martha Elva Ramírez Guzman2 1
INEE, México 2
Colegio de Postgraduados, México El nivel demográfico y cosmopolita de la Ciudad de México más la creciente urbe, meritan la aplicación de técnicas predictivas para prevenir riesgos por lluvias. El método de análisis de correlación canónica (ACC) es ampliamente usado para predicciones pluviales por diversas agencias meteorológicas en el mundo, consistiendo éste en emplear las anomalías de las temperaturas de la superficie de los océanos como predictores. Por lo que el propósito de este trabajo es estudiar cómo estas anomalías ajustan al modelo de predicción para la región de la Ciudad de México y estados circunvecinos. Se emplea la base MAYA 0.1 de precipitaciones del año 1961 al 2000. Aplicando no estacionariedad y componentes principales previos al ACC, el modelo muestra un ajuste aceptable con un valor MSE de 35.9 unidades de dispersión. La esquematización gráfica se hace empleando las técnicas de interpolación Kriging y el procedimiento SIM2D de SAS. AME, UAGro | Acapulco, Guerrero, México 66 Estadística y Salud Pública Viernes 18 de Septiembre, 10:00-­‐10:25 hrs Salón Mirage 2 Plomo y estrés prenatal, factores que afectan el neurodesarrollo de los niños: evaluación de efectos a los 2 años de vida a partir de modelos estructurales. Ponente: Belem Trejo Valdivia Colaboradoras: Marcela Tamayo y Ortiz y Martha Ma. Téllez-­‐Rojo Solís Instituto Nacional de Salud Pública, México Los patrones de asociación longitudinal entre la exposición a plomo y a estrés prenatales con el neurodesarrollo de los niños no han sido estudiadas. En este proyecto, se analizó la información de una cohorte de 744 niños mexicanos del estudio PROGRESS (Programming Research in Obesity, Growth, Environment and Social Stressors) para identificar y evaluar las relaciones entre plomo prenatal en sangre (2º y 3er trimestre de embarazo) y estrés psicosocial (medido en intensidad y en diversidad por medio del cuestionario CRYSIS) de la madre sobre los puntajes cognitivo y de lenguaje de la prueba Bayley III de los niños a los 2 años de edad. El abordaje metodológico fue a partir de ecuaciones estructurales para determinar la relevancia de asociaciones directas e indirectas entre estos puntajes y exposición prenatal a plomo y estrés, junto con peso al nacer, edad gestacional y sexo del niño, así como con escolaridad de la madre y el resultado del inventario para medir habilidades parentales (HOME inventory). Viernes 18 de Septiembre, 10:30-­‐10:55 hrs Salón Mirage 2 Modelo de ecuaciones estructurales para explicar la satisfacción global en consulta externa de hospitales generales Ponente: Flaviano Godínez Jaimes Colaborador: Ramón Reyes Carreto Universidad Autónoma de Guerrero, México El presente trabajo evalúa los efectos que las variables latentes instalaciones, organización y acto médico tienen sobre la satisfacción global de los usuarios de consulta externa de Hospitales Generales del estado de Guerrero. Se realizó un estudio transversal analítico en seis de los nueve hospitales generales del estado. La muestra total estuvo conformada por 1140 usuarios de AME, UAGro | Acapulco, Guerrero, México 67 consulta externa. Se plantean y evalúan tres posibles modelos de ecuaciones estructurales para analizar las relaciones entre las tres variables latentes y la satisfacción global. Viernes 18 de Septiembre, 11:00-­‐11:25 hrs Salón Mirage 2 Muestreo y resultados del estudio de salud y nutrición de niños en edad preescolar del Sureste de México Ponente: Fidel Ulín Montejo Colaboradores: Jorge Elías Torres López, Marcelina Cruz Sánchez y Rosa Ma. Salinas Hernández Universidad Juárez Autónoma De Tabasco, México Se describe el diseño, la cobertura poblacional y los resultados de una encuesta regional de salud y nutrición en niños en edad preescolar en dos estados del sureste de México. El objetivo principal de esta investigación fue describir la frecuencia y niveles de anemia infantil, así como las variables nutricionales asociados a los niveles de hemoglobina. El diseño de esta encuesta se fundamenta en un muestreo aleatorio estratificado multi-­‐etapas, con el que se obtuvieron datos sobre niveles de hemoglobina, índices de masa corporal y variables del entorno familiar. La tasa de respuesta de los hogares seleccionados bajo el esquema del muestreo descrito fue del 91%, obteniéndose información de 735 hogares en los estados de Campeche y Tabasco, de los cuales se obtuvieron 988 niños entrevistados y clasificados por edad. El diseño probabilístico del muestreo para este estudio, así como su cobertura poblacional, permitieron generar inferencias sobre las condiciones de salud y nutrición infantil; así también permitió realizar un análisis sobre la cobertura de los programas de salud infantil y un diagnóstico sobre el acceso a servicios de salud. Viernes 18 de Septiembre, 11:30-­‐11:55 hrs Salón Mirage 2 Extensiones de meta-­‐análisis de efectos aleatorios Russell James Bowater Universidad Autónoma de Querétaro, México El meta-­‐análisis es el método para formar estimadores combinando resultados de múltiples estudios científicos que versan sobre asuntos similares. Un meta-­‐análisis de efectos fijos supone que cada estudio en el meta-­‐análisis estima el mismo valor de un parámetro dado de la población. El supuesto en que se basa un meta-­‐análisis de efectos aleatorios es que el valor del parámetro para cada estudio es elegido al azar de una población. En esta plática se introduce el modelo estándar de meta-­‐análisis de efectos aleatorios y se discute varias maneras en que se puede ajustar este modelo. En la segunda parte de la plática se presentan varias extensiones de este modelo estándar incluyendo la idea, un poco rara, de hacer un meta-­‐análisis de varios meta-­‐
análisis. AME, UAGro | Acapulco, Guerrero, México 68 Modelos Lineales Miércoles, 16 se Septiembre, 11:00 -­‐11:25 hrs Salón Luxor 2 Modelos mixtos en el estudio de retención de metales pesados por el micelio de tres cepas del hongo de la pudrición blanca Pleurotus spp Ponente: Gladys Linares Fleites Colaboradores: Marco Marín Castro, José Víctor Tamariz Flores y Rosalía Castelán Vega DICA -­‐ ICUAP -­‐ BUAP El uso de los hongos de la pudrición blanca es una herramienta biológica en los procesos de remoción metálica, debido a varias características entre las que destaca su crecimiento vigoroso que permite que su micelio colonice diferentes sustratos y pueda acceder a los contaminantes en suelo y agua. El presente estudio tuvo como objetivos evaluar y comparar la capacidad de tres cepas del hongo Pleurotus spp, para retener mediante procesos de biosorción, concentraciones de Plomo y Cadmio presentes en agua residual municipal de la ciudad de Puebla, México. La herramienta estadística que permite explicar mejor la retención de estos metales pesados, según el experimento diseñado, es el modelo lineal mixto de medidas repetidas. En el trabajo se estiman los parámetros desconocidos del modelo establecido, se analiza la bondad del mismo y el cumplimiento de las suposiciones. Los resultados obtenidos, utilizando el lenguaje R, conllevan al planteamiento de la posible utilización de la biomasa de este hongo de la pudrición blanca en la propuesta para remoción de metales pesados en aguas residuales. Miércoles 16 de Septiembre, 11:30-­‐ 11:55 hrs Salón Luxor 2 Propuesta de Inclusión de una Covariable Funcional a un Modelo Lineal Mixto Ponente: Gustavo Adolfo Gómez Escobar1 Colaboradores: Mercedes Andrade Benjarano1 y Ramón Giraldo2 1
Universidad del Valle, Colombia 2
Universidad Nacional de Colombia En el presente trabajo se presenta una propuesta metodológica para la inclusión de una covariable funcional a un Modelo Lineal Mixto, usando para esto la representación de los datos funcionales por medio de sumas de funciones básicas (B-­‐Spline, Fourier, etc.). Para ilustrar la propuesta se modela la concentración de clorofila para plantas de Ají de Tabasco los cuales fueron sometidos a diferentes condiciones de estrés: 4 niveles de fertilizante y 4 niveles de riego y como covariable se AME, UAGro | Acapulco, Guerrero, México 69 tiene la Firma Espectral de la planta, la cual es la fracción de radiación que es reflejada o trasmitida del toda la radiación incidente en función de diferentes longitudes de onda. Para este estudio se cuenta con una resolución de 0.5 nanómetro (nm) y la región espectral que se considera oscila entre 400 a 949.5 nm, es decir, que una firma espectral consta de información de reflectancia para 1100 longitudes de onda, lo cual según Ferraty and Vieu (2006) y Ramsay y Silverman (2005), la firma espectral se puede considerar como una dato funcional. Miércoles 16 de Septiembre, 12:00 -­‐12:25 hrs Salón Luxor 2 Regresión Poisson inflada con ceros usando liga normal sesgada Ponente: Francisco Ariel Vázquez Rodríguez Colaborador: Paulino Pérez Rodríguez 1
Colegio de Postgraduados, Campus Montecillo En el presente trabajo se propone utilizar la liga NS (Normal Sesgada) en el modelo ZIP (Zero-­‐
Inflated Poisson). El modelo ZIP es ampliamente utilizado cuando la variable respuesta contiene muchos ceros. El objetivo es modelar la probabilidad p de los ceros estructurales usando la función liga NS. La liga propuesta es una generalización de la liga probit que se obtiene cuando l = 0 y la liga corresponde a la media normal que se obtiene cuando l tiende a infinito. La función liga propuesta es flexible ya que permite modelar a p de forma asimétrica. El problema de estimación se reduce utilizando el algoritmo Esperanza-­‐Maximización (EM). El algoritmo se implementa en el programa R. Se presentan algunos resultados de simulación y un ejemplo de aplicación con datos reales. AME, UAGro | Acapulco, Guerrero, México 70 Muestreo Jueves 17 de Septiembre, 12:30 – 12:55 hrs Salón Monte Carlo Predicción no paramétrica de totales en poblaciones finitas Luis Fernando Contreras Cruz Universidad Autónoma Chapingo, México Bajo el paradigma de muestreo basado en modelo, se presenta una forma de estimar el total poblacional bajo el enfoque de predicción no paramétrica. Para evaluar el desempeño del estimador no paramétrico se hace un estudio de simulación Monte Carlo. A partir de este estudio, se observa empíricamente un buen desempeño del estimador propuesto en comparación del estimador paramétrico. En este trabajo solamente se usa una variable auxiliar, pero fácilmente puede extenderse a más de una variable auxiliar. Finalmente, una población real es analizada con esta metodología presentada. Jueves 17 de Septiembre, 13:00 – 13:25 hrs Salón Monte Carlo Estimadores de calibración para totales y proporciones en el sector turismo Ponente: Agustín Santiago Moreno Colaboradores: José Maclovio Sautto Vallejo y Ezequiel Mayarez Cortés Universidad Autónoma de Guerrero, México Deville y Särndal (1992), introdujeron la teoría general de estimadores decalibración para totales poblacionales. El objetivo central de esta teoría consiste en estimar el total poblacional, extendiendo una idea de calibración de Lemel (1976), Deville (1988), usada en una población con totales conocidos para modificar los pesosde diseño de muestreo básicos que aparecen en los estimadores de Horvitz-­‐Thompson, por nuevos pesos, tan próximos como sea posible a los pesos dediseño para una métrica dada, que satisfagan una ecuación de calibración. Minimizando la distancia entre los pesos, se hallan los pesos de calibración y se estima el total usando los pesos calibrados. Estevao y Särndal (2000), probaron que las distintas medidas de distancia propuestas en los estimadores de calibración producen resultados aproximadamente idénticos, por esa razón desarrollaron una aproximación alternativa, la forma funcional de los pesos calibrados. Esta aproximación se puede utilizar para estimar parámetros más complejos como varianzas poblacionales, funciones de distribución o cuantiles. En el presente trabajo se abordala estimación calibrada para proporciones a partir de las ideas iniciales propuestas por Martínez et al. (2010) y usando la forma funcional de los pesos de calibración se obtienen estimadores para totales y proporciones para áreas pequeñas, que pueden adaptarse a la estimación de características AME, UAGro | Acapulco, Guerrero, México 71 numéricas en encuestas turísticas, para el caso de muestreo aleatorio simple o aleatorio estratificado. Jueves 17 de Septiembre, 13:30 – 13:55 hrs Salón Monte Carlo Estimación de los asistentes a un evento en un recinto abierto José Elías Rodríguez Muñoz Universidad de Guanajuato, México Los organizadores de eventos artísticos u organizadores de ferias regionales o nacionales tienen la necesidad de evidenciar el número de asistentes a dichos eventos por cuestiones de mercadotecnia. Evidenciar este número puede dificultarse si el evento se realiza en recintos abiertos, lugares donde no se tiene un control sobre el número de personas que entran o salen del recinto. Por este motivo es de importancia la estimación de dicho número de asistentes en eventos realizados en recintos abiertos. En el presente trabajo se expone una propuesta de como estimar el número de asistentes utilizando muestreo de poblaciones finitas y la distribución hipergeométrica negativa. La propuesta se ilustra con la estimación de la afluencia a la Feria Nacional de San Marcos en años recientes. AME, UAGro | Acapulco, Guerrero, México 72 Pruebas de Hipótesis Miércoles 16 de Septiembre, 11:00-­‐11:25 hrs Salón Monte Carlo Transformaciones para probar la distribución gaussiana inversa Ponente: José A. Villaseñor Alva Colaboradora: Elizabeth González Estrada Colegio de Postgraduados, México. La familia de distribuciones Gaussiana Inversa (GI) se usa para modelar datos positivos con asimetría positiva en varios campos de la investigación científica. Aquí se considera el problema de probar la hipótesis compuesta de la distribución GI a partir de una muestra aleatoria. Existen varias pruebas para esta familia de distribuciones basadas en la función de distribución empírica; sin embargo, las estadísticas de prueba de muchas de éstas tienen una distribución nula que depende del parámetro de forma, por lo que hacen uso de remuestreo paramétrico para calcular las constantes críticas. En esta plática se discuten tres pruebas basadas en una trasformación de los datos. Las estadísticas de prueba no dependen del parámetro de forma por lo que no es necesario usar tablas o remuestreo paramétrico para formular la prueba. Se discuten resultados de simulación para evaluar y comparar las pruebas propuestas en términos de su tamaño y potencia contra algunas alternativas clásicas para esta familia de distribuciones y contra otra prueba basada en una razón de verosimilitudes empírica publicada por Vexler et al. (2011) Miércoles 16 de Septiembre, 11:30 – 11:55 hrs Salón Monte Carlo Caracterización de la distribución de los valores P en las pruebas paramétricas para las poblaciones normales Ponente: Pedro Agustín Monterrey Gutiérrez Universidad del Rosario, Colombia Las Pruebas de Hipótesis son utilizadas profusamente en los análisis de datos pero, en general, la naturaleza aleatoria del valor P no es considerada en tales aplicaciones. La función de potencia y la distribución de probabilidad del valor P se encuentran relacionadas, esta relación debería ser una componente tanto de la aplicación de las pruebas de hipótesis como de la determinación del tamaño de la muestra; sin embargo, este no es en general el caso en las aplicaciones; posiblemente debido a dos factores: primero muchas personas ignoran el carácter aleatorio del valor P y segundo hay una falta de información al respecto. Algunas publicaciones han presentado algunas características de la distribución del valor P como la media y la mediana pero esas AME, UAGro | Acapulco, Guerrero, México 73 caracterizaciones no habían podido ser obtenidas para todas las pruebas paramétricas asociadas a la distribución normal. En este reporte se presenta una caracterización completa de la distribución del valor P para las hipótesis unilaterales y bilaterales para los parámetros de una y dos poblaciones normales; obteniéndose la distribución de probabilidad y derivándose de ella los percentiles, con lo que por primera vez se puede cuantificar la asimetría de la distribución de los valores P, caracterizándose el comportamiento de los valores P a partir de su mediana. Adicionalmente se resalta la relación entre la función de potencia y la distribución de los valores P. Miércoles 16 de Septiembre, 12:00 – 12:25 hrs Salón Monte Carlo Pruebas de ajuste para la distribución Gaussiana inversa Ponente: Adrián Ochoa Sánchez Colaboradora: Elizabeth González Estrada Programa de Estadística, Colegio de Postgraduados, México La distribución Gaussiana Inversa tiene aplicaciones en las áreas de análisis de supervivencia, confiabilidad, finanzas, etc. Aquí se presentan dos procedimientos para probar bondad de ajuste de esta distribución cuando sus parámetros son desconocidos. Las observaciones se transforman de tal manera que el problema se traduce en probar que se tiene una muestra aleatoria de la distribución Gamma con parámetro de forma 0.5 y algún parámetro de escala positivo y desconocido. Se presentan gráficas que resultaron de un estudio de simulación Monte Carlo en donde se verifica que estos dos procedimientos preservan el tamaño de la prueba y muestran buenas propiedades de potencia contra las distribuciones alternativas Weibull, Gamma y Log– Normal, las cuales son también son usadas para modelar datos con asimetría positivo. AME, UAGro | Acapulco, Guerrero, México 74 Simulación Jueves 17 de Septiembre, 12:30-­‐12:55 hrs Salón Mirage 1 Generadores Fiduciales Ponente: Edilberto Nájera Rangel1 Colaborador: Federico O’Reilly Togno2 1
Universidad Juárez Autónoma de Tabasco, México 2
Universidad Nacional Autónoma de México La inferencia fiducial ha experimentado un notable resurgimiento en los últimos años. En este trabajo se hace una breve presentación del enfoque visto por Brillinger (1962) de la inferencia fiducial para las distribuciones multivariadas, así como del generador fiducial introducido por Engen y Lillegaard (1997), mostrando la conexión entre ambos procedimientos. Se obtienen las distribuciones fiduciales de los parámetros de la distribución Gaussiana inversa y se comparan con las correspondientes distribuciones finales Bayesianas, cuando las distribuciones iniciales son la de Jeffreys y la de Jeffreys modificada. Jueves 17 de Septiembre, 13:00 – 13:25 hrs Salón Mirage 1 Sobre la estimación de la distribución Pareto tipo IV Ponente: Marisol López Cerino Colaboradores: Javier Suárez Espinoza, Humberto Vaquera Huerta Colegio de Postgraduados, México. En este trabajo se presentan los resultados encontrados de la comparación del método de mínima distancia y el método de máxima verosimilitud para la estimación de parámetros de la distribución Pareto tipo IV. AME, UAGro | Acapulco, Guerrero, México 75 Jueves 17 de Septiembre, 13:30 – 13:55 hrs Salón Mirage 1 Comparación de métodos de optimización para modelos de regresión no lineales Ponente: Andrés Felipe Ochoa Muñoz Colaboradores: Cristian García, John Alejandro Delgado Amén Universidad del Valle, Colombia En la modelación estadística es común encontrar fenómenos que no se pueden explicar bajo el escenario lineal y es en estos casos que se recurre a los modelos no lineales, generalmente en este tipo de modelos se presenta con frecuencia que se requiere la utilización de métodos de optimización para maximizar la función de verosimilitud y de este modo estimar los parámetros del modelo. En los modelos no lineales se utilizan procedimientos iterativos que dependen de valores semilla para iniciar el procedimiento, sin embargo algunos de estos valores al ser utilizados no posibilitan encontrar un valor máximo, lo que se traduce en problemas de convergencia en los algoritmos, es en este caso, que se propone comparar diferentes métodos de optimización bajo diferentes escenarios de simulación para estimar los parámetros. Los métodos de optimización que se utilizan en este estudio y se comparan en función de sus propiedades de convergencia y estimación son Newton Raphson, Compromiso de Marquardt y el método del descenso más pronunciado o método del gradiente. AME, UAGro | Acapulco, Guerrero, México 76 Series de Tiempo Jueves 17 de Septiembre, 11:00-­‐11:25 hrs Salón Mirage 2 Comparativo de pronósticos univariados y multivariados con datos de mortalidad mexicana Ponente: Jose Eliud Silva Urrutia Colaboradores: Héctor Ruiz y Adriana Santiago Universidad Anahuac México, Norte Con base en estadísticas oficiales de defunciones, se seleccionan 5 de las principales causas de mortalidad en México con periodicidad mensual. Se realizan pronósticos a través de tres vías distintas: suavizamiento, modelos de series de tiempo siguiendo la metodología ARIMA y la metodología VAR. Se comparan los pronósticos con base en estadísticos de precisión y se concluye que algunos casos lo más sencillo es tan preciso como lo complejo. Jueves 17 de Septiembre, 13:30 – 13:55 hrs Salón Mirage 2 Una Prueba de Bondad de Ajuste para el Modelo Autorregresivo de orden p de Series de Tiempo Ponente: Enrique Rivera Castillo Colaboradores: José A. Villaseñor Alva y Elizabeth González Estrada Colegio de Postgraduados, México En este trabajo, se propone una prueba estadística de bondad de ajuste para el modelo Autorregresivo de orden p de una serie de tiempo, fundamentada en la función de densidad espectral y la forma en que se relaciona con la función de autocovarianza. Las propiedades de la prueba propuesta relativas a su tamaño y su potencia contra algunos modelos alternativos de series de tiempo conocidos son presentadas con base en los resultados de un estudio de simulación. Se muestra la relevancia de la aplicación de este tipo de pruebas en problemas que, de acuerdo a las características particulares de las observaciones, se recomienda considerarlos en el dominio espectral o de la frecuencia y no así en el dominio del tiempo. AME, UAGro | Acapulco, Guerrero, México 77 Jueves 17 de Septiembre, 12:30-­‐12:55 hrs Salón Mirage 2 Hierarchical Merger Algorithm y la Distancia en Variación Total: Una Nueva Propuesta para Clustering de Series Temporales. Ponente: Carolina de Jesús Euán Campos1 Colaboradores: Joaquín Ortega1 y Hernando Ombao2 1
Centro de Investigación en Matemáticas, A.C. 2
University of California, Irvine En series de tiempo el análisis de conglomerados se clasifica en tres tipos según la variable en la que se base: datos crudos, alguna característica del modelo ó modelos ajustados a los datos. El procedimiento que se considera en este trabajo está comprendido en el segundo tipo, donde la característica de interés es la densidad espectral de la serie. Esto es, el nivel de similitud entre dos series está definido en términos de la distancia en variación total entre las densidades espectrales correspondientes. En este trabajo se hace una modificación a los modelos jerárquicos aglomerativos para utilizar propiedades del análisis espectral de series de tiempo. El método propuesto es aplicado a un conjunto de datos de señales del cerebro (EEG), donde el uso de modelos de conglomerados sirve como aproximación para estudiar la activación espacial de distintas regiones del cerebro durante un estado determinado. Jueves 17 de Septiembre, 13:00 – 13:25 hrs Salón Mirage 2 Prueba de persistencia en series temporales basado en medidas no paramétricas Ponente: Israel Martínez Hernández1, Colaboradores: Graciela González Farías1 y Nelson Muriel2 1
Centro de Investigación en Matemáticas, A.C. 2
Benemérita Universidad Autónoma de Puebla, México En este trabajo se considera el concepto de memoria larga en series temporales, así como la “identificación” de este mismo, basándose en la teoría de la información mutua, cópulas y cumulantes de orden superior. Se propone una prueba conjunta no paramétrica, basada en estas tres medidas, con el objetivo de mejorar la potencia de la prueba. Se hace un estudio de simulación para procesos autoregresivos con ruido fraccionario, y procesos bilineales, entre otros. AME, UAGro | Acapulco, Guerrero, México 78 Teoría de Valores Extremos Jueves 17 de Septiembre, 11:00-­‐11:25 hrs Salón Luxor 2 Dependencia en extremos espaciales Ponente: José del Carmen Jiménez Hernández Colaborador: Humberto Vaquera Huerta Colegio de Postgraduados, México Los eventos extremos son de particular importancia por los efectos que causan en la vida cotidiana. En las últimas décadas se ha dado especial atención al estudio de éstos, como por ejemplo en fenómenos meteorológicos. En este trabajo se estudia el enfoque de procesos max-­‐
stable para analizar la dependencia de valores extremos en el espacio-­‐ tiempo, y se aplican los modelos de Smith y el de Schlather a datos de contaminación por monóxido de carbono en la ciudad de México. Jueves 17 de Septiembre, 11:30 – 11:55 hrs Salón Luxor 2 Modelación de temperaturas mínimas en el Estado de México aplicando Teoría de Valores Extremos y métodos Geoestadísticos Ponente: Omar Reyes García, Colaborador: Humberto Vaquera Huerta Colegio de Postgraduados, México Temperaturas ambientales muy bajas (< 0oC) provocan la ocurrencia de las heladas, las cuales ocasionan graves daños fisiológicos a los cultivos agrícolas y frutales, consecuentemente se derivan problemas de desabasto y perdidas económicas. El objetivo de este trabajo es identificar la tendencia de los periodos críticos de ocurrencia de bajas temperaturas, así como la frecuencia, la intensidad, y distribución espacial para estimar los riesgos de incidencia en áreas de cultivo de maíz con fines de planeación. Se usan los datos de temperaturas mínimas en el Estado de México entre 1980 y 2010 del CLICOM (Servicio Meteorológico Nacional). La temperatura mínima se modela usando el método de picos sobre umbrales (POT), el cual se basa en la distribución de Pareto Generalizada, se estiman los parámetros de cada estación y se generan mapas predictivos utilizando modelos geoestadísticos. AME, UAGro | Acapulco, Guerrero, México 79 Carteles Miércoles 16 de Septiembre, 17:30-­‐19:300 hrs. Patio del Ángel Centro de Congresos Copacabana AME, UAGro | Acapulco, Guerrero, México 80 Análisis de Datos Estimación de la Confiabilidad del Sistema de Medición y Pesaje Dinámico en Autopista José Alejandro Rosendo Robles1, Alberto Arturo Herrera Becerra2 y Rafael Prieto Melendez2 1
ZAMETXIC Computación, México 2
CCADET-­‐UNAM, México Este estudio analiza la confiabilidad de los datos de tránsito vehicular obtenidos por el Sistemas de Medición y Pesaje Dinámico (SMPD) instalado en lugares diferentes de una autopista de cuota tipo A4 de la Región Metropolitana del Bajío. Las pruebas de las mediciones de los SMPD se realizaron sincrónicamente con mediciones realizadas presencialmente por equipos de personal técnico calificado apostados en la autopista, quienes registraron manualmente el conteo del tránsito de vehículos para determinados periodos cortos de tiempo en tres días distintos. Las mediciones manuales fueron auditadas vía las videograbaciones de las estaciones en la autopista con el fin de tomarlas como tratamiento control. Las pruebas se efectuaron en dos instalaciones de la autopista tanto en un ambiente no restringido como restringido de circulación, en tres fases: A) Sin cierre de carriles, B) Abierto carril de alta velocidad, C) Abierto carril de baja velocidad. Este estudio prueba hipótesis de contrastes que se realizan entre las mediciones del SMPD y las mediciones de control para establecer comparación de tratamientos por pares entre las medias de tratamiento. El esquema de medición planeado se enmarca en un diseño factorial no ortogonal o desbalanceado. Se realiza el ANOVA específico se identifican los factores significativos y sus interacciones, se prueban los supuestos y se exploran los métodos de contrastes con diferente número de réplicas desiguales, para examinar diferencias especificas (desestimación, sobrestimación o exactitud en el conteo vehicular) entre las mediciones de control versus las del SMPD con el fin valorar su desempeño y estimar su confiablidad. Curvas cuantiles y cópulas arquimedianas, visualizando su comportamiento Ana Delia Olvera Cervantes Universidad Tecnológica de la Mixteca, México Se mostrará el comportamiento de las curvas cuantiles mediante el uso de las cópulas arquimedianas en comportamiento mediante la visualización de ellas y de la probabilidad acumulada en las diferentes regiones. AME, UAGro | Acapulco, Guerrero, México 81 Análisis estadístico de datos del electroencefalograma (EEG) Guillermo Díaz Rodríguez1 y José Alejandro Ríos Valles2 1
Facultad de Ciencias Exactas, UJED, México. 2
Facultad de Medicina, UJED, México. El tema de que presentare será un análisis de algunas herramientas estadísticas para aplicarlo al electroencefalograma (EEG) a alumnos de la facultad de medicina de la Universidad Juárez del Estado de Durango (UJED), la cantidad de información que se recolecta del EEG de un solo paciente es amplia donde se está midiendo amplitud, intensidad y ritmos de onda. Se plantea una hipótesis de que existe una relación de resultados del EEG con el rendimiento académico de los pacientes como identificar basados en los resultados del EEG determinar si el alumno tiene o no tiene buen rendimiento de acuerdo a su promedio y otro estudio de acuerdo con el Backward test que ritmos son representativos en lo pacientes que pueden definir características propias de los pacientes psicológicas. Toda la información generada en el resultado de acuerdo al EEG es demasiada que por cada paciente genera por es importante definir qué información se va a analizar sería un estudio grupal por la razón de que cada estudiante tiene mediciones distintas se podría formar grupos para encontrar el n distintas formas de medir de n grupos. La técnica que se utiliza para medida este resultado es la transformada de Fourier para encontrar dicha función tiene una inversa si recuperamos la entrada de la señal se podrá encontrar para metros que nos podrá indicar las pulsaciones que alimenta la función si se hace a cada estudiante podremos estimar la distribución que tiene la intensidad del cerebro, este estudio seria producto de las pruebas anteriores para encontrar resultados. Procesos estocásticos en tiempo continuo con aplicaciones en sistemas de Inyección Medel Jerónimo Velázquez y Martin Guadalupe Chac Kantun Universidad Politécnica del Centro, México En la estadística y específicamente en la teoría de la probabilidad, el proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias que involucionan en función de otra variable, generalmente en tiempo, estas variables pueden estar correlacionadas o no. El presente trabajo de investigación, se centró en la problemática ambiental que representan los motores de combustión interna debido a los diferentes sistemas que lo integran para su funcionamiento, promoviendo la importancia de mejorar las fallas posibles evitando así las emisiones contaminantes mediante su estudio de las variables la cual se forma con los cuatro principales variables: sistemas de inyección electrónica, sistemas de escape, sistemas de compresión y sistemas de admisión; con la finalidad de hacer mejoras en la fabricación de productos económicamente sustentables. El estudio de las variables de los sistemas con el fin de elaborar propuestas en las características físicas, parámetros de operación, tiempo de vida, viabilidad técnica y financiera, etc. En relación a su estructura, en el presente trabajo, se presenta en primera instancia el análisis de la problemática ambiental, seguidamente se presentan la definición de los objetivos general y particulares, posteriormente se presenta la justificación del AME, UAGro | Acapulco, Guerrero, México 82 proyecto en la cual se destaca la imperante necesidad de formar conciencia ecológica en el ser humano. La propuesta de hipótesis de investigación y sus resultados, seguidamente se incluyen las conclusiones y por último se integran los anexos y referencias bibliográficas. Un modelo de regresión para datos en el Simplex d-­‐dimensional Angélica Amador Rescalvo Universidad Autónoma Metropolitana, México En la modelación de algunos fenómenos reales el investigador se puede encontrar con datos que representan composiciones de un total. Por ejemplo, en petrología, el análisis estadístico de la composición total geoquímica de rocas es fundamental. Comúnmente tales composiciones son expresadas como porcentajes de peso de óxidos mayores o como porcentajes de peso de algunos minerales básicos. En economía, es importante el análisis de la composición del 100 % de algún portafolio de inversión, etc. En este contexto, el simplex unitario d-­‐dimensional es el espacio muestral comúnmente asociado a este tipo de datos. En este trabajo se presenta una introducción al análisis estadístico de variables composicionales, exhibiendo los retos que representa la modelación de este tipo de datos. También se muestra, usando datos reales, la aplicación de modelos de regresión donde la variable de respuesta a explicar es de tipo composicional. Efecto de primacía y recencia en jóvenes de 15 a 17 años, con residencia en Coatepec y Xico, Veracruz. Alejandra Bocardo Santos, Lucero Hernández Salazar y Ana María San Gabriel San Gabriel Universidad Veracruzana, México El trabajo a presentar es una pequeña muestra de lo que es el efecto de primacía y recencia de la memoria del ser humano, en este caso es aplicado a jóvenes de 15 a 17 años con residencia en Coatepec y Xico, el efecto varía con la capacidad de recordar y de tener memorias a corto plazo de cada individuo. Se presentarán comparaciones de dicho efecto que tienen los pueblos mágicos de Coatepec y Xico en Veracruz. Se tomó una muestra de jóvenes de cada pueblo mágico para proceder a hacer comparaciones de dichos pueblos. Entonces, se procede a la explicación de los conceptos de efecto primacía y efecto de reciencia. El cerebro es una máquina compleja pero que tiene importantes limitaciones, aunque dichas limitaciones tienen una razón evolutiva para existir, es decir, nos ayudan a adaptarnos a nuestro entorno y a sobrevivir. El Efecto de Primacía, aquel que nos hace recordar con mayor intensidad la primera vez que nos enfrentamos a una experiencia, en detrimento de las siguientes. El efecto contrario sucede cuando esa experiencia es familiar para nosotros y terminamos por asimilarla a las últimas percepciones que tenemos asociadas a ella. Esto resulta significativo cuando conocemos a alguien desde hace tiempo, una persona con la que nos relacionamos habitualmente. Lo normal es que la visión que tenemos de esa persona está asociada a las últimas experiencias en común. Haciendo memoria podemos AME, UAGro | Acapulco, Guerrero, México 83 recordar que aquella persona nos producía al principio rechazo, pero con el tiempo eso ha ido cambiando y ahora la vemos diferente. Análisis estadístico de la encuesta sobre felicidad y bienestar subjetivo en México José Maciste Mendoza Millán, Juan Villagómez Méndez y Miguel Apolonio Herrera Miranda Universidad Autónoma de Guerrero, México Este trabajo presenta el análisis sobre los resultados de una encuesta denominada BIARE (Bienestar auto reportado), la cual fue tomada de la base de datos del INEGI. El objetivo principal es analizar, desde un punto de vista gráfico, los datos de bienestar por medio de la técnica de correspondencia, que como sabemos, el punto de partida es una tabla de contingencia con r filas y c columnas y trata de buscar la estructura de relación, semejanza o desemejanza, proximidad o lejanía entre los objetos/sujetos y los atributos. En este caso se han considerado ocho variables que más engloban la actividad humana en común y que están relacionadas con la felicidad de una persona y que se enmarcan en tres grupos que son: salud, entramado social de referencia y nivel de ingresos. Los resultados del análisis de las variables son por demás interesantes, por las categorías que presentan cada una de las mismas, lo que permite bosquejar un perfil de felicidad o bienestar de la población estudiada. Evaluación de la caracterización de tres puntos de extracción de agregados pétreos para fabricar concretos hidráulicos Alfredo Cuevas Sandoval, Flaviano Godínez Jaimes, Raziel Barragán Trinidad, Roberto Arroyo Matus y Martín Zúñiga Gutiérrez Universidad Autónoma de Guerrero, México Uno de los materiales más utilizados en el mundo por la industria de la construcción es el concreto hidráulico, debido a su versatilidad, durabilidad y economía. Se compone básicamente de pasta (agua y cemento) y agregados (arena y grava), estos últimos por tener propiedades físicas y mecánicas condicionadas por la fuente de procedencia le imprimen al concreto características particulares específicamente en la resistencia a compresión y durabilidad; la cuales son las medidas más comunes para evaluar su calidad. Se caracterizaron tres bancos de agregados y su efecto en la resistencia a compresión del concreto controlando otros factores en laboratorio. Los resultados han permitido comparar el cumplimiento con especificaciones y obtener recomendaciones más efectivas a los usuarios, asegurando la calidad de las obras construidas, y una reducción importante en los costos. AME, UAGro | Acapulco, Guerrero, México 84 Una nueva propuesta de margen de no inferioridad para ensayos anti-­‐infecciosos Juan José Castro Alva1, Hortensia Reyes Cervantes1 y Félix Almendra Arao2 1
FCFM-­‐BUAP, México 2
UPIITA-­‐IPN, México Las pruebas de no inferioridad son comúnmente utilizadas en el área de ensayos clínicos cuando se desea comparar la respuesta positiva de dos medicamentos, es decir, se desea compara un medicNo se encuentran entradas de índice.amento nuevo contra uno ya existente llamado medicamento estándar. Dentro del contexto de pruebas de no inferioridad surgen algunos problemas asociados con las pruebas estadísticas de no inferioridad, por ejemplo: determinar un margen de no inferioridad adecuado, calcular los tamaños de prueba y la comparación de la potencia. La determinación del margen de no inferioridad es un problema muy importante a resolver debido a que este intervine directamente en la aceptación del nuevo medicamento, por otro lado, para realizar los cálculos de los tamaños de prueba se requiere de un esfuerzo computacionalmente intensivo debido a la presencia de un parámetro perturbador. En relación al uso de pruebas de no inferioridad para la comparación de dos agentes anti-­‐infecciosos la Fud and Drug Administration (FDA), el Committee for Proprietary of Medical Products (CPMP) y la International Conference on Harmonisation (ICH) han establecido algunas recomendaciones para la elección del margen. En el presente trabajo se propone una nueva familia paramétrica para la función margen que incorpora las recomendaciones de la FDA, CPMP y la ICH, así como también algunas propiedades matemáticas para un mejor comportamiento. Adicionalmente se estudia el comportamiento de algunas funciones margen conocidas propuestas en la literatura. Análisis Multivariado Análisis multivariado de tablas únicas y múltiples: algunas experiencias. Gladys Linares Fleites, José Víctor Tamariz Flores y Rosalía Castelán Vega DICA -­‐ ICUAP – BUAP, México. En el Análisis Multivariado, un mismo conjunto de datos puede analizarse desde dos perspectivas distintas que son, a su vez, complementarias. Una es la tabla única, en la que suele utilizarse el Análisis de Componentes Principales (ACP) y algunas extensiones como el BIPLOT y otra, es considerar la información como una tabla múltiple, utilizando la metodología STATIS. El resultados de estas diversas estructuras de datos dan resultados distintos, pero complementarios. En este trabajo, a través de un estudio de calidad del agua del Río San Marcos, en Puebla, México, se consideran los dos puntos de vista: el primero, estudiar la caracterización global de todos los individuos (muestras de aguas) a través de las variables consideradas (temperatura del agua, temperatura ambiente, pH y oxígeno disuelto) y, el segundo, estudiar las caracterizaciones parciales asociadas a cada uno de los conjuntos de individuos (cinco sitios de muestreo diferentes) realizando un estudio comparativo de estas estructuras. Con el BIPLOT pudo obtenerse la representación gráfica simultánea de todas las muestras de agua y las variables observadas en AME, UAGro | Acapulco, Guerrero, México 85 esas muestras. Con los diferentes gráficos obtenidos por la metodología STATIS, se corroboró que los sitios eran representativos de la calidad del agua. Los resultados de las técnicas consideradas fueron sido obtenidos a través del paquete estadístico ade-­‐ 4 de la Universidad de Lyon, Francia. Modelos multivariantes para el análisis de la Responsabilidad Social Corporativa (RSC) de empresas a nivel mundial María Purificación Galindo Villardón, Víctor Amor Esteban e Isabel María García Sánchez Universidad de Salamanca, España Actualmente, las políticas de Responsabilidad Social Corporativa (RSC), han cobrado gran importancia a nivel mundial. Hoy en día, la RSC, es la forma de autorregulación corporativa más utilizada, y es posible definirla como el compromiso voluntario de las empresas con el desarrollo de la sociedad y la preservación del medio ambiente, desde su composición social y la responsabilidad hacia las personas y grupos sociales con los que interactúa. El presente estudio tiene como propósito, analizar las prácticas de RSC profundizando en tres pilares fundamentales: la cohesión social, la defensa de los derechos humanos y la protección del medioambiente; así como, su evolución desde un enfoque contingente, al estudiar el comportamiento empresarial clasificando las empresas por su país de origen. Con base en métodos estadísticos multivariantes, en concreto, con técnicas pertenecientes a la familia de métodos de estudio de datos de tres vías (STATIS, X-­‐STATIS, COSTATIS…), se analiza una muestra constituida por los informes anuales de sostenibilidad de 141 empresas grandes provenientes de seis países diferentes (Canadá, Estados Unidos, España, Italia, Países Bajos, y Reino Unido), en el periodo 2004-­‐2009. Los resultados obtenidos, ponen de manifiesto la potencialidad de estos métodos y evidencian importantes diferencias a nivel país, como consecuencia de las características institucionales de cada industria. Asimismo, resaltamos la existencia de una fuerte relación entre los índices Medioambiente – Social; por lo tanto, la mayoría de países, otorga una importancia similar a la cohesión social y al bienestar del medioambiente. Modelos multivariantes para el análisis de Responsabilidad Social Corporativa (RSC) de empresas a nivel mundial María Purificación Galindo Villardón, Víctor Amor Esteban e Isabel María García Sánchez Universidad de Salamanca, España Actualmente, las políticas de Responsabilidad Social Corporativa (RSC), han cobrado gran importancia a nivel mundial. Hoy en día, la RSC, es la forma de autorregulación corporativa más utilizada, y es posible definirla como el compromiso voluntario de las empresas con el desarrollo de la sociedad y la preservación del medio ambiente, desde su composición social y la responsabilidad hacia las personas y grupos sociales con los que interactúa. El presente estudio tiene como propósito, analizar las prácticas de RSC profundizando en tres pilares fundamentales: AME, UAGro | Acapulco, Guerrero, México 86 la cohesión social, la defensa de los derechos humanos y la protección del medioambiente; así como, su evolución desde un enfoque contingente, al estudiar el comportamiento empresarial clasificando las empresas por su país de origen. Con base en métodos estadísticos multivariantes, en concreto, con técnicas pertenecientes a la familia de métodos de estudio de datos de tres vías (STATIS, X-­‐STATIS, COSTATIS), se analiza una muestra constituida por los informes anuales de sostenibilidad de 141 empresas grandes provenientes de seis países diferentes (Canadá, Estados Unidos, España, Italia, Países Bajos, y Reino Unido), en el periodo 2004-­‐2009. Los resultados obtenidos, ponen de manifiesto la potencialidad de estos métodos y evidencian importantes diferencias a nivel país, como consecuencia de las características institucionales de cada industria. Asimismo, resaltamos la existencia de una fuerte relación entre los índices Medioambiente – Social; por lo tanto, la mayoría de países, otorga una importancia similar a la cohesión social y al bienestar del medioambiente. El Teorema de Marchenko-­‐Pastur en el estudio de la matriz de covarianza poblacional Didier Cortez Elizalde, Addy Margarita Bolívar Cimé Universidad Juárez Autónoma de Tabasco, México En este trabajo de dará una descripción y algunas propiedades de la distribución de Marchenko-­‐
Pastur, de la Teoría de Matrices Aleatorias. El Teorema de Marchenko-­‐Pastur nos dice que la distribución espectral de los eigenvalores de la matriz de covarianza muestral de una muestra aleatoria de una distribución normal multivariada, converge a la Distribución Cuarto de Círculo, también denominada Distribución de Marchenko-­‐Pastur, cuando la razón entre la dimensión de los datos y el tamaño de la muestra converge a una constante positiva. Se verá como este resultado es útil para decidir si una muestra aleatoria normal multivariada tiene matriz de covarianza identidad y se proporcionarán algunos ejemplos. Caracterización multivariante de los jóvenes preuniversitarios colimenses. Un análisis de los estilos y calidad de vida. Adriana Isabel Andrade Sánchez1, Ciria Margarita Salazar1, Ma. Purificación Galindo Villardón2 y José Encarnación Del Río Valdivia1 1
Universidad de Colima, México 2
Universidad de Salamanca, España En los últimos años la investigación científica relacionada con el bienestar físico, emocional y social ha venido estudiando conductas y situaciones buscando mejorar la calidad de vida. Los jóvenes en México se muestran como una población de las más vulnerables tras altos índices de obesidad, ingesta hipocalórica, consumo de sustancias psicoactivas, trastornos alimentarios y psicológicos, suicidios, muertes prematuras, entre otros problemas particulares de esta edad. Estas situaciones han desmejorado las oportunidades de desarrollo humano y acceso a la calidad de vida en algunos de ellos. Este proyecto tiene como objetivo conocer los estilos de vida saludables y nocivos, AME, UAGro | Acapulco, Guerrero, México 87 asociados a la estructura afectiva familiar y social de los jóvenes preuniversitarios del Estado de Colima que cursan preparatorias subsidiadas por el Estado y la Federación; de igual forma se ofrece un diagnóstico del estado de salud física y mental. Por medio del IMC, el SF-­‐36, el SWLS-­‐C, Kidscreen-­‐10, GHQ-­‐12, APGAR Familiar, DUKE-­‐UNC-­‐11, CAGE, Kidmed, IPAQ y Figuras de Stunkard, el estudio describe medidas antropométricas y niveles de tensión arterial; el estado de bienestar y salud de los participantes; los hábitos de consumo alimentario y sustancias psicoactivas de los jóvenes preuniversitarios; los niveles de actividad física y la percepción de la imagen corporal. En el estudio logra comprobarse la hipótesis de que una estructura social estable y familiar normofuncional, están asociadas a la buena percepción de salud y calidad de vida que incluye una dieta óptima. Así mismo se muestran las diferencias entre los jóvenes de zonas rurales y urbanas y la salud mental. Comparación de dos poblaciones multivariantes dependientes: una estrategia de análisis de datos usando R Ruth Elizabeth Aldama Rosas y Mario Miguel Ojeda Ramírez Universidad Veracruzana, México El uso de estrategias de análisis de datos que combinan procedimientos gráficos, numéricos descriptivos e inferenciales, a pesar de que está muy extendido en los artículos de investigación y en el área de modelación estadística, es un enfoque que requiere de mayor promoción entre los usuarios de la estadística inferencial; sobre todo entre aquellos que requieren de hacer aplicaciones de métodos de análisis inferencial multivariante. Cuando se aplican pruebas inferenciales multivariantes para saber si un “antes” y un “después” sobre un conjunto de objetos o individuos producen resultados promedio diferentes, usualmente se refiere al uso de la prueba T2 de Hotelling, para realizar una prueba de hipótesis sobre el promedio de las diferencias, obteniéndose el valor de probabilidad empírica; regularmente es con este resultado con lo que se elabora la conclusión correspondiente. Hay, por supuesto, mucha información en los datos que puede dejarse de considerar si se procede de manera automática hacia el rechazo o no rechazo de una prueba de hipótesis; por supuesto que esto puede resultar mucho más grave en el caso multivariante. En este trabajo se fundamenta una estrategia de análisis de datos que va desde un análisis inicial que se sustenta en procedimientos gráficos y numéricos hasta un análisis definitivo que implica la aplicación de pruebas de hipótesis y construcción de intervalos de confianza simultáneos en el caso de “antes y después” multivariante. Se ilustra el procedimiento propuesto con datos del juego de la Rayuela Bivariante, los cuales son analizados con el lenguaje R. AME, UAGro | Acapulco, Guerrero, México 88 Estrategia de exploración e inferencia en el caso de una Distribución Normal Multivariante usando R Andrea Hernández Arenas, Aidé Miranda Reza y Mario Miguel Ojeda Ramírez Universidad Veracruzana, México Uno de los principales problemas al iniciar una estrategia de análisis de datos multivariantes que requieran de un procedimiento inferencial -­‐como el de comparación de un vector de promedios con un conjunto de valores de referencia, que es usual en la química sanguínea-­‐ es el de tener evidencias sobre la razonabilidad del supuesto de normalidad. Posterior a la evaluación de este supuesto se utilizan los procedimientos de prueba de hipótesis y construcción de intervalos de confianza simultáneos. En este contexto, se hace necesaria una opción que integre una estrategia de exploración y verificación; es decir, se requiere hacer explícitos los pasos a seguir a fin de que un usuario, utilizando software libre, responda la pregunta de qué tan razonable es el supuesto de normalidad para un conjunto de datos dado, así como la implementación del procedimiento inferencial correspondiente para proveer la evidencia respecto a los valores de referencia. En esta ponencia se presenta una revisión de la Distribución Normal Multivariante y de sus propiedades, así como de las razones de la importancia de este supuesto distribucional para la inferencia multivariante. Se estudian, tanto los procedimientos gráficos como las diferentes pruebas de normalidad multivariante, así como la construcción de los intervalos de confianza simultáneos, a la luz de investigaciones recientes sobre este tema. Se ilustra la estrategia propuesta utilizando el lenguaje R para realizar cada uno de los procedimientos a partir de datos de química sanguínea en pacientes sanos. Se demuestra que el uso del lenguaje R es versátil y permite. Análisis textual de la opinión de estudiantes universitarios de una pregunta abierta sobre el concepto de violencia de género Marisol Sánchez Cano, Alma Janett Tenorio Aguirre y Claudio Rafael Castro López Universidad Veracruzana, México El análisis estadístico textual permite analizar datos textuales de una manera fácil y sistemática. Existen varios programas computacionales estadísticos que permiten sintetizar, clasificar y relacionar esta información con características específicas. Las ventajas de la utilización de preguntas abiertas en una encuesta o entrevista son disminuir el tiempo de entrevista, recolectar información que debe ser espontánea y explicar y comprender la respuesta de una pregunta cerrada. La violencia en México y en el mundo, en la actualidad se ha convertido en un fenómeno complejo y delicado, que ha ido en ascenso y es uno de los principales problemas sociales que afecta a la población en general sin distinguir entre razas, clases sociales o niveles de escolaridad. Los especialistas han divido la violencia en diferentes tipos de acuerdo a las características que ésta presenta. Por tal motivo ha sido de gran interés realizar un estudio de opinión que pueda dar información sobre la violencia de género entre los jóvenes universitarios del Estado de Veracruz. A través de una pregunta abierta se captó información de los entrevistados sobre lo que significa AME, UAGro | Acapulco, Guerrero, México 89 para ellos la violencia de género, y con esta información se realizó un análisis textual con la ayuda de un software estadístico y los métodos de la estadística textual; que permita crear grupos de clasificación de las respuestas, así como identificar un perfil de los informantes considerando variables como sexo, edad y estado civil. Detección de grupos de interés en un estudio de consumo de drogas legales e ilegales en una universidad pública basados en árboles ternarios de segmentación Alma Janett Tenorio Aguirre, Claudio Rafael Castro López y Marisol Sánchez Cano Universidad Veracruzana, México Sin duda alguna, los métodos de Segmentación conforman en la actualidad propuestas importantes en la formación de grupos de individuos, clasificados en función de determinadas características, como son la opinión acerca de determinado tema, su perfil socio-­‐demográfico, su comportamiento de consumo, etc. Hemos venido estudiando la incorporación de una respuesta construida en base a metodologías multivariantes, lo que resulta en una mayor potencialidad en el análisis. En el contexto de consumo de una encuesta sobre el consumo de drogas legales e ilegales en una universidad pública, se presenta un análisis de segmentación estadística basada en el método de Taid, que utiliza árboles ternarios en base a la descomposición del índice Tao, usando como respuesta una variable construida en base a clases latentes. Se caracterizan los grupos de interés en base a su alta probabilidad de pertenencia utilizando indicadores de Gini y Entropía Cruzada. Análisis de Supervivencia Prueba de vida acelerada para determinar la estabilidad operacional de un controlador PID de temperatura: Confiabilidad experimental de prototipos aplicada en el laboratorio escolar Arturo David García Higadera Centro de Investigación en Matemáticas A. C. El presente trabajo muestra la conducción de la prueba de vida acelerada con el modelo de riesgo proporcional aplicada a un dispositivo de control PID (proporcional, integral y diferencial) construido y desarrollado como parte de la cátedra de las asignaturas de ingeniería industrial a nivel experimental, con la finalidad de evaluar el nivel de desempeño del prototipo en actividades de control. El control de los procesos y las operaciones es una de las aplicaciones más importante en el sector industrial. Esto suele referirse a un sistema automático por retroalimentación con una aplicación de tal importancia que la mayor parte de los estudiantes a nivel licenciatura incluye en su retícula algún curso o tópico relacionado con el tema. Un requerimiento importante para un AME, UAGro | Acapulco, Guerrero, México 90 sistema de control es que debe ser estable. Esto significa que si se aplica una entrada de magnitud finita, entonces la salida debería también ser finita y de ningún modo infinita, es decir incrementarse dentro de un límite. El controlador PID analógico propuesto permite a los estudiantes observar de manera independiente la señal producida por cada una de las etapas del controlador, lo que complementa las explicaciones teóricas. La etapa de potencia se asemeja a las implementadas en controladores comerciales, lo cual es una aportación adicional del sistema. El proceso de caracterización del sistema permite comparar el modelo del sistema con los resultados experimentales. El sistema diseñado cumple el objetivo de acercar al estudiante a todas las etapas del desarrollo de un sistema de control: definición del problema, modelado, sintonización, implementación y comprobación experimental. El modelo de vida acelerada de riesgos proporcionales permitió modelar el mecanismo de control y cuantificar cómo se ve afectado por la temperatura y el voltaje de esta forma se puede continuar con la fase de pruebas piloto, la predicción de fallas permitió caracterizar el mecanismo de control en términos de la confiabilidad exhibida a la luz de la fase de prototipo del proyecto. Definición y evaluación del desempeño de un biomarcador para el tratamiento de Cáncer de Mama Alan Jiménez Balandra y Gabriel Escarela Pérez Universidad Autónoma Metropolitana, México En este trabajo se propone una metodología basada en riesgos competitivos para obtener un marcador de pronóstico de muerte por cáncer de mama y muerte por otras causas. Para determinar el marcador se utilizó el modelo de supervivencia que consiste en una mezcla de especificaciones paramétricas de modelos de supervivencia condicionales para cada causa de muerte en la forma del modelo de riesgos proporcionales y un modelo de regresión logística para la proporción de pacientes que fallecen por cada causa. El marcador se expresa como la combinación lineal de variables sociodemográficas, clinicopatológicas y del tipo de tratamiento obtenida en la parte logística del modelo de mezclas. Para evaluar su exactitud predictiva se presentan gráficas de calibración y validación. Los datos que fueron analizados corresponden a un seguimiento de 20 años de mujeres que fueron diagnosticadas con cáncer de mama en 1990, el cual fue obtenido de una base de datos de Estados Unidos. El conjunto de datos resultante presenta una proporción grande de variables explicativas faltantes, por lo que se empleó la técnica de la imputación múltiple para llevar a cabo las inferencias. El modelo final tiene un ajuste bastante bueno y el marcador resultante permite definir a grupos de riesgo bajo, moderado y alto en términos de sus percentiles. La evaluación del valor predictivo del marcador indica que éste es bastante preciso. AME, UAGro | Acapulco, Guerrero, México 91 Diseños de Experimentos Modelación del sobrepeso y obesidad de los alumnos de la Esc. Primaria Fray Bartolomé de las Casas Lissete Arlene Polito Carbajal, Flaviano Godínez Jaimes, Ramón Reyes Carreto y Elia Barrera Rodríguez Universidad Autónoma de Guerrero, México En este estudio se determinó la prevalencia e identificaron los factores que influyen al sobrepeso y obesidad en los alumnos de la Primaria Fray Bartolomé de las Casas de Chilpancingo, Gro. En México, según la Encuesta Nacional de Nutrición (2006), la prevalencia de sobrepeso y obesidad en preescolares es de 16.7%; en escolares 26.2%, y en adolescentes 30.9%. Específicamente el sobrepeso y la obesidad en los escolares de 5 a 11 años es de 26% en comparación con el 18.0% observado en 1999. Esa tendencia continúa en aumento según la Encuesta Nacional de Salud en Escolares de Escuelas Públicas (2008), con una prevalencia de 31.2%. Colocando en 2010 a México como el primer lugar en sobrepeso infantil según el reciente informe de la OCDE. En el estado de Guerrero la Encuesta Nacional de Nutrición (2006), refleja que en los niños y niñas de 5 a 11 años el porcentaje de sobrepeso es de 10.8% en niños y 12.7% en niñas, mientras que la obesidad es de 4.4% en niños y de 5.4% en niñas. Se realizó un estudio transversal analítico en una población de 622 alumnos de la Primaria Fray Bartolomé de las Casas de Chilpancingo, Gro clasificados en cuatro estratos según sus mediciones antropométricas e índice de masa corporal. La muestra estratificada aleatoria fue de 84 participantes con asignación proporcional. El análisis se hizo en el paquete survey de R usando las ponderaciones inducidas por el diseño de muestreo. Identificando variables que explican el sobrepeso y obesidad de los alumnos. Modelo matemático de la dinámica del área foliar en frijol (Phaseolus Vulgaris L.) con suministro de nitrógeno. Yolanda Isabel Escalante Estrada1, J. Alberto S. Escalante Estrada2 y Ma. Teresa Rodríguez González2 1
Universidad Autónoma de Guerrero, México 2
Colegio de Postgraduados, México El área foliar es la principal maquinaria fotosintética de la cual depende el crecimiento y rendimiento de los cultivos agrícolas. El objetivo de este estudio fue determinar en frijol la ecuación que describa la dinámica del índice de área foliar (IAF) durante el desarrollo del cultivo y su relación con el suministro de nitrógeno (N).El estudio se realizó en Iguala, Gro. con la siembra del frijol Michoacán 12A3 de hábito indeterminado arbustivo, a la densidad de 13.3 plantas por m-­‐
2, con de 100 kg de N por ha al suelo y un testigo sin aplicación. Se muestrearon dos plantas por parcela a los 10, 25, 53, 63, 72, 86 y 90 días después de la siembra (DDS) para medir el área foliar en un integrador. El IAF se calculó con la ecuación. IAF= (área foliar por planta (dm2)*número de plantas por m-­‐2)/100 dm2. El IAF del frijol con N fue superior al testigo En ambos niveles de N, el AME, UAGro | Acapulco, Guerrero, México 92 modelo cuadrático (Y=a+bx+cx2) fue el que describe la dinámica del IAF, indicando un aumento del IAF a partir de la siembra con un máximo a los 53 DDS para posteriormente decrecer debido a la senescencia foliar. Así, para el frijol con N la ecuación fue IAF=-­‐ 0.195+ 0.093DDS -­‐0.001DDS2 (R² = 0.98); y para el testigo IAF= -­‐ 0.116+ 0.050DDS-­‐0.0005DDS2 (R² = 0.99). Estos modelos son de utilidad para la agricultura debido a que indican la magnitud de las tasas de aumento y decremento del área foliar. Incidencia y severidad de una enfermedad viral en un muestreo con diseño completamente al azar en cultivos de maíz (Zea Mays l. ). Yolanda Isabel Escalante Estrada1, J. Alberto S. Escalante Estrada2 y Luis Daniel Samper Escalante3 1
Universidad Autónoma de Guerrero, México 2
Colegio de Postgraduados, México. 3
Escuela de Graduados e Innovación. Tecnológico de Monterrey, Campus Puebla, México La producción de maíz es de primordial importancia en la región de la zona Centro de Guerrero, que comprende doce municipios, pues de este dependen de él aproximadamente seis mil familias campesinas. La baja de la producción en el maíz afecta a gran parte de la población ya que éste es la base de la alimentación no sólo en el estado sino en el país. Se muestrearon 3 parcelas de cultivos de maíz en Chichihualco, Gro. con un diseño completamente al azar para detectar plantas enfermas, de ellas se tomaron las muestras para realizar la identificación en el laboratorio de los agentes causales. La enfermedad que se detectó en esta zona fue: el rayado fino del maíz el cual es una virosis que es propagada por el insecto vector que se identificó como la chicharrita (Dalbulus maidis). En los muestreos que se realizaron a los 90 días del cultivo se detectaron dos parcelas (66%) con plantas enfermas de esta virosis con una incidencia del 13% en una de ellas y el 20% en la otra, lo que hizo un promedio general del 11%. Aplicación del diseño experimental bloques completos al azar en una investigación de producción agrícola. 1
Luis Daniel Samper Escalante , Luis Enrique Escalante Estrada2, Yolanda Isabel Escalante Estrada3 y Carmen Linzaga Elizalde2 1
Tecnológico de Monterrey Campus Puebla, México 2
Colegio Superior Agropecuario del Estado de Guerrero, México 3
Universidad Autónoma de Guerrero, México El trabajo experimental realizado en el ámbito de las ciencias agrícolas tuvo los objetivos de: a). Aplicar el diseño experimental bloques completos al azar y b). Evaluar el efecto de la aplicación del fósforo en el rendimiento de la planta de girasol. Los tratamientos evaluados fueron: 00, 40, 80 y AME, UAGro | Acapulco, Guerrero, México 93 120 kg de fósforo ha-­‐1, utilizando como fuente al superfosfato de calcio simple (19.5%) aplicándolo a los 15 días después de la germinación de las semillas, además se aplicó 120 kg de nitrógeno ha-­‐1, utilizando como fuente al sulfato de amonio (20.5 %). Al término del crecimiento de las plantas se tomaron los datos de las variables altura de la planta (AP), diámetro del tallo (DT), peso seco del tallo (PST), peso de 100 semillas (PCS), rendimiento de semilla (RS), peso del capítulo sin semilla (PCSS) y diámetro del capítulo (DC). Se procesó la información en el programa: The SAS System for Windows V8, donde se realizó el análisis de varianza de acuerdo al diseño experimental Bloques Completos al Azar. Además se realizó la prueba de Tukey (<< 0.05). El análisis de varianza nos indicó que hubo diferencias significativas en las variables: AP, DT, PST, PCS, RS y PCSS no así para la variable DC. Los valores más altos de las variables se obtuvieron con la aplicación de 80 kg ha-­‐1 de fósforo a la planta. La aplicación de fósforo, modifica el rendimiento de la planta de girasol. Estudio de los estilos de aprendizaje con un diseño experimental completamente al azar. Luis Daniel Samper Escalante1, Luis Enrique Escalante Estrada2, Yolanda Isabel Escalante Estrada3 y María Eugenia Merlos Escobedo4 1
Tecnológico de Monterrey Campus Puebla, México 2
Colegio Superior Agropecuario del Estado de Guerrero, México 3
Universidad Autónoma de Guerrero, México 4
Centro de Estudios Superiores del Valle de Iguala, México La presente investigación tiene los siguientes objetivos: a). Aplicar el diseño experimental completamente al azar en una investigación de las ciencias sociales y b). Evaluar los estilos de aprendizaje. Se estudiaron cuatro Estilos de Aprendizaje de los alumnos de 4º, 6º y 8º semestre de la Coordinación de Zootecnia del CEP-­‐CSAEGRO, inscritos en el periodo escolar febrero – julio, con 30 alumnos cada uno. Los Estilos de Aprendizaje fueron 4 a los que se consideraron variables: Estilo Activo (EA), Estilo Reflexivo (ER), Estilo Teórico (ET) y Estilo Pragmático (EP). Se realizaron 20 preguntas. Una vez realizadas las encuestas, se procedió a procesar la información en el programa: The SAS System for Windows V8, donde se realizó el análisis de varianza de acuerdo al diseño experimental Completamente al Azar. Además se realizó la prueba de Tukey. Los resultados de estas variables de Estilos de Aprendizaje, fueron evaluados dentro de la escala numérica de cero a diez, los valores menores de seis, se consideraron reprobatorios. El análisis de varianza realizado a las variables: EA, ER, ET y EP, indica que no hubo diferencias por efecto de tratamiento, es decir, que no hubo diferencias entre los grupos. El promedio de las variables: ER y EP tuvieron valores aprobatorios (6.3 y 6.0 respectivamente) y las variables EA y ET tuvieron valores reprobatorios (5.0 y 5.4 respectivamente). El diseño Experimental Completamente al Azar informó el comportamiento de las variables de los estilos de aprendizaje. AME, UAGro | Acapulco, Guerrero, México 94 Estadística Aplicada al Turismo Análisis de la evolución del consumo turístico en México usando Biplot Dinámico Mª Purificación Galindo Villardón y Jaime Egido Miguelez Universidad de Salamanca, España. La actividad turística en México representa un 8.7% del Producto Interior Bruto nacional, correspondiendo el 1.4% para bienes y el 7.3% para servicios; de estos el 0.7% corresponde a alojamientos, el 1.5% para transporte y el 0.9% para restaurantes. Nuestro objetivo es estudiar la evolución de estos conceptos a lo largo del periodo 2003-­‐2013 según el tipo de turismo interno, receptor y emisor, y el valor de la oferta y el consumo en el sector turístico. Los datos para realizar este estudio han sido obtenidos de la Cuenta Satélite de Turismo de México (CST) disponible en la página web del Instituto Nacional de Estadística y Geografía (INEGI) de México. Todas las cifras utilizadas son en valores constantes. Se ha estudiado la evolución de ciertas variables de consumo referidas al turismo, en el periodo 2003-­‐2013, mediante un análisis Biplot Dinámico (Egido, 2015), basado en un HJ-­‐Biplot (Galindo, 1986), utilizando el paquete dynBiplotGUI existente en R, para la resolución del Biplot Dinámico y la obtención de los gráficos. Se obtienen las relaciones entre los diversos conceptos y las trayectorias seguidas por los mismos. Las principales conclusiones que obtenemos son que, en el periodo estudiado, se detecta un retroceso del turismo en el intervalo 2008-­‐2010, y que el incremento de las cifras de turismo se debe al aumento de las pernoctaciones realizadas por los turistas internos, siendo escasa la evolución del turismo receptor. Sustentabilidad en el sector hotelero turístico de Acapulco en materia de saneamiento ambiental Delfino Daniel Ortiz Guzmán y Guadalupe Olivia Ortega Ramírez Universidad Autónoma de Guerrero. México En este estudio se ofrece información sobre el manejo de los residuos sólidos que los empresarios hoteleros turísticos de Acapulco realizan dentro de sus empresas para cooperar con el medio ambiente y al mismo tiempo contribuir a la sustentabilidad que se requiere dentro de la actividad turística. Lo que más adelante este mismo proyecto permitirá revisar la política pública turística que las autoridades impulsan en el sector hotelero, creando así otra investigación. AME, UAGro | Acapulco, Guerrero, México 95 El turismo y la educación para el desarrollo sostenible José Alfredo Pineda Gómez y Aurora del Socorro Muñoz Martínez UACED, UAGro, México El turismo y las actividades recreativas se han convertido en una de las principales actividades socioeconómicas desde el punto de vista del empleo, de la contribución al PIB, y del crecimiento de la demanda. Según la Organización Mundial del Turismo (OMT), el turismo constituye la mayor industria del planeta. Para finales del año 2015 se estima que el turismo crezca al doble que la economía en México. En este año contribuirá con 15% del producto nacional, una proporción equivalente a 2 billones 669,267 millones de pesos. Esta actividad económica constituye la tercera fuente internacional de ganancias por exportación en el mundo, sólo superada por el petróleo y la industria automotriz. Sin embargo, el modelo turístico prevaleciente pone en peligro la calidad del entorno natural y cultural. Ante la crisis del modelo de desarrollo económico depredador tanto en lo ambiental como en lo social, es necesario implantar un nuevo modelo de desarrollo turístico. Este nuevo modelo ha de recoger consideraciones de sostenibilidad. El desarrollo sostenible empieza por la educación. No es sólo cuestión de soluciones tecnológicas, regulaciones políticas o instrumentos financieros. También conviene tener en cuenta el poder de transformación de la educación. El reto es cómo lograr que la educación pueda convertirse en la estrategia fundamental para lograr el desarrollo sostenible en el sector turístico. Estadística Bayesiana Ilustración de un Análisis Factorial Confirmatorio: Diferencias entre la estimación frecuentista y bayesiana Andrés Andrés Aráuz Ministerio de Educación Pública de Costa Rica, Costa Rica En esta presentación se ilustra de una manera práctica la estimación de un modelo de análisis factorial confirmatorio utilizando los enfoques frecuentista y bayesiano, para realizar comparaciones en torno a ambos métodos de estimación. Se utilizan datos del Programa para la Evaluación Internacional de Estudiantes (PISA por sus siglas en inglés) para llevar a cabo una ilustración empírica, utilizando varias variables para estimar el modelo de medición en los constructos propuestos, tomando como base la evidencia empírica en torno a la validez de estos constructos. Con estos resultados se pretende mostrar las diferencias en ambos métodos de estimación, resaltando las bondades de cada uno. AME, UAGro | Acapulco, Guerrero, México 96 Análisis Bayesiano para una familia de modelos de crecimiento poblacional Luis Xavier Vivas Cruz, Francisco J. Ariza Hernández, Martin P Árciga Alejandre y Jorge Sánchez Ortiz Universidad Autónoma de Guerrero, México El crecimiento poblacional típicamente es modelado vía ecuaciones diferenciales ordinarias, estas ecuaciones involucran ciertos parámetros que caracterizan la evolución en el tiempo de dicho sistema. En este trabajo se estudia el problema inverso bajo un enfoque Bayesiano de una familia de modelos de crecimiento poblacional usando ecuaciones diferenciales con derivadas de orden entero y fraccionario. Algoritmos tipo Monte Carlo vía Cadenas de Markov son empleados para realizar inferencia estadística. Propuesta de un modelo direccional para describir datos en el Simplex Marco Antonio Sánchez Pérez y Gabriel Núñez Antonio Universidad Autónoma Metropolitana, México En diversas áreas de las ciencias el investigador se puede encontrar con variables cuyas componentes son la proporción o porcentaje de algún todo. Es decir con datos composicionales. Algunas aplicaciones se pueden encontrar, por ejemplo, en el análisis de composiciones geoquímicas de rocas, en control de calidad se desea determinar cuando un nuevo proceso produce cambios significativos en los elementos que constituyen (componen) algún producto, etc. La peculiaridad de los datos composicionales es la restricción de que la suma de sus componentes debe ser una constante. Así, el espacio muestral natural asociado es el simplex p-­‐dimensional. Para trabajar este tipo de variables una propuesta es mapear variables composicionales sobre la superficie de la esfera unitaria de dimensión p -­‐ 1 (Mardia y Jupp, 2000) y usar distribuciones asociadas a variables direccionales (variables en la esfera unitaria). En este trabajo se ofrece una opción de modelar, desde un punto Bayesiano de la estadística, variables composicionales a través de modelos de probabilidad usados para describir datos direccionales. Lo anterior, empleando métodos de simulación estocástica (MCMC) para hacer inferencias sobre los parámetros de los modelos propuestos. Modelación longitudinal de datos circulares Emiliano Geneyro Squarzon, Gabriel Núñez Antonio Universidad Autónoma Metropolitana-­‐Iztapalapa, México En varios campos del conocimiento el investigador se puede encontrar con mediciones que representen direcciones, es decir, con datos direccionales. Algunas aplicaciones se encuentran en AME, UAGro | Acapulco, Guerrero, México 97 el análisis de direcciones de viento, datos de orientación en biología, dirección de migración de aves, direcciones de propagación de fisuras en concreto y otros materiales, orientación de yacimientos geológicos, análisis de datos axiales, etc. Los espacios muestrales más comunes son el círculo unitario o la esfera unitaria. Así, por su naturaleza topológica resulta complicado su análisis estadístico. En el caso de variables circulares (direcciones en dos dimensiones), a pesar de las múltiples propuestas existentes en la literatura, actualmente no se dispone de una metodología general como la que se cuenta para el análisis de modelos lineales generalizados para una variable respuesta en el plano k-­‐dimensional. En este trabajo se presenta un análisis Bayesiano para modelar datos longitudinales donde la variable dependiente es de tipo circular. Se ejemplifica la metodología usando datos reales asociados a orientación de pequeñas especies en biología. Estadística y Ciencias Sociales Análisis multivariante en la preferencia de productos en jóvenes del estado de Colima (México) 1
María del Consuelo Reyes González , Santiago Vicente Tavera2 y Ma. Purificación Galindo Villardon2 1
CIEMA, Universidad de Colima, México 2
Universidad de Salamanca, España La presente investigación tiene como objetivo conocer la percepción que los jóvenes del estado de Colima tienen en cuanto a su marca y producto preferido. Además, se pretende saber el nivel de satisfacción que hay en los productos favoritos (ropa, alimentos y electrónicos) y estudiar la posible relación que hay entre las variables que determinan el nivel de fidelidad hacia su marca. Para tales fines, se ha aplicado el cuestionario propuesto por Almeida, Mazzon, Neto & Dholakia, el cual fue adaptado para el presente estudio. El cuestionario reestructurado fue sometido a un Análisis Factorial Exploratorio para validar las estructuras teóricas en la población juvenil. El siguiente paso fue confirmar si estas cargas factoriales coinciden con los resultados obtenidos mediante el Análisis Multivariante HJ-­‐Biplot. Posteriormente se verificó que el método HJ-­‐Biplot describe mejor las cargas factoriales propuestas por el Análisis Factorial Exploratorio. Uno de los hallazgos obtenidos fue que la edad, el sexo y el municipio son independientes de los gustos y preferencias de los productos. AME, UAGro | Acapulco, Guerrero, México 98 Contribución a las características psicométricas de la escala TAS-­‐20 (Escala de Alexitimia de Toronto). 1
Victoria Irandy Ballesteros Espinoza , Juan Antonio Castro Posada2 y María Purificación Galindo Villardon2 1 CIEMA, Universidad de Colima, México 2
Universidad de Salamanca, España El trabajo de investigación propone una contribución a las características psicométricas de la escala de Alexitimia de Toronto (TAS-­‐20), desde el análisis de una muestra española de 717 individuos de 13 comunidades autónomas. Trata de verificar los mejores ajustes de los modelos, a través de pruebas psicométricas, como el análisis factorial exploratorio, el factorial confirmatorio, métodos biplot, estudio del impacto, y teoría de respuesta al ítem o teoría de rasgo latente, además se pretende verificar si existe alguna posibilidad de deducir mediante otra técnica multivariante, se pudieran sugerir pautas de control de la ambigüedad del método factorial confirmatorio, a través de índices de ajuste, y el camino para la mejora de la validez del modelo mediante el incremento o mejor o mejora de la bondad de ajuste. Relación de sintomatología depresiva y violencia física en estudiantes de Durango. Alma Rosa Pérez Álamos1, Sergio Estrada Martínez1, Angélica Lechuga Quiñones1, Marisela Aguilar Duran y María De La Luz Sánchez Soto2 1
Instituto de Investigación Científica, Universidad Juárez del Estado de Durango. México 2
Colabiradora del CA: Ciencias Sociales y Salud, México La depresión ocupa el primer lugar dentro de las causas generadoras de discapacidad en el mundo. La violencia también constituye un serio problema de salud pública, y representa un importante factor de riesgo para depresión. Objetivo: Conocer la frecuencia de violencia física de los estudiantes de una escuela técnica de la ciudad de Durango, México, con actores de su contexto familiar y social y determinar si existen diferencias estadísticamente significativas cuando se relaciona la sintomatología depresiva con la pelea física según el sexo y actor social involucrado. Metodología: A 166 estudiantes de una escuela pública de la zona urbana de Durango, México se aplicó la Escala de Depresión del Centro de Estudios Epidemiológicos (CES–D) y tres reactivos de la Escala de Ideación Suicida y para identificar la presencia violencia física se les preguntó directamente si habían tenido pelea física con sus actores familiares y sociales relevantes. Resultados: El actor del contexto social con el que más frecuentemente pelean físicamente es con hermanos (58%), seguido de compañeros de escuela (48.5%); cuando se comparan los estudiantes que sí tienen violencia física contra los que no presentan, se obtuvieron diferencias estadísticamente significativas con todos los actores sociales con los que pelearon excepto con los vecinos. Conclusiones: Los estudiantes presentan pelea física con los diferentes actores de su contexto social, así mismo se pudo establecer una relación estadísticamente significativa entre las puntuaciones directas de sintomatología depresiva, por sexo y actor involucrado. AME, UAGro | Acapulco, Guerrero, México 99 Relación entre el rendimiento académico, los estilos y las estrategias de aprendizaje, en estudiantes de Turismo María Concepción Vega Hernández, Mª Carmen Patino Alonso y Mª Purificación Galindo Villardón Universidad de Salamanca, España Los alumnos del Grado en Turismo son un colectivo poco estudiado y que sin embargo presentan gran interés a la hora de analizar sus Estilos y Estrategias de Aprendizaje y su relación con el Rendimiento Académico. El objetivo de esta investigación se centra en desarrollar un modelo que explique la relación entre los Estilos y Estrategias de Aprendizaje y el rendimiento académico en estudiantes de Turismo, así como el uso de las TIC y compararlos con otros estudiantes en el área de Letras para comprender el perfil general de las conductas de estudio, además de sus propias preferencias en cuanto a estilos. El estudio se ha realizado sobre una muestra compuesta por 199 estudiantes de la Universidad de Salamanca (España), pertenecientes a las titulaciones de Turismo (56,8%), de Bellas Artes e Historia (43,2%). Se utilizó el cuestionario ACRA de Román & Gallego (1994) para evaluar las Estrategias de Aprendizaje, el CHAEA de Alonso, Gallego & Honey (1995) para conocer los Estilos de Aprendizaje, y el cuestionario REATIC de De Moya, Hernández, Hernández & Cózar (2011) para analizar el uso de las TIC. Se ha puesto de manifiesto que el rendimiento académico de los estudiantes de Turismo está asociado a los Estilos y Estrategias de Aprendizaje que poseen. Y el uso que hacen de las TIC está, además, asociado al género. Concepto de agresión en hombres y mujeres duranguenses estudiantes de nivel superior: redes semánticas Sergio Estrada Martínez, Angélica Lechuga Quiñones, Marisela Aguilar Duran, Alma Rosa Pérez Álamos y María De La Luz Sánchez Soto Instituto De Investigación Científica, Universidad Juárez del Estado De Durango, México El concepto de agresión se ha abordado desde diferentes disciplinas, denotando canalización de energía biológica en un nivel de paridad1, en términos Freudianos, una pulsión libidinal, energía acumulable con noción de daño intencionado, estados emotivos traducidos en conductas observables, Objetivo: identificar el significado psicológico de “agresión” en hombres y mujeres estudiantes de instituciones públicas y privadas en la ciudad de Durango. Metodología: se analizó la respuesta de este término mediante el uso la Técnica de Redes Semánticas Naturales Modificadas3 en una muestra de 471 estudiantes (51 % mujeres y 49 % hombres) de 18 a 49 años de edad a través de un muestreo aleatorio estratificado, por conglomerados. Resultados: el tamaño de red en los varones fue de 493 palabras y en mujeres de 418 (p<0.0001); obteniéndose un Índice de Consenso Grupal de 40% al coincidir ambos grupos en 265 palabras. Las principales definidoras para ambos son Golpear, Maltratar, Gritos, Insultar y Violencia. Los varones asocian mayormente términos como herir, ataque y amenaza, además de pocos conceptos emocionales AME, UAGro | Acapulco, Guerrero, México 100 como mala y tristeza. Las mujeres ofrecen términos connotados emocionalmente y menos visibles como dolor, abuso, palabras, psicológico, emocional, irrespeto, miedo y odio; y en contrastante pelear, empujar y muerte son utilizados de manera exclusiva por ellas. Conclusión: Se destaca que hombres dan un significado psicológico a la agresión de manera diferenciada en relación con las mujeres, en gran medida puede obedecer a la crianza y los estilos educativos de los padres relacionados con los roles de género impuestos generacionalmente. Significado psicológico de “mujer” que tienen estudiantes de nivel superior a través de redes semánticas Angélica Lechuga Quiñones, Alma Rosa Pérez Álamos, Marisela Aguilar Duran, Sergio Estrada Martínez y María De La Luz Sánchez Soto Instituto De Investigación Científica, Universidad Juárez del Estado De Durango, México Históricamente el concepto de mujer ha sido construido desde diferentes perspectivas. La importancia sobre su conceptualización en la actualidad permite situarla en relación, orden y posibilidades en el mundo. Objetivo del presente estudio fue identificar el significado psicológico que tienen hombres y mujeres estudiantes de nivel superior de la ciudad de Durango sobre lo que la Mujer es. Metodología: utilizando la Técnica de Redes Semánticas Naturales Modificadas3se aplicó un cuestionario a una muestra de 471 estudiantes (51 % mujeres, 49 % hombres) de 18 a 49 años de edad con un muestreo aleatorio estratificado, por conglomerados. Resultados: Los hombres utilizaron 467 palabras en total y las mujeres 406 (p=0.0001) coincidiendo en 316 definidoras (52%). El término mayormente asociado por ambos grupos es Amor, seguido en los varones por adjetivos sobre el aspecto físico: Bella, Hermosa, Bonita, Guapa y Sexy, además de términos sobre aspectos emocionales Frágil, Delicada, Ternura, Cariñosa, Sentimental y complementadas con palabras referentes al rol interpersonal Amiga, Compañera, Apoyo y Esposa. En contraste las mujeres puntuaron más alto en definidoras referentes al aspecto racional como Inteligente, Capaz, Sabia; a posturas empoderadas como Fuerte, Valiente, Trabajadora, Lucha, Emprendedora, Poderosa, Exitosa, Independiente, Autosuficiente; pero sin dejar de lado el rol tradicional de cuidado Mamá, Hijos, Protectora y Responsable. Conclusión: aunque presentan coincidencias, mujeres y varones conceptualizan mediante diferencias sustanciales el término mujer, siendo éstas quienes se conciben mayormente en término de nuevos roles sin abandonar el rol tradicionalmente establecido del deber ser, edificado en el cuidado del Otro. AME, UAGro | Acapulco, Guerrero, México 101 Evaluación de un instrumento para identificar el cronotipo de adolescentes en dos regiones de Veracruz 1
1
Karla Ríos , Enrique Meza , Pablo Valdez Ramírez2, N. Sofía Huerta Pacheco3 y Mario Caba1 1
Centro de Investigaciones Biomédicas, U. V., México 2
3
Facultad de Psicología, UANL, México Facultad de Estadística e Informática, U.V., México El cronotipo es la preferencia de un individuo para realizar sus actividades cotidianas a determinadas horas del día, clasificando a las personas como matutinos, intermedios o vespertinos. Esta particularidad tiene implicaciones socioculturales, psicológicas y en la salud de la población. Para identificar el cronotipo se han desarrollado diferentes cuestionarios, el más utilizado es el de Matutinidad-­‐Vespertinidad de Horne y Osberg desarrollado en 1976, el cual ha sido ampliamente validado en diferentes idiomas. Este trabajo de investigación se enmarca en la identificación exploratoria de patrones iniciales de preferencias del cuestionario antes mencionado. Esto con el fin de observar factores influyentes que afecten a los resultados de la comparación del cronotipo de los adolescentes en dos regiones (urbana y suburbana) del estado de Veracruz. Para ello, se hizo uso de pruebas estadísticas tales como el Alpha de Cronbach y el Impacto de los Ítems que permitieron brindar una mejor percepción de comportamiento presentado en la respuesta emitida por los estudiantes. Los resultados encontrados son tendientes a demostrar la falta de consistencia en la muestra suburbana, demostrando las diferentes preferencias de los estudiantes evaluados considerados dentro del mismo contexto. Análisis de la satisfacción global de un hospital general de Guerrero Darío Pérez Cruz, Flaviano Godínez Jaimes y Ramón Reyes Carreto Universidad Autónoma de Guerrero, México Los hospitales públicos atienden a un sector grande de la sociedad lo que ocasiona que la demanda exceda la posibilidad de atención eficiente y oportuna. El servicio de consulta externa es uno de los cuatro más importantes en un hospital y para su óptimo funcionamiento es necesario conocer la opinión de los usuarios del mismo. En este trabajo se presentan los resultados de un estudio transversal analítico sobre la percepción de las y los usuarios de consulta externa del Hospital General de Acapulco Guerrero que es uno de los más grandes en el estado. El instrumento está integrado por 43 variables que se agrupan en cuatro dominios: instalaciones (11 items), organización (14 items), acto médico (14 items) y satisfacción global (4 items). Mediante regresión logística se identifican las variables que explican las cuatro preguntas utilizadas para medir la satisfacción global. AME, UAGro | Acapulco, Guerrero, México 102 Manejo de aplicaciones educativas de Google en estudiantes de la Universidad Autónoma de Guerrero. Lorena Alonso Guzmán, Víctor Manuel Hernández Alarcón y Edgardo Solís Carmona Unidad Académica de Ingeniería, Universidad Autónoma de Guerrero, México En este proyecto se plantea la utilización de las aplicaciones educativas de Google, ya que estas herramientas promueven una mejor comunicación, una participación constante y permiten realizar un trabajo al mismo tiempo, así como la colaboración de los integrantes de un equipo de trabajo. Se presenta también la opinión que tienen los estudiantes y docentes de la Unidad Académica de Ingeniería perteneciente a la Universidad Autónoma de Guerrero, sobre las herramientas que ofrece Google en su ámbito educativo para la elaboración de trabajos colaborativos dentro de actividades académicas. Para alcanzar el objetivo propuesto en esta investigación, se elaboró un cuestionario como un instrumento de recolección de información para saber si estudiantes y docentes conocen estas herramientas, y si la utilizan en sus quehaceres académicos. Se presentan los resultados y comentarios finales del instrumento de medición aplicado. Un modelo para el rendimiento académico de estudiantes de una Universidad Intercultural Wilfrido Oropeza Nicolás, Flaviano Godínez Jaimes y Ramón Reyes Carreto Universidad Autónoma de Guerrero, México En el presente estudio se identifican los factores que influyen en el rendimiento académico de los estudiantes de la Universidad Intercultural del Estado de Guerrero (UIEG) sede Ayutla de los Libres, Gro. El rendimiento académico se refiere a la evaluación del conocimiento adquirido en el ámbito escolar. Para fines de este trabajo, el rendimiento académico se mide con la calificación obtenida por los estudiantes de la UIEG hasta el semestre agosto 2014 – enero 2015. Las variables independientes se obtuvieron mediante un instrumento que considera factores que algunos investigadores han encontrado que influyen en el rendimiento académico de los estudiantes del mismo nivel. Se realizó un muestreo estratificado con asignación proporcional. El análisis estadístico se realizó con el paquete survey del software R. Primero se hizo un análisis descriptivo. Posteriormente mediante regresión lineal se identificó las variables que influyen significativamente en el rendimiento académico de los alumnos de la UIEG. AME, UAGro | Acapulco, Guerrero, México 103 Análisis descriptivo sobre las licenciaturas, caso particular: la licenciatura de Matemáticas está teniendo problemas en su ingreso y egreso Hortensia Reyes Cervantes, Miguel Ángel López De la Cruz y Jorge C Dávila FCFM-­‐BUAP, México Este es un trabajo de servicio social, interesado en recopilar las bases de las calificaciones de los alumnos de todas las carreras de ciencias (Matemáticas, Matemáticas Aplicadas, Actuaría, Física y Física Aplicada). En las carreras de ciencias que se imparten en la facultad de Físico Matemáticas de la BUAP hemos visto un retraso en el egreso de la licenciatura de Matemáticas comparado con las demás licenciaturas, debido principalmente a factores económicos y de que los alumnos no vienen con los conocimientos básicos necesarios para enfrentar la carrera (leer, razonar y analizar). En años anteriores hemos visto que ingresan más hombres en todas las carreras, pero en Matemáticas Aplicadas y Actuaría son más mujeres que salen tituladas. Revisando los kardex de los alumnos inscritos por generación se muestran que en cada generación (por ejemplo en 2010-­‐
2013) ingresan más hombres que mujeres a la facultad, un 61% en promedio contra 39%, se observa que el 99% de los alumnos son solteros, también se observó que el número de alumnos que dice no tener recursos semanales suficientes es casi igual con el número de alumnos que trabaja, en 2010 un 25% trabaja además de estudiar, en 2012 un 17% y en 2013 el 24% también se observó que cada año aumenta el número de alumnos que poseen computadora en casa. Esta información es importante para hacer evaluaciones, toma de decisiones y encontrar factores que ayuden a tener mejoras en los índices de aprobación y de egreso en la facultad. Enseñanza y Divulgación de la Estadística La importancia de saber contar para el cálculo de probabilidades en juegos de azar (Póquer-­‐Póker) Miguel Apolonio Herrera Miranda, Israel Herrera Miranda y Oscar David Merino Merino Universidad Autónoma de Guerrero, México El póquer es uno de los juegos más populares y solicitados no solo por grupos de personas de todo el mundo, sino que también en las redes existen lugares en que se puede jugar, existiendo torneos en que pueden llegar a participar hasta varios miles de jugadores en mesas de 8, 9 o 10 jugadores dependiendo del lugar y tipo de torneo. El 29 de abril de 2010, el póker fue aceptado como Deporte Mental por la Asociación Internacional de Deportes Mentales (International Mind Sports Association -­‐ IMSA). En este trabajo se describen mediante un lenguaje sencillo las principales técnicas de conteo, así mismo su aplicación detallada en las diferentes formas en que se pueden presentar las opciones del juego de póker, analizando los diez casos posibles que intervienen en este juego de azar, para lo cual se explican mediante un tratamiento combinatorio y otro con permutaciones las diferentes maneras en que puede ocurrir cada jugada, recalcando la AME, UAGro | Acapulco, Guerrero, México 104 importancia de entender y saber contar mediante las técnicas apropiadas, para una adecuada asignación de probabilidades. Principales distribuciones Rogelio Aguilar Véliz y Elsa Rivera Rosales Facultad de Ciencias Físico Matemáticas UAdeC. México La enseñanza de la probabilidad a nivel universitario es base para una formación sólida de los alumnos de la Facultad de Ciencias Físico Matemáticas de la UAdeC. El mapa curricular de la Licenciatura en Matemática Aplicadas contempla 3 asignaturas de Estadística, por lo que en este estudio se pretende que los estudiantes del programa educativo logren desarrollar una serie de competencias y conceptos estadísticos que faciliten su inclusión a otras ciencias. Es de vital importancia que los alumnos desarrollen sus aptitudes, al momento de ser parte de su formación. Por lo que hablar de probabilidad, es hablar en un lenguaje cotidiano, tal como al momento de la concepción, los padres tienen un 50 por ciento probabilidad de que el producto sea mujer y un 50 por ciento de que sea hombre. El desarrollo de la estadística se ha hecho sentir en casi todas las fases de la actividad humana. La estadística ya no consiste meramente en la recopilación de datos y presentación en gráficas y tablas; ahora se considera que abarca la ciencia de basar las inferencias sobre datos observados y la totalidad del problema de tomar decisiones en presencia de la incertidumbre. La estadística proporciona los modelos necesarios para estudiar las situaciones que implican incertidumbres, en la misma forma que el cálculo. La teoría en el interés de la estadística fue desarrollada a base de juegos de azar, para descifrar “cara o cruz”, “aprobar o reprobar”, problemas actuariales y algunos aspectos de las ciencias sociales. Estadística Espacial Prueba de hipótesis para la media de un campo aleatorio Gaussiano David Israel Celis Euan Colegio de Postgraduados, México En este trabajo se propone una metodología para probar, de manera formal, si la media de un campo aleatorio Gaussiano puede ser considerada constante. Supóngase que se tiene un campo aleatorio Gaussiano, donde es una función de las coordenadas de y es una matriz de varianza-­‐
covarianza que se calcula a través de un modelo de semivariograma, el cual depende de las coordenadas geográficas y de los parámetros espaciales pepita, cima y rango. En particular, suponga que , donde, es obtenida a través de un semivariograma exponencial y es un modelo de superficie de respuesta de primer orden. Bajo estos supuestos se desea probar la hipótesis de que la media de es constante contra la hipótesis alternativa de que la media es dependiente de AME, UAGro | Acapulco, Guerrero, México 105 alguna de las coordenadas geográficas. Para probar se hizo uso de herramientas de estadística como lo son: la estimación por máxima verosimilitud, el método Jackniffe y el de bootstrap paramétrico. Se realizó un estudio de simulación para conocer las propiedades de potencia y tamaño de la prueba propuesta, para algunos valores del nivel de significancia y diferentes tamaños de muestra. Los resultados de simulación muestran evidencias del buen comportamiento de la prueba en términos de potencia y tamaño. Estadística y Finanzas Ecuación diferencial estocástica del tipo Black-­‐Scholes con derivada fraccionaria en el tiempo. Juan Carlos Hernandez Pastrana, Jorge Sánchez Ortiz, Francisco J. Ariza Hernandez y Martin P Árciga Alejandre Universidad Autónoma de Guerrero, México En este trabajo se estudia una ecuación de tipo Black-­‐Scholes con derivada fraccionaria en el tiempo y ruido blanco aditivo. Se utiliza el Método de Fokas para construir la función de Green del problema lineal asociado. Usando el Método de Picard se demuestra existencia y unicidad. Finalmente, se implementa un método numérico para encontrar la solución de un problema particular. Estadística en la Industria Kansei Service: Una aplicación de la Ingeniería Kansei al servicio en un hotel Héctor René Álvarez Laverde y María Luisa Hernández Maldonado Universidad Veracruzana, México La ingeniería Kansei es una metodología que permite diseñar productos emocionales, traduciendo las expectativas emocionales de los clientes o usuarios en términos de especificaciones técnicas de producto, a través de métodos estadísticos. La Ingeniería Kansei, en entorno de los servicios, se asocia a la experiencia emocional que permite fortalecer las relaciones con los clientes y generar una conexión emocional. En esta ponencia, se plantea un modelo de Kansei Service (servicio emocional), donde se integran a las estrategias de fidelización de clientes y otras iniciativas de marketing de la industria de servicio. Se caracteriza y se muestra una metodología para la medición de la emocionalidad en los servicios. También se hace una aplicación de esta metodología al mundo del servicio en un hotel. AME, UAGro | Acapulco, Guerrero, México 106 Estadística y Medio Ambiente Los Sistemas de Información Geográfica (SIG) como herramienta para el análisis de la amenaza de riesgo por deslizamiento de laderas en Chilpancingo, Gro., usando un modelo de regresión logística ordinal Martín Zúñiga Gutiérrez1, Francisco J. Ariza Hernandez2 y Alfredo Cuevas Sandoval1 1
Unidad Académica de Ingeniería, UAGro, México 2
Unidad Académica de Matemáticas, UAGro, México Los problemas de deslizamientos en laderas sin duda constituyen uno de los desastres geológicos más destructivos a nivel mundial, causando pérdidas económicas de varios miles de millones de pesos y también lamentables pérdidas humanas. En este trabajo de investigación se utiliza la plataforma ArcGIS como herramienta para representar factores que intervienen en el deslizamiento de laderas en Chilpancingo, Gro., obtenidas a partir de un modelo de regresión logística ordinal. Se considera el tipo de amenaza como variable respuesta con cinco categorías: muy baja, baja, moderada, alta y muy alta. Las covariables que se integran al modelo representan factores topográficos, históricos, geotécnicos, geomorfológicos y ambientales, los cuales son considerados por Protección Civil del Estado de Guerrero. Modelos geoestadísticos aplicados a la distribución de contaminantes en el suelo Nancy Toriz Robles y Martha Elva Ramírez Guzmán Colegio de Postgraduados, México En el Distrito de Riego 003 Tula, Hidalgo, las aguas residuales se aplican sin tratamiento alguno, por lo que resulta necesario conocer la dimensión en la que han sido incorporadas sustancias nocivas a los suelos. Entre los contaminantes introducidos por riego con agua residual se encuentran los metales pesados, los cuales tienden a acumularse en los suelos a largo plazo y su remoción resulta difícil. Por lo anterior el objetivo del presente trabajo es predecir la contaminación por metales pesados a través de modelos geoestadísticos para puntos no muestreados y elaboración de mapas de muestreo en base a información de autocorrelación proporcionada por datos de muestreo. El muestreo de suelo se llevó a cabo durante mayo y junio de 2013, cada muestra se georeferenció, los procedimientos para el análisis de las muestras se realizaron con base en la NOM-­‐147-­‐ SEMARNAT/SSA1-­‐2004 y NOM-­‐021-­‐SEMARNAT-­‐2000, los metales estudiados fueron: Cadmio, Cobre, Cromo, Níquel, Plomo y Zinc. Los datos de predicción se compararan con la NOM-­‐001-­‐SEMARNAT-­‐1996, la que establece los límites máximos de metales pesados en suelo de uso agrícola. A través de la regresión espacial se puede: predecir una variable respuesta 𝑌 a partir de una serie de 𝑝 covariables aprovechando la dependencia de la variable 𝑌, modelar datos frecuentemente no normales, heterocedasticidad en la varianza de los errores y errores no normales. Por ello es que se propone la implementación del modelo lineal generalizado mixto (MLGM) el cual es capaz de incluir las condiciones antes mencionadas. AME, UAGro | Acapulco, Guerrero, México 107 Teorema de Karhunen-­‐Loeve para aproximación de datos de olas Roberto Bárcenas Curtis , CIMAT, México La representación de perfiles de olas a través del Análisis de Datos Funcionales resulta de interés por sus aplicaciones en oceanografía, ya que permite identificar características de este fenómeno y modelar el impacto en actividades cercanas al mar, como el turismo, puesto que es útil mantener alertas ante inclemencias climatológicas, por ejemplo, como la ocurrencia de fenómenos adversos como tormentas. El Teorema de Karhunen-­‐Loeve es un resutado relevante en el contexto funcional que permite recuperar un proceso como una combinación lineal variables aleatorias no correlacionadas y las componentes principales funcionales de su operador de covarianza. Entonces a partir de la medición de un parámetro asociado a la energía conocido como altura significativa, dado un nivel de esta, si se tiene información de un incremento en la energía, observado de la densidad espectral del proceso de olas en un periodo de tiempo, generalmente 20 o 30 minutos, podría crearse un perfil de ola que considere la curva promedio, coloque como bloques constructores las componentes principales funcionales y tome como coordenadas la proyecciones de los datos en las componentes principales y entonces se puedan reproducir datos funcionales de olas en distintos estados del mar. Así, en este trabajo se propone una aproximación de los perfiles de olas a través del Teorema de Karhunen-­‐Loeve utilizando una estimación de la media funcional, las componentes principales funcionales estimadas y sus scores asociados, lo cual es clave para aplicaciones en donde el conocimiento de la forma de las olas es vital. Propuesta de restauración del paisaje del Charco Colorado, Marquelia, México. Karla Rosalba Anzaldúa Soulé, Héctor Tomás Pastor Durán, Ángel De Jesús Jaimes Compean y Oswaldo Lorenzana Núñez Universidad Autónoma de Guerrero, México El paisaje es uno de los recursos naturales de mayor demanda turística. Por lo que, el aprovechamiento desmedido ha traído consigo la degradación de sus recursos, en gran medida por el uso desequilibrado, la reducida conciencia ambiental e implicación emocional y afectiva de la población y visitantes con su entorno. La zona de estudio presenta problemas como: los vacíos de ley sobre la regulación del paisaje, la pérdida del territorio, debido al incremento de asentamientos humanos irregulares, a las alteraciones del uso de suelo y a la contaminación de los recursos hídricos. En este trabajo se proponen medidas de restauración del paisaje del estero el Charco Colorado en Marquelia en el Estado de Guerrero, a fin, de frenar la degradación del ambiente natural, logrando que la población y turistas comiencen a plantearse y desarrollar un aprovechamiento sustentable. Es momento de comenzar a tomar decisiones eficientes que contribuyan a la recuperación del paisaje, ya que conforme aumenta el nivel de degradación la restauración se hace más difícil y la posibilidad de recuperar la mayoría de atributos funcionales y estructurales de un ecosistema se reduce. La metodología empleada es el proceso de restauración de espacios degradados que consiste en la regeneración y protección de suelos, mantenimiento correcto del agua, aprovechamiento sustentable de especies, capacidad productiva y la AME, UAGro | Acapulco, Guerrero, México 108 integración en el paisaje. Las medidas propuestas del Charco Colorado están enfocadas en recuperar la integración y la calidad paisajística en las áreas degradadas. Modelación del contaminante Dióxido de Azufre (SO2) en la Ciudad de Cali entre los años 2010 y 2011 Cristian Eduardo García Bermúdez, Ángela Patricia Cadena Ramírez, Luz Adriana Pereira Hoyos y Cesas Andrés Ojeda, Universidad del Valle, Colombia Diferentes estudios han encontrado asociaciones positivas entre la exposición a los contaminantes del aire y los efectos adversos para la salud ((Silva and Gómez 1991), (Dockery and Pope 1994), (Ballester Díez, Tenías, and Pérez Hoyos 1999), (Cohen, Anderson, and Ostro 2004), (Oyarz´un G 2010)). El objetivo principal de este trabajo es realizar la modelación de los niveles de concentración de dióxido de azufre (SO2) de una de las estaciones de monitoreo de la calidad del aire de la Ciudad de Cali, haciendo uso de la metodología de series temporales. Además, se consideran procesos previos a la modelación como la reconstrucción de la serie imputando datos faltantes y el análisis de intervenciones, mediante la metodología propuesta por (Castaño 2007). Los resultados muestran que el proceso generador de datos parece obedecer un modelo MA(2). El periodo de análisis comprende las observaciones registradas entre el 1 de Julio del 2010 hasta el 27 de Mayo del 2011 con un total de 331 observaciones correspondientes al máximo promedio móvil diario. Estadística y Salud Pública Correlación de indicadores de satisfacción al trato recibido en salas de urgencias y su relación sociodemográfica en hospitales de la ciudad de Durango Edgar Felipe Lares Bayona1, Jaime Salvador Moysen1 y Manuel Rocha Fuentes2 1
Instituto De Investigación Científica De La Universidad Juárez Del Estado De Durango, México 2
Instituto Tecnológico De Durango, México Los índices e indicadores de Trato Digno y de Organización de servicios de urgencias, son basados en estándares establecidos por lineamientos operativos del sistema de monitoreo para la gestión de calidad. Mediante una muestra representativa de usuarios de los servicios de urgencias de los hospitales del Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (ISSSTE), Instituto Mexicano del Seguro Social (IMSS) y el Hospital General de la Secretaria de Salud (HG) de Durango, se obtuvieron correlaciones de los indicadores de Trato Digno y la relación sociodemográfica de los usuarios de urgencias por unidad hospitalaria. Como resultados se encontró que los datos sociodemográficos de los pacientes que acuden a urgencias no muestran AME, UAGro | Acapulco, Guerrero, México 109 diferencias significativas al trato recibido (p>.05), esto es, que los grupos que evidenciaron malo trato en urgencias no fueron a causa de la escolaridad, género y estado civil. Existe una mayor probabilidad de que los pacientes perciban una clara información cuando el médico: le permite hablar al paciente, explica sobre el diagnóstico, sobre el tratamiento y sobre los cuidados que se deba tener (OR>1). Las matrices de correlación de los indicadores de satisfacción son diferentes entre hospitales. Los indicadores de consistencia (alfa de cronbach) fueron para el ISSSTE = .7523, IMSS = .7353 y HG =.6719. De acuerdo a la matriz de correlaciones, se encontró que los indicadores de satisfacción no se correlacionan de igual manera. Por lo tanto hay indicadores que no tienen el peso necesario para gestionar la calidad de los servicios de urgencias. Modelación del sobrepeso y obesidad de los alumnos de la Esc. Primaria Fray Bartolomé de las Casas Lissete Arlene Polito Carbajal, Flaviano Godínez Jaimes, Ramón Reyes Carreto y Elia Barrera Rodríguez Universidad Autónoma de Guerrero, México En este estudio se determinó la prevalencia e identificaron los factores que influyen al sobrepeso y obesidad en los alumnos de la Primaria Fray Bartolomé de las Casas de Chilpancingo, Gro. En México, según la Encuesta Nacional de Nutrición (2006), la prevalencia de sobrepeso y obesidad en preescolares es de 16.7%; en escolares 26.2%, y en adolescentes 30.9%. Específicamente el sobrepeso y la obesidad en los escolares de 5 a 11 años es de 26% en comparación con el 18.0% observado en 1999. Esa tendencia continúa en aumento según la Encuesta Nacional de Salud en Escolares de Escuelas Públicas (2008), con una prevalencia de 31.2%. Colocando en 2010 a México como el primer lugar en sobrepeso infantil según el reciente informe de la OCDE. En el estado de Guerrero la Encuesta Nacional de Nutrición (2006), refleja que en los niños y niñas de 5 a 11 años el porcentaje de sobrepeso es de 10.8% en niños y 12.7% en niñas, mientras que la obesidad es de 4.4% en niños y de 5.4% en niñas. Se realizó un estudio transversal analítico en una población de 622 alumnos de la Primaria Fray Bartolomé de las Casas de Chilpancingo, Gro clasificados en cuatro estratos según sus mediciones antropométricas e índice de masa corporal. La muestra estratificada aleatoria fue de 84 participantes con asignación proporcional. El análisis se hizo en el paquete survey de R usando las ponderaciones inducidas por el diseño de muestreo. Identificando variables que explican el sobrepeso y obesidad de los alumnos. Modelado de heterogeneidad y temporalidad en la regresión de dos mezclas Gaussianas para explicar la edad de diagnóstico del cáncer de mama femenino Gabriel Escarela, Luis Carlos Pérez Ruiz y Gabriel Núñez Antonio AME, UAGro | Acapulco, Guerrero, México 110 Universidad Autónoma Metropolitana-­‐Iztapalapa, México Este trabajo investiga la distribución de la edad de diagnóstico de cáncer de mama y su asociación con la temporalidad y variables clinicopatológicas y sociodemográficas en presencia de dos clústers que son inobservables. Los clústers ayudan a identificar dos subpoblaciones de pacientes jóvenes y viejas cuyas características son potencialmente diferentes. Se analiza una muestra grande de una base de datos norteamericana por 20 años usando un modelo de mezcla de dos componentes Gaussianos cuyos parámetros son especificados en términos de una liga y un componente lineal para incluir variables explicativas. Se emplea el método de máxima verosimilitud y se usa la técnica de imputación múltiple para atender el problema de variables explicativas parcialmente observadas. El ajuste del modelo es evaluado con residuales aleatorizados en cada imputación. Los resultados enfatizan los impactos que pueden tener los esfuerzos para el control y tratamiento de la enfermedad de acuerdo al grupo de edad al que pueda pertenecer una paciente en particular. Modelos Lineales Análisis de las primas de riesgo en los seguros de automóviles Adrián Martínez Gutiérrez Universidad Autónoma Metropolitana Iztapalapa, México A raíz de la crisis financiera que azotó el mundo a partir del año 2008, el sector financiero empezó a tomar medidas necesarias para cuantificar de una manera más eficiente y segura los posibles riesgos a los que están sujetos. En este sentido, el sector asegurador, dado su espíritu intrínsecamente económico, no se quedó atrás y buscó implementar acciones para contener los riesgos a los que las compañías aseguradoras están expuestas. Por tal motivo, las aseguradoras deben tener técnicas estadísticas y actuariales que les permitan estimar de manera muy precisa el monto de capital que van a requerir para afrontar estos compromisos contractuales, lo que se traduce en la formulación de primas de riesgo más exactas. En la actualidad, para el cálculo de la prima de riesgo, el método estadístico más comúnmente usado es el producto de las frecuencias (número de siniestros entre unidades expuestas) por la severidad (monto del siniestro entre unidades expuestas). Cuando se tienen grupos o cortes de información con la suficiente robustez estadística, éste método es adecuado para obtener estimaciones aceptables; sin embargo, cuando se desea aproximar una prima de riesgo a un nivel más granular, este procedimiento puede arrojar cálculos con una variabilidad muy grande, debido al reducido número de observaciones que puede existir en ciertos cortes de información. Es aquí donde los modelos lineales generalizados juegan un papel importante, pues con ellos se pueden tener mejores estimaciones para evitar dicha volatilidad. Modelos de optimización lineal para la eficiencia en la selección de utilidades aplicada a una empresa de elaboración de fertilizantes. AME, UAGro | Acapulco, Guerrero, México 111 Kriztal Iveett Camargo Guereca1, Liborio Alba Torres1 y Edgar Felipe Lares Bayona2 1
Facultad de Ciencias Exactas, UJED, México 2
Instituto de Investigación Científica, UJED, México Existen muchas opciones para la enseñanza y el aprendizaje del problema de programación lineal; se puede abordar desde un enfoque formal y abstracto usando el instrumental teórico del álgebra lineal, esto por supuesto significa un gran contenido matemático y mucho tiempo para hacerlo, resultando ser indeseable, si lo que se pretende es enfatizar la comprensión por un lado, y por el otro la factible posibilidad de aplicación inmediata. Uno de los objetivos principales es lograr una descripción más eficiente y útil del problema de Optimización Lineal; en ese sentido se han hecho uso de los recursos de los diferentes tipos de representación. Se logró la comprensión de un problema mediante la optimización lineal aplicado a una empresa de elaboración de fertilizantes, mediante cuatro vías: método gráfico, método de combinación de sistemas de ecuaciones, método simplex y software WinQSB. Posteriormente se hace la comparación de los métodos. Como resultados se encontró que el método gráfico es visualmente más demostrativo cuando se tienen dos variables, encontrando una utilidad de 428,000 unidades de producción, mediante un desplazamiento de la recta Z=18.50x1+20.00x2 hacia el punto más alejado de los vértices del polígono. En el método de combinación de sistemas de ecuaciones la utilidad resultante es la misma, sin embargo la construcción de variables de holgura no se consideran eficientes cuando los resultados son negativos. El resultado del método simplex evita los problemas anteriores, obteniendo cantidad de producción en toneladas del primer fertilizante (x1=8,000) y segundo fertilizante (x2=14,000) con igual utilidad a los métodos anteriores. Identificación de QTL’s asociados a la resistencia al complejo de la mancha de asfalto David Omar González Diéguez1, Luis Fernando Contreras Cruz1, José de Jesús López Reynoso1 y Sarah Hearne2 1
Universidad Autónoma Chapingo, México 2
CIMMyT, México El complejo de la mancha de asfalto en maíz, causado por los hongos Phyllachora maydis y Monographella maydis, es una enfermedad de importancia económica en zonas tropicales y subtropicales de México, Centroamérica y parte de Sudamérica, debido a que provoca severas pérdidas en el rendimiento y deterioro en la calidad del forraje. El objetivo de esta investigación es identificar regiones del genoma, denominados QTLs (quantitative trait loci, por sus siglas en inglés), asociados a la resistencia a la mancha de asfalto. Para ello se evaluó un conjunto de 400 accesiones de maíz bajo condiciones de infección natural segura en el Estado de Chiapas. Este proyecto se está desarrollando en colaboración con investigadores del CIMMYT y las accesiones fueron proporcionadas por el Banco de germoplasma de esta institución. Mediante la técnica de genotipificación por secuenciación (GBS, por sus siglas en inglés) (Elshire et al., 2011) se descubrieron un total de 2.2 millones de polimorfismo de un solo nucleótido (SNPs, por sus siglas en inglés), de los cuales se utilizaron únicamente 55,267 que cumplieron el control de calidad, AME, UAGro | Acapulco, Guerrero, México 112 frecuencia del alelo menor > 5% y datos faltantes 20%. Basado en estos marcadores se utilizó un modelo lineal mixto comprimido corregido por estructura de población (Zhang et al., 2010) para realizar un estudio de asociación del genoma completo (GWAS, por sus siglas en inglés). Se utilizaron los programas TASSEL (Bradbury et al., 2007) y R-­‐GAPIT (Lipka et al., 2012). Se identificaron 4 SNPs asociados a la resistencia a mancha de asfalto. Muestreo Estimación de tendencias electorales (conteo rápido) Antonio Soriano-­‐Flores, Román Aguirre-­‐Pérez e Iván Beltrán-­‐Beltrán IIMAS-­‐UNAM, México Un conteo rápido es un procedimiento estadístico diseñado con la finalidad de estimar con oportunidad las tendencias de los resultados finales de una elección, a partir de una muestra probabilística de casillas, cuyo tamaño y composición se determina previamente de acuerdo a un esquema de selección específico. En México, la práctica de este procedimiento no es algo nuevo. Comúnmente, los medios de comunicación presentan resultados de encuestas con el fin de informar a la ciudadanía las preferencias electorales. Sin embargo, debido a la sensibilidad e impacto de esta información así como la exigencia de proporcionar resultados en lapso de tiempo cortos, se requieren métodos basados en criterios con un alto rigor científico para proporcionar estimaciones precisas y confiables. En este trabajo se exponen y comparan dos propuestas (clásica y bayesiana) para estimar el porcentaje de votos por partido, la participación nacional y la composición de la cámara de diputados conformada por los 300 distritos electorales del país. AME, UAGro | Acapulco, Guerrero, México 113 Otros Ecuación diferencial estocástica con derivada fraccionaria de Riemann-­‐Liouville sobre la semirrecta Uriel Salmerón Rodríguez, Martín P. Árciga Alejandre, Jorge Sánchez Ortíz y Francisco J Ariza Hernandez Universidad Autónoma de Guerrero, UAGro., Antonio Soriano-­‐Flores Las ecuaciones diferenciales fraccionarias son eficientes para modelar una gran diversidad de fenómenos. En el presente trabajo se demuestra la existencia y unicidad de soluciones para ecuaciones diferenciales estocásticas con derivada fraccionaria del tipo Riemann Liouville. Se utiliza el método de Fokas para dar una representación integral del problema lineal asociado y, finalmente, se implementa un método numérico para aproximar la solución. Un proceso de normalización del texto Sergio Hernández González1, Suilan Estévez Velarde2, Alejandro Piad Morffis2, Yudivián Almeida Cruz2 y Daniel Barredo Ibañez3 1
Universidad Veracruzana, México 2
Universidad de la Habana, Cuba 3
Universidad de las Américas, México En Twitter, millones de usuarios transmiten libremente sus opiniones a diario sobre diversos temas. Esto lo convierte en un corpus valioso para realizar análisis de mercado, seguimiento de eventos sociales y políticos, y, en general, estudios masivos de opinión en disímiles dominios. Las técnicas empleadas a menudo se basan en el análisis de los términos más comunes en cada mensaje, y las relaciones entre estos. Debido a las características del lenguaje empleando en la Web, los mensajes de Twitter sufren de modificaciones gramaticales y empleo de jerga, que dificultan el proceso de minado de opinión. En particular, para la detección de opinión, muchos de los términos existentes tienen poca o ninguna influencia, y solo aportan ruido. En este trabajo se analizan las partes de la oración más relevantes en un proceso de minería de opinión en Twitter. Para esto se emplea un corpus de mensajes de Twitter en español, etiquetados manualmente con una valencia de opinión (objetivo o subjetivos). Previamente se realiza un proceso de normalización del texto de cada mensaje para reducir al máximo las deformaciones lingüísticas. Posteriormente se emplea un modelo de Markov oculto (HMM) para etiquetar cada uno de los términos con la parte de la oración correspondiente. Finalmente se ajusta un modelo de regresión logístico con el objetivo de determinar la influencia de una parte de la oración específica en la clasificación de valencia de opinión. Este análisis permite determinar las partes de la oración que, con mayor precisión, diferencian los mensajes que expresan una opinión. AME, UAGro | Acapulco, Guerrero, México 114 Vibraciones y Vibraciones Fraccionarias infinitas y semi-­‐infinitas Víctor Fabián Morales Delgado y Marco Antonio Taneco Hernández Universidad Autónoma de Guerrero, México En el presente trabajo se estudia la ecuación de Fresnel o ecuación de las vibraciones de varillas (vigas o ejes). Resulta ser que existe una conexión muy cercana con la ecuación de Schödringer y consecuentemente con la ecuación del calor. Esto nos conduce inevitablemente a relacionar el problema de Cauchy para la vibración de varillas con el movimiento Browniano. Se presentan versiones fraccionarias, de orden alfa entre cero y uno de la ecuación de Fresnel y se construyen pseudo-­‐procesos F(t), t > 0 con densidades reales signadas a través de la solución fundamental de dicha ecuación. Prueba de Hipótesis Una Prueba de Razón de Varianzas para la Distribución Gumbel Berestrayn Cruz Sierra Colegio de Postgraduados, México Las pruebas de bondad de ajuste son importantes en cualquier análisis de datos. Estas pruebas son útiles para saber si los datos que se están manejando satisfacen los supuestos distribucionales requeridos en los métodos estadísticos, que se utilizarán para hacer el proceso de inferencia con los mismos. En el caso de la distribución Gumbel, que es ampliamente utilizada en análisis de datos extremos en áreas como la hidrología, finanzas y ciencias ambientales, entre otras; existen diversas pruebas de bondad de ajuste, pero como es bien conocido, ninguna de ellas es la más potente contra cualquier distribución alternativa. En este trabajo se propone una prueba de bondad de ajuste para la distribución Gumbel, basada en la razón de dos estimadores de la varianza. Para esto se propone utilizar un estimador de la varianza que sea una función lineal de las estadísticas de orden y dividirlo por el estimador de la varianza muestral habitual, de manera similar a la estadística de Shapiro-­‐Wilk para probar la hipótesis de normalidad, la cual es de las más potentes en el caso de tamaños de muestra pequeños (n < 30). Los valores críticos para la prueba propuesta son obtenidos utilizando simulación Monte de Carlo. Posteriormente para evaluar sus propiedades, se discuten los resultados de un estudio de simulación en donde se analiza el tamaño y la potencia de la prueba contra algunas distribuciones alternativas como son: la Cauchy, la T, la Normal y la Logística, entre otras. AME, UAGro | Acapulco, Guerrero, México 115 Series de Tiempo Análisis Bayesiano de algunos modelos que usan la distribución t de Student asimétrica Lizbeth Naranjo Albarrán1, Carlos J. Pérez Sánchez2 y Jacinto Martín Jiménez2 1
Facultad de Ciencias, UNAM, México 2
Universidad de Extremadura, España La familia de distribuciones t de Student asimétrica (AST) permite modelar la simetría/asimetría y las colas pesadas de manera simultánea. Más aún, cada cola se puede ajustar por separado. La distribución t de Student está incluida en ésta familia. En este trabajo proponemos métodos para ajustar modelos que utilizan distribuciones AST en dos contextos diferentes. En el primero, se desarrolla una exploración de la distribución a posteriori cuando los datos se modelan con una distribución AST. En el segundo, se considera un modelo GARCH(1,1) con una distribución t de Student asimétrica para las perturbaciones. Los dos modelos comparten características en común. La representación de la mezcla y el enfoque Bayesiano son los puntos comunes de las aproximaciones. La idea de utilizar representaciones de mezcla de escala de distribuciones normales para la distribución AST se ha utilizado para implementar muestreadores Gibbs eficientes. Se realizan comparaciones con modelos competitivos que muestran el buen funcionamiento de las aproximaciones propuestas. Análisis de series de tiempo de una cartera de inversiones Margarita Reyes Flores y Gabriel Escarela Pérez UAM-­‐I, México En este trabajo se implementa MVAR (Mixture Vector Autoregressive Model), un modelo multivariado de series de tiempo, para el estudio y pronóstico de los precios de acciones del Índice Nasdaq 100 (QQQ) y de Microsoft Corporation (MSFT) incluidas en un portafolio de inversiones. Para estimar los parámetros de este modelo se implementa el método de máxima verosimilitud mediante un algoritmo de tipo Newton-­‐Raphson que se incluye en la función nlm del paquete estadístico R. Para evaluar su bondad de ajuste se aplica un procedimiento análogo al test pormanteau aplicado a los residuales estandarizados del modelo. AME, UAGro | Acapulco, Guerrero, México 116 Teoría de Valores Extremos Estimación de parámetros de la distribución Pareto Generalizada Annel Hurtado Jaramillo y Javier Suárez Espinosa Colegio de Postgraduados, México La distribución Pareto Generalizada (DPG) es ampliamente utilizada para modelar valores extremos y ha sido estudiada por varios autores para analizar fenómenos en áreas como seguros, finanzas y meteorología. En la literatura, existen diversos métodos para estimar los parámetros de la DPG, sin embargo, los métodos existentes presentan algunos problemas para esta estimación. Por lo anterior, en este trabajo se propone un método conocido como distancia mínima (DM) el cual presenta un buen desempeño en términos de error cuadrado medio (ECM) y no presenta los problemas que los otros métodos tienen. Comparamos los resultados con métodos ya propuestos como: el método de máxima verosimilitud (MV), la metodología propuesta por Gulati-­‐Shapiro (GS) y la metodología propuesta por Villaseñor-­‐Alva y González-­‐Estrada (VG). Para la estimación de parámetros usamos simulación, asignando valores a los parámetros de escala (?=1,2,3) y forma (k=-­‐0.5,-­‐0.3,-­‐0.1,0.001,0.1,0.3,0.5,0.7,0.9,1,2,3), con tamaños de muestra, n=50,100. Se evalúan media, varianza y ECM. La prueba GS presenta fallos conforme el valor de k se acerca a cero. El método de MV presenta problemas cuando el k es mayor a -­‐0.03. Los ECM para los métodos DM y VG son pequeños, menor a 0.06 cuando k=-­‐0.3,-­‐0.5 El ECM disminuye cuando el tamaño de muestra aumenta y aumenta conforme aumenta el valor de k. Cuando el valor de k es cercano a 0, el ECM de MD es menor que 0.07 mientras que para VG es menor a 0.16. Para valores de k=2,3, el ECM en el método de DM(<0.45) es menor que en el método VG(<0.88). AME, UAGro | Acapulco, Guerrero, México 117