Doctorado en Ciencias - Estadística

URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/82516

Examinar

Envíos recientes

Mostrando 1 - 10 de 10
  • Ítem
    Intervalos de confianza para la confiabilidad de sistemas coherentes no-reparables con estructura dependiente en la familia Weibull.
    (Universidad Nacional de Colombia, 2021-10-11) Bru Cordero, Osnamir Elias; Jaramillo Elorza, Mario César; Confiabilidad Industrial
    En este trabajo el objetivo central es calcular intervalos de confianza para la confiabilidad de un sistema con sólo dos componentes, cuyos tiempos de vida son dependientes. Para estimar la confiabilidad del sistema teniendo en cuenta la dependencia entre los tiempos de vida del sistema coherente no reparable, se utiliza un modelo cópula Gumbel, para distribuciones de la familia de log-localización y escala; en el mismo contexto se chequean algunos resultados ya existentes bajo el escenario donde los tiempos son independientes, el cual para nuestro trabajo es un caso particular. Estas situaciones abordadas en nuestro estudio, son validadas mediante estimación de probabilidades de cobertura, para tres métodos; verosimilitud, transformación logit y ye en dos modelos de interés, modelo tradicional para riesgos competitivos con marginales Exponencial, Weibull y un modelo bivariado Marshall-Olkin Exponencial y Weibull. Se examina el comportamiento de los intervalos bajo la hipótesis de dependencia entre los tiempos de falla, y se observa que para tamaños muestrales pequeños se presenta un pequeño ruido en los intervalos, el cual fue corregido mediante una propuesta (y_e). Al incluir el concepto de fragilidad en un sistema en serie con marginales Weibull, la cual hace referencia a la variabilidad entre los tiempos de cada una de las unidades y con la propuesta se nota un mejor comportamiento de los intervalos de confianza para dicha estimación en muestras pequeñas y por supuesto para muestras grandes. (Texto tomado de la fuente)
  • Ítem
    Model selection in social interaction frameworks: a bayesian approach.
    (Universidad Nacional de Colombia, 2020-08-12) Almonacid Hurtado, Paula María; Salazar Uribe, Juan Carlos; Ramírez Hassan, Andrés; Grupo de Investigación en Estadística Universidad Nacional de Colombia, Sede Medellín
    Se propone una metodología para la selección de modelos de interacción social, considerando la complejidad en su especificación. Los modelos de interacción social presentan dos tipos de variables explicativas, las interdependencias entre individuos, denotadas por una matriz de adyacencia, y las características específicas de dichos individuos. De acuerdo con esto, los investigadores deben considerar un número significativo de modelos posibles dados por 2^(k−1) × Z, que representa el número de combinaciones de k variables menos el intercepto en grupos de tamaños 2 a (k − 1), multiplicado por el número de posibles matrices de interacción social Z. La metodología propuesta permite seleccionar simultáneamente las covariables y las matrices de interacción social mediante la implementación de métodos bayesianos tales como Markov chain Monte Carlo model composition (MC3) y Bayesian Averaging Model (BMA). A grandes rasgos, estos métodos permiten obtener estimaciones e inferencias a partir de un promedio de modelos seleccionados luego de reducir su espacio al de mayor probabilidad. Se realizaron varios ejercicios de simulación con el fin evaluar la metodología, así como dos casos de aplicación. Adicionalmente, estos modelos fueron estimados utilizando los enfoques Bayesiano y de Máxima verosimilitud. Después de comparar los resultados, se encontró que el enfoque Bayesiano ofrece múltiples ventajas, ya que es posible, a diferencia del método de Máxima verosimilitud, obtener la distribución posterior de los parámetros, incluir información a priori, en caso de ser necesario, e introducir incertidumbre asociada al espacio de elección de los modelos. (Tomado de la fuente)
  • Ítem
    Métodos para la selección de distribuciones a priori utilizando el estimador de James-Stein, planes de muestreo por atributo y modelos logísticos multinivel
    (2020-06-23) Correal Álvarez, Cristian David; Pericchi Guerra, Luis Raul; Salazar Uribe, Juan Carlos; Universidad Nacional de Colombia - Sede Medellín
    Las distribuciones a priori son indispensables en estadística bayesiana para hacer inferencia, porque reflejan el conocimiento previo de un parámetro desconocido; estas distribuciones han sido utilizadas en diferentes áreas con el fin de mejorar las inferencias de los modelos planeados. Por lo anterior, en este trabajo se consideran distribuciones a priori en tres situaciones de interés. En la primera situación, se propone una metodología para combinar distribuciones a priori considerando el estimador de James-Stein; pero con varianza no constante por experto como una forma de penalizar el conocimiento de éste. Se muestra que la metodología es razonable para seleccionar la distribución a priori de interés ya que considera a todos los expertos del estudio y no se descarta información. En la segunda situación, se utilizan distribuciones a priori beta para modelar la fracción de defectos p en planes de aceptación por atributo; el procedimiento es válido para frecuentistas y bayesianos a la hora de determinar el tamaño óptimo de la muestra y decidir la aceptabilidad de un lote enviado a inspeccionar. Se presenta un procedimiento para minimizar una suma ponderada de los riesgos clásicos y esperados del productor y consumidor, y se muestra que la inclusión de funciones de peso/densidad para la fracción de defectos puede disminuir significativamente la cantidad de pruebas requeridas; sin embargo, su principal ventaja no es necesariamente la reducción del tamaño de la muestra, sino una mejor evaluación del riesgo real del tomador de decisiones. En la tercera situación, se modelan los aciertos obtenidos de dos encuestas aplicadas a estudiantes universitarios a lo largo del semestre académico 2018-1, con un modelo logístico multinivel utilizando las distribuciones a priori beta 2 escalada y gamma-inversa, para modelar el efecto aleatorio. Los resultados se comparan con modelos tradicionales donde no se considera el efecto aleatorio dentro de cada grupo. Se concluye que los modelos de efecto aleatorio tienen mayor capacidad predictiva de los datos y presentan intervalos de probabilidad más precisos que los modelos de efecto fijo.
  • Ítem
    Penalized bayesian optimal designs for nonlinear models of Continuous Response
    (2019) Rudnykh, Svetlana Ivanovna; López Ríos, Víctor Ignacio
    Experimental design is an important phase in both scienti_c and industrial research. In recent years, Bayesian optimal designs have become more and more popular, particularly in biomedical research and clinical trials. The Bayesian experimental design approach allows the prior information of unknown parameters to be incorporated into the design process in order to achieve a better design. The Bayesian optimal design theory can, however, produce inadequate designs from a practical perspective that conict with common practice in laboratories or other guidelines established. In this research, the penalized optimal design strategy with the Bayesian approach is suggested to reduce problems associated with the inadequacy of experimental designs from a practical perspective. New optimality criteria, which combine the use of desirability functions and the Bayesian approach, are constructed for linear and nonlinear regression models. The proposed technique based on the use of desirability functions helps to obtain optimal designs that ful_ll Bayesian optimal design criteria and also satisfy practical preferences. The proposed penalized strategy is illustrated with corresponding examples for both linear and nonlinear models. Furthermore, the methodology of choosing the appropriate desirability functions according to the practical design preferences is proposed and illustrated by an example of the Michaelis-Menten model.
  • Ítem
    A calibration function from change points using linear mixed models
    (2019-04-08) Garcia Cruz, Ehidy Karime
    The change point problem is an interesting topic in both cross-sectional and longitudinal settings. In the cross-sectional scenario, the change point problem has been studied extensively. In longitudinal settings, authors usually suggest fitting linear mixed models but to find the change points in this scenario is not an easy task. In this way, identifying change points in linear mixed models (LMMs) is an open problem that has been studied by few authors. Recent contributions on this topic were done by \citeasnoun{lai2014}. However, to the best of our knowledge, there is neither proposal in which change points had been obtained for each subject nor about a calibration function fitted from these change points. The purpose of this proposal is to develop a solution to the change points problem under a linear mixed model when several covariates are considered into the model. If we obtain the change point for each subject under a longitudinal setting, this yields a change function instead of a single change point. We fit a calibration function that allows predicting the change point given some referenced values of time-independent variables or fixed effects. The solution is given by considering a linear mixed model (LMM) under the assumption that this model has a continuous change point for each subject, that is, a broken-stick model (profile) is associated with each subject in the data set. We considered both a parametric and a Bayesian approach, standard linear mixed models assumptions, and a first order autoregressive ($AR(1)$) covariance structure on the random errors. We found that there is not a close or analytical expression to obtain the change point for linear mixed models; this is why we suggest an adapted methodology to estimate subject-specific change points from linear mixed models. We show the results of both a parametric approach of the calibration function from change points, and some asymptotic properties of the calibration function parameters. %by executing a simulation study and formalize the results through a theorem. Additionally, we show the results of a Bayesian approach of the calibration function through a simulation study, by considering classical prior distributions of the parameters and random effects of the linear mixed model. Also, we illustrate this proposal in a practical situation with real data about dried Cypress wood slats \cite{botero1993}, and we compare the results obtained in the parametric case with the ones obtained by using the Bayesian approach. All algorithms and calculations were implemented by means of paralleling programmed routines in the statistical software R (team2014R) on advanced computational clusters, and high-performance computers. This proposal is useful because predicting a time in which the model changes is so important in productive processes, so that this prediction allows to avoid some additional drawbacks, and for example, it could help to decrease the storage expenses.
  • Ítem
    Diseños óptimos para estimación y discriminación en modelos de efectos mixtos no lineales
    (2016-01-26) Castañeda López, María Eugenia
    El objetivo de esta Tesis Doctoral es construir diseños óptimos para estimación de parámetros y discriminación entre dos modelos de efectos mixtos no lineales anidados, con diferentes matrices de covarianza intra-individuos. Para resolver este problema se construye un criterio de diseño que combina un criterio para estimación con un criterio para discriminación. Se establece y se demuestra el respectivo teorema de equivalencia. Para el problema de discriminación entre modelos se propone una extensión del criterio de T-optimalidad y se establece el respectivo teorema de equivalencia. Aunque en la literatura existen varias propuestas de métodos para discriminación, la metodología propuesta en esta tesis permite discriminar entre modelos anidados, grupos de individuos con diferentes diseños experimentales y verificación de la optimalidad de un diseño. Por medio de ejemplos se ilustran las metodologías propuestas.
  • Ítem
    Characterization of two competing risks models with Weibull risks
    (2015-08-07) Yáñez Canal, Sergio
    Competing risks are used to model life of systems with multiple failure modes where the observed failure is the minimum of the possible individual failures times. This research studies the effect ofignoring the risks by considering how well a single Weibull model approximates the competing risks model with Weibull risks. As a first approach to the problem this is done for a model with Weibull independent risks and for a specific model with Weibull dependent risks. Ignoring the risks may or not have a strong effect in the competing risks model and it would be of interest to characterize situations where ignoring the risks can cause serious biases in the competing risks model. The objective is to characterize the effect of the risks and their interdependence in the competing risks model, when the risks are Weibull distributed. Some recommendations are given on the correct use of these models.
  • Ítem
    Bandas de confianza simultáneas para la estimación de los costos de garantía descontados para sistemas coherentes bajo reparo mínimo
    (2014-03-14) Lopera Gómez, Carlos Mario
    La selección de un programa de garantía para un producto nuevo en el mercado genera al fabricante costos adicionales diferentes a aquellos inherentes al proceso de fabricación. Esto hace que sea necesario establecer los costos de garantía para un periodo de tiempo dado, de manera que el fabricante puede estimar el nivel de reserva necesario para atender los reclamos futuros por garantía. En particular se consideran los costos de garantía denominados descontados. Los modelos desarrollados para este tipo de costos incorporan la edad del producto en el momento del reclamo por garantía y se pueden estudiar a través del proceso estocástico conocido como modelo de tiempo de vida general. En la práctica, la mayoría de los productos son sistemas compuestos por varias componentes. Cuando el producto o sistema es reparable y sobre sus componentes se realizan acciones de mantenimiento que implican costos, resulta de interés modelar el impacto de tales acciones sobre los costos de garantía del sistema. Uno de los atractivos principales del modelo de tiempo de vida general, es que bajo éste, se puede evaluar la evolución del sistema bajo el enfoque conocido como aproximación física, que permite modelar en el tiempo el proceso de falla del sistema o producto bajo diferentes niveles de información, y en particular modelar el proceso de tasa de falla, que es el aspecto más importante de estos modelos. Así, la diferencia primordial entre el modelo de confiabilidad clásico, conocido como aproximación estadística, y la aproximación física, es el nivel de información: mientras que en el segundo se observa el proceso de falla al nivel de las componentes, en el primero sólo se observa la falla del sistema. Esto hace que el proceso de falla cambie de una aproximación a otra, debido a que cambian los procesos de tasas de falla asociados, así, en la aproximación estadística la tasa de falla es una función determinística, mientras que en la aproximación física la tasa de falla es una proceso estocástico. El objetivo principal de este trabajo es desarrollar bandas de confianza simultáneas para el costo medio de garantía descontado en sistemas coherentes bajo reparo mínimo físico, esto es, cuando el sistema es observado al nivel de sus componentes, usando métodos computacionales intensivos basados en remuestreo. Para ello, con base en el marco teórico de los procesos martingala y el teorema de límite central de remuestreo (CLRT) sobre procesos estocásticos, se prueban las condiciones de éste último en los procesos de costos de garantía descontados. Un estudio de simulación Monte Carlo se realiza para evaluar el desempeño en muestras finitas del método propuesto a través de las probabilidades de cobertura alcanzadas. Los resultados en los escenarios considerados muestran que las bandas de confianza basadas en remuestreo tienen probabilidades de cobertura con valores cercanos a los esperados, en particular para aquellas basadas en muestras con más de 100 sistemas donde el número de remuestras usada para la aproximación es grande.
  • Ítem
    Bandas de confianza para un modelo de regresión con datos de supervivencia con censura arbitraria
    (2013-07-31) Jaramillo Elorza, Mario César
    Resumen: Usualmente, el tiempo exacto en el que ocurre un evento no se puede observar por diversas razones; por ejemplo, no es posible un monitoreo constante de las características de interés. Esto genera un fenómeno conocido como censura que puede ser de tres tipos: a izquierda, a derecha, o de intervalo. En datos de tiempo de vida con censura arbitraria, el tiempo de supervivencia de interés es definido como el lapso de tiempo entre un evento inicial y el evento siguiente, donde éste tiempo generalmente es desconocido. Este problema ha sido ampliamente estudiado en la literatura estadística, y se evidencian avances importantes. Sin embargo, el desarrollo de bandas de confianza simultáneas para el caso de censura arbitraria, ofrece oportunidades de desarrollo de metodologías. En este trabajo se adaptan unas bandas de confianza simultáneas paramétricas, para evaluar el ajuste de un modelo de regresión Weibull usando una verosimilitud bivariada, para datos con censura arbitraria. La metodología se ilustra con datos reales de pacientes colombianos con Artritis Reumatoide
  • Ítem
    Stationarity and unit roots in spatial autoregressive models
    (2012-07-16) Ramírez Hassan, Andrés; Correa, Juan Carlos (Thesis advisor); Salazar, Juan Carlos (Thesis advisor)
    Stationarity is a common assumption in statistical inference when data come from a random field, but this hypothesis has to be checked in order to avoid falling into nonsense regressions and inconsistent estimates. In this thesis, consequences on statistical inference associated with non-stationary random fields are shown, specifically due to a spatial unit root. A statistical test to check a spatial unit root for spatial autoregressive models is built in the frequency domain, and its asymptotic distribution found. Monte Carlo simulations are used to obtain the small sample properties of the proposed statistical test, and it is found that the size of the test is good, and the power of the test improves if the spatial autocorrelation coefficient decreases. Additionally, we find that the size of our test is better than other spatial unit root tests when the data generating process is not a spatial autoregressive model. In order to get better small sample properties of the test when there is a spatial unit root near to one, a Monte Carlo test is performed. Finally, two applications are done; first, the Mercer-Hall dataset, which is one of the most analysed regular lattice data in the literature, is studied. It is found that the data do not have a spatial unit root, although the dataset is highly autocorrelated. And second, data of electricity demand in the Department of Antioquia (Colombia) are studied. Statistical evidence based on different tests suggest that electricity consumption does not have a spatial unit root; therefore, parameters estimates are sense. Specifically, it is found that the price elasticity of electricity demand is -1.150 while the income elasticity is 0.408./Resumen. La hipótesis de estacionariedad es un supuesto común cuando los datos provienen de una realización de un campo aleatorio, pero esta hipótesis debe ser verificada para evitar caer en problemas de regresiones sin sentido o inconsistencia de los parámetros estimados. En esta tesis se muestran las consecuencias sobre la inferencia estadística asociadas a la no estacionariedad de los campos aleatorios, específicamente debido a la presencia de una raíz unitaria espacial. Se propone un estadístico de prueba en el dominio de las frecuencias para corroborar la presencia de una raíz unitaria espacial y se encuentra su distribución asintótica. Se utiliza simulación Monte Carlo para obtener las propiedades para muestras pequeñas del estadístico propuesto, y se observa que el tamaño es bueno, y que la potencia del estadístico mejora si la auto correlación espacial disminuye. Adicionalmente, se encuentra que el tamaño de nuestra prueba supera al obtenido con otras pruebas para corroborar la presencia de una raíz unitaria espacial cuando el proceso generador de datos no es un proceso espacial autorregresivo. Dado el objetivo de mejorar la potencia del estadístico de prueba cuando se presenta una raíz espacial cercana a uno, se construye un estadístico fundamentado en simulación Monte Carlo. Finalmente se realizan dos aplicaciones, la primera consiste en el análisis de los datos Mercer-Hall, los cuales son una de la base de datos más citada en la literatura de datos en rejillas regulares, y se encuentra que las series en consideración no presentan raíz unitaria espacial, aunque están espacialmente autocorrelacionadas. Y en la segunda, se estudian los datos de la demanda de electricidad en el Departamento de Antioquia (Colombia). La evidencia estadística fundamentada en diferentes pruebas indica que el consumo de electricidad no tiene una raíz espacial unitaria; lo cual implica que los parámetros estimados tienen sentido. Especificamente, se encuentra que la elasticidad precio de la demanda de electricidad es -1.150, mientras que la elasticidad ingreso de la demanda es 0.408.