Revista Colombiana de Estadística

URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/286

Examinar

Envíos recientes

Mostrando 1 - 20 de 524
  • Ítem
    Partial least squares regression on symmetric positive-definite matrices
    (Universidad Nacional de Colombia, 2013) Pérez, Raúl Alberto; González-Farias, Graciela
    Recently there has been an increased interest in the analysis of differenttypes of manifold-valued data, which include data from symmetric positivedefinitematrices. In many studies of medical cerebral image analysis, amajor concern is establishing the association among a set of covariates andthe manifold-valued data, which are considered as responses for characterizingthe shapes of certain subcortical structures and the differences betweenthem.The manifold-valued data do not form a vector space, and thus, it is notadequate to apply classical statistical techniques directly, as certain operationson vector spaces are not defined in a general Riemannian manifold. Inthis article, an application of the partial least squares regression methodologyis performed for a setting with a large number of covariates in a euclideanspace and one or more responses in a curved manifold, called a Riemanniansymmetric space. To apply such a technique, the Riemannian exponentialmap and the Riemannian logarithmic map are used on a set of symmetricpositive-definite matrices, by which the data are transformed into a vectorspace, where classic statistical techniques can be applied. The methodologyis evaluated using a set of simulated data, and the behavior of the techniqueis analyzed with respect to the principal component regression.
  • Ítem
    Response surface optimization in growth curves through multivariate analysis
    (Universidad Nacional de Colombia, 2013) Ortiz, Felipe; Rivera, Juan C.; Melo, Oscar O.
    A methodology is proposed to jointly model treatments with quantitativelevels measured throughout time by combining the response surface andgrowth curve techniques. The model parameters, which measure the effectthroughout time of the factors related to the second-order response surfacemodel, are estimated. These estimates are made through a suitable transformationthat allows to express the model as a classic MANOVA model,so the traditional hypotheses are formulated and tested. In addition, theoptimality conditions throughout time are established as a set of specificcombination factors by the fitted model. As a final step, two applicationsare analyzed using our proposed model: the first was previously analyzedwith growth curves in another paper, and the second involves two factorsthat are optimized over time.
  • Ítem
    Improved exponential type ratio estimator of population variance
    (Universidad Nacional de Colombia, 2013) Yadav, Subhash Kumar; Kadilar, Cem
    This article considers the problem of estimating the population varianceusing auxiliary information. An improved version of Singh’s exponential typeratio estimator has been proposed and its properties have been studied underlarge sample approximation. It is shown that the proposed exponential typeratio estimator is more efficient than that considered by the Singh estimator,conventional ratio estimator and the usual unbiased estimator under somerealistic conditions. An empirical study has been carried out to judge themerits of the suggested estimator over others.
  • Ítem
    Correspondence analysis of contingency tables with subpartitions on rows and columns
    (Universidad Nacional de Colombia, 2013) Pardo, Campo Elías; Bécue-Bertaut, Mónica; Ortiz, Jorge Eduardo
    We present Intra-Table Correspondence Analysis using two approaches:Correspondence Analysis with respect to a model and Weighted PrincipalComponent Analysis. In addition, we use the relationship between CorrespondenceAnalysis and the Log-Linear Models to provide a deeper insightinto the interactions that each Correspondence Analysis describes. Wedevelop in detail the Internal Correspondence Analysis as an Intra-TableCorrespondence Analysis in two dimensions and introduce the Intra-blocksCorrespondence Analysis. Moreover, we summarize the superimposed representationsand give some aids to interpret the graphics associated to thesubpartition structures of the table. Finally, the methods presented in thiswork are illustrated by their application to the standardized public test datacollected from Colombian secondary education students in 2008.
  • Ítem
    Properties and inference for proportional hazard models
    (Universidad Nacional de Colombia, 2013) Martínez-Florez, Guillermo; Moreno-Arenas, Germán; Vergara-Cardozo, Sandra
    We consider an arbitrary continuous cumulative distribution functionF(x) with a probability density function f(x) = dF(x)=dx and hazard functionhf (x) = f(x)=[1
  • Ítem
    Comparing tl-moments, l-moments and conventional moments of dagum distribution by simulated data
    (Universidad Nacional de Colombia, 2013) Shahzad, Mirza Naveed; Asghar, Zahid
    Modeling income, wage, wealth, expenditure and various other socialvariables have always been an issue of great concern. The Dagum distributionis considered quite handy to model such type of variables. Our focus inthis study is to derive the L-moments and TL-moments of this distributionin closed form. Using L and amp; TL-moments estimators we estimate the scaleparameter which represents the inequality of the income distribution fromthe mean income. Comparing L-moments, TL-moments and conventionalmoments, we observe that the TL-moment estimator has lessbias and rootmean square errors than those of L and conventional estimators consideredin this study. We also find that the TL-moments have smaller root meansquare errors for the coefficients of variation, skewness and kurtosis. Theseresults hold for all sample sizes we have considered in our Monte Carlo simulationstudy.
  • Ítem
    On the moment characteristics for the univariate compound poisson and bivariate compound poisson processes with applications
    (Universidad Nacional de Colombia, 2013) Özel, Gamze
    The univariate and bivariate compound Poisson process (CPP and BCPP,respectively) ensure a better description than the homogeneous Poisson processfor clustering of events. In this paper, new explicit representations ofthe moment characteristics (general, central, factorial, binomial and ordinarymoments, factorial cumulants) and some covariance structures are derivedfor the CPP and BCPP. Then, the skewness and kurtosis of the univariateCPP are obtained for the first time and special cases of the CPP are studiedin detail. Applications to two real data sets are given to illustrate the usageof these processes.
  • Ítem
    The family of log-skew-normal alpha-power distributions using precipitation data
    (Universidad Nacional de Colombia, 2013) Martínez-Flórez, Guillermo; Vergara-Cardozo, Sandra; González, Luz Mery
    We present a new set of distributions for positive data based on a skewnormalalpha-power (PSN) model including a new parameter which in turnmakes the log-skew-normal alpha-power (LPSN) model more flexible thanboth the log-normal (LN) model and log-skew-normal (LSN) model. TheLPSN model contains the LN model and LSN model as special cases. Furthermore,it models positive data with asymmetry and kurtosis larger thanthe one permitted by the LN distribution. Precipitation data illustrates theusefulness of the LPSN model being less influenced by outliers.
  • Ítem
    A multi-stage almost ideal demand system: the case of beef demand in colombia
    (Universidad Nacional de Colombia, 2013) Ramírez, Andrés
    The main objective in this paper is to obtain reliable long-term and shorttermelasticities estimates of the beef demand in Colombia using quarterlydata since 1998 until 2007. However, complexity on the decision process ofconsumption should be taken into account, since expenditure on a particulargood is sequential. In the case of beef demand in Colombia, a Multi-Stageprocess is proposed based on an Almost Ideal Demand System (AIDS). Theeconometric novelty in this paper is to estimate simultaneously all the stagesby the Generalized Method of Moments to obtain a joint covariance matrixof parameter estimates in order to use the Delta Method for calculating thestandard deviation of the long-term elasticities estimates. Additionally, thisapproach allows us to get elasticity estimates in each stage, but also, totalelasticities which incorporate interaction between stages. On the other hand,the short-term dynamic is handled by a simultaneous estimation of the ErrorCorrection version of the model; therefore, Monte Carlo simulation exercisesare performed to analyse the impact on beef demand because of shocks atdifferent levels of the decision making process of consumers. The results indicatethat, although the total expenditure elasticity estimate of demand forbeef is 1.78 in the long-term and the expenditure elasticity estimate withinthe meat group is 1.07, the total short-term expenditure elasticity is merely0.03. The smaller short-term reaction of consumers is also evidenced on priceshocks; while the total own price elasticity of beef is -0.24 in the short-term,the total and within meat group long-term elasticities are
  • Ítem
    A bayesian approach to parameter estimation in simplex regression model: a comparison with beta regression
    (Universidad Nacional de Colombia, 2013) López, Freddy Omar
    Some variables are restricted to the open interval (0; 1) and several methodshave been developed to work with them under the scheme of the regressionanalysis. Most of research consider maximum likelihood methods andthe use of Beta or Simplex distributions.This paper presents the use of Bayesian techniques to estimate the parametersof the simplex regression supported on the implementation of somesimulations and a comparison with Beta regression. We consider both modelswith constant variance and models with
  • Ítem
    Un prueba de cucconi modificada para alternativas de cambio en localización y escala
    (Universidad Nacional de Colombia, 2012) Marozzi, Marco
    La alternativa más común para implementar una prueba que detecta cambios en localización y escala conjuntamente es combinar una prueba de localización con una de escala. Para este problema, la prueba de Cucconi es considerada como una alternativa de otras pruebas que se basan en los cuadrados de los rangos y los contrarangos. Esta prueba es robusta en nivel y es más poderosa que la prueba de Lepage la cual es la más usada para el problema de localización-escala. En este artículo se propone una modificación de la prueba de Cucconi. La idea es modificar la prueba mediante la combinación de una prueba de localización y uno de escala. Mas precisamente, se sugiere combinar la prueba de Cucconi con la prueba de rangos de Wilcoxon para localizacion y una prueba modificada de Levene siguiendo la teoría de la combinación no paramétrica. Una comparación de la potencia de esta prueba modificada de Cucconi con la prueba original, la prueba de Lepage y la prueba PG2 de Podgor-Gastwirth muestran que la prueba de Cucconi modificada es robusta en tamaño y mucho más poderosa que las anteriores para todas las distribuciones consideradas desde la normal hasta algunas de colas largas. Se hace una aplicación a datos reales.
  • Ítem
    Algunos estimadores predictivos alternativos de la varianza poblacional
    (Universidad Nacional de Colombia, 2012) Nayak, Radhakanta; Sahoo, Lokanath
    Mediante el uso de un procedimiento de estimación predictivo, se desarrollan algunos estimadores de la varianza poblacional en la presencia de una variable auxiliar. Estudios analíticos y de simulación son implementados para entender el desempeño de los estimadores sugeridos en comparación con otros ya existentes.
  • Ítem
    Una revisión introductoria de la estimación y aplicaciones de un var-x estructural
    (Universidad Nacional de Colombia, 2012) Ocampo, Sergio; Rodríguez, Norberto
    Este documento cubre la estimación e implementación del modelo VAR-X estructural bajo restricciones de identificación de corto y largo plazo. Se presenta la estimación tanto por métodos clásicos como Bayesianos. También se describen aplicaciones del modelo como impulsos respuesta ante choques estructurales, análisis de multiplicadores de las variables exógenas, descomposición de varianza del error de pronóstico y descomposición histórica de las variables endógenas. Así mismo se presenta un método para calcular regiones de alta densidad posterior en el contexto Bayesiano. Algunos de los conceptos son ejemplificados con una aplicación a datos de los Estados Unidos.
  • Ítem
    Una comparación empírica de algunos métodos de inicialización em y criterios de selección de modelos para mezclas de distribuciones normales asimetricas
    (Universidad Nacional de Colombia, 2012) Pereira, José R.; Marques, Leyne A.; da Costa, José M.
    El presente artículo muestra un estudio de simulación que evalúa el desempeño del algoritmo EM utilizado para determinar estimaciones por máxima verosimilitud de los parámetros de la mezcla finita de distribuciones normales asimétricas. Diferentes métodos de inicialización, así como el número de interacciones necesarias para establecer una regla de parada especificada y algunos criterios de selección del modelo para permitir estimar el número apropiado de componentes de la mezcla han sido considerados. Los resultados indican que el algoritmo genera estimaciones razonables cuando los valores iniciales son obtenidos mediante el método de momentos, que junto con los criterios AIC, BIC, ICL o EDC constituyen una eficaz alternativa en la estimación del número de componentes de la mezcla. Resultados insatisfactorios se verificaron al estimar los parámetros de simetría, principalmente seleccionando un tamaño pequeño para la muestra, y en los casos conocidamente problemáticos en los cuales los componentes de la mezcla están suficientemente separados.
  • Ítem
    Uso de muestras de rango ordenado en una prueba de ajuste basada en entropía para la distribución laplace
    (Universidad Nacional de Colombia, 2012) Mahdizadeh, Mahdi
    Los métodos estadísticos basados en muestreo de rango ordenado a menudo son una considerable mejora que el muestreo aleatorio simple. La medida de entropía ha sido influencial en el desarrollo de medidas de ajuste de modelos paramétricos. Este artículo propone pruebas de bondad de ajuste de la distribución Laplace basada en la entropía muestral cuando se usan estructuras basadas en muestras de rango ordenado. Para cada diseño, los valores críticos del correspondiente estadístico de prueba son estimados por medio de simulaciones para diferentes tamaños de muestra. Un estudio de Monte Carlo de la potencia de los nuevos tests es implementado para diferentes distribuciones alternas y tamaños de muestra con el fin de comparar el método propuesto con otros disponibles. La simulación muestra que el muestreo de rango ordenado y sus variaciones brindan mayor potencia que los métodos basados en muestreo aleatorio simple
  • Ítem
    Sobre la entropía del español escrito
    (Universidad Nacional de Colombia, 2012) Guerrero, Fabio G.
    Se presenta una discusión sobre la entropía de la lengua española por medio de un método práctico para el cálculo de la entropía de un texto mediante procesamiento informático directo. Como un ejemplo de aplicación, se analizan treinta muestras de texto español, sumando un total de 22,8 millones de caracteres. Longitudes de símbolos desde n = 1 hasta 500 fueron consideradas tanto para palabras como caracteres. Para el cálculo de la distribución de probabilidad de los símbolos se emplearon procesamiento directo por computador y la ley de probabilidad de los grandes números. Se presenta una relación empírica de la entropía con la longitud del texto (en caracteres) y el número de palabras diferentes en el texto. Se analizan también propiedades estadísticas de la lengua española cuando se considera como producida por una fuente estocástica, tales como la invarianza al desplazamiento del origen, ergodicidad y la propiedad de equipartición asintótica.
  • Ítem
    Pruebas de bondad de ajuste para la distribución gumbel con datos censurados por la derecha tipo ii
    (Universidad Nacional de Colombia, 2012) Salinas, Víctor; Pérez, Paulino; González, Elizabeth; Vaquera, Humberto
    En este artículo se proponen pruebas de bondad de ajuste para la distribución Gumbel para datos censurados por la derecha Tipo II. Una prueba se basa en trabajos previos en los que se modifica la información de Kullback- Leibler para datos censurados. Las otras pruebas se basan en el coeficiente de correlación muestral y en conceptos de análisis de supervivencia. Los valores críticos se obtuvieron mediante simulación Monte Carlo para diferentes tamaños de muestras y porcentajes de censura. La potencia de la pruebas se compararon bajo varias alternativas. Los resultados de la simulación muestran que la prueba basada en la Divergencia de Kullback-Leibler es superior a las pruebas de correlación en términos de potencia.
  • Ítem
    Geofd: un paquete r para predicción geoestadística de datos funcionales
    (Universidad Nacional de Colombia, 2012) Giraldo, Ramón; Mateu, Jorge; Delicado, Pedro
    Curvas espacialmente correlacionadas están presentes en un amplio rango de disciplinas aplicadas. En este trabajo se describe el paquete R geofd que implementa predicción por kriging ordinario para este tipo de datos. Inicialmente las curvas son suavizadas usando bases de funciones de Fourier o Bsplines. Posteriormente la dependencia espacial entre las curvas es estimada por la función traza-variograma. Finalmente los parámetros del predictor kriging ordinario son estimados resolviendo un sistema de ecuaciones basado en la estimación de la función traza-variograma. Se ilustra el paquete analizando datos reales y simulados.
  • Ítem
    Distribuciones estadísticas de fatiga útiles para modelar diámetro y mortalidad de árboles
    (Universidad Nacional de Colombia, 2012) Leiva, Víctor; Ponce, M. Guadalupe; Marchant, Carolina; Bustos, Oscar
    Los procesos de mortalidad y la distribución del diámetro a la altura del pecho (DAP) de árboles son dos problemas importantes en el área forestal. Los árboles mueren debido a diversos factores causados por estrés mediante un fenómeno similar a la fatiga de materiales. Específicamente, la fuerza (tasa) de mortalidad de árboles crece rápidamente en una primera fase y luego alcanza un máximo, momento en el que comienza una segunda fase en donde esta tasa decrece lentamente estabilizándose en una constante en el largo plazo. Distribuciones Birnbaum-Saunders (BS) son modelos que han recibido una atención considerable en la actualidad debido a sus interesantes propiedades. Modelos BS nacen de un problema de fatiga de materiales y poseen una tasa de fallas (equivalente a la fuerza de mortalidad) que se comporta de la misma forma que ésa del DAP de árboles. Entonces, distribuciones BS poseen argumentos que las transforman en modelos que puede ser útiles en las ciencias forestales. En este trabajo, presentamos una metodología basada en la distribución BS asociada con esta temática forestal. Para finalizar, realizamos una aplicación con cinco conjuntos de datos reales (algunos de ellos no publicados) de DAP que proporciona una evidencia estadística en favor de la metodología BS en relación a la metodología estándar usada en ciencias forestales. Esta aplicación entrega información que puede ser valiosa para tomar decisiones forestales.
  • Ítem
    Dos pruebas para diagnóstico clínico: uso de funciones copula en la estimación de la prevalencia y los parámetros de desempeño de las pruebas
    (Universidad Nacional de Colombia, 2012) Tovar, José Rafael; Achcar, Jorge Alberto
    En este articulo introducimos un análisis Bayesiano para estimar la prevalencia y los parámetros de desempeño de pruebas para diagnóstico clínico, con datos obtenidos bajo estudios de tamizaje que incluyen el uso de dos pruebas diagnósticas en los cuales, los individuos con resultado negativo en las dos pruebas no son confirmados con una prueba patrón de oro. Dado que las pruebas de tamizaje son aplicadas al mismo indivíduo, nosotros asumimos dependencia entre los resultados de las pruebas. Generalmente, para capturar la posible dependencia existente entre los resultados de las pruebas diagnósticas, se asume una estrutura de covarianza binaria, pero en este artículo, nosotros consideramos el uso de estructuras que pueden ser modaladas usando funciones cópula, como una alternativa al modelamiento de la dependencia. Las estadísticas a posteriori de interés son obtenidas usando métodos MCMC. Los resultados obtenidos usando nuestra aproximación son comparados con los obtenidos usando modelos que asumen estructura binária y con los obtenidos usando modelos bajo el supuesto de independencia entre resultados de las pruebas para diagnóstico clínico. Para ilustrar la aplicación del método y para hacer las comparaciones se usaron los datos de dos estudios publicados en la literatura.