Mostrar el registro sencillo del documento

dc.rights.licenseReconocimiento 4.0 Internacional
dc.contributor.advisorÁlvarez-Meza, Andrés Marino
dc.contributor.advisorCastellanos-Domínguez, Germán
dc.contributor.authorAguirre Arango, Juan Carlos
dc.date.accessioned2023-12-11T19:54:18Z
dc.date.available2023-12-11T19:54:18Z
dc.date.issued2023
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/85066
dc.descriptionfotografías, graficas, ilustraciones
dc.description.abstractSemantic segmentation is pivotal in various industries, showcasing its significant impact across numerous applications. Semantic segmentation offers invaluable insights that drive advancements in fields such as autonomous driving, surveillance, robotics, and augmented reality by enabling precise identification and labeling of objects within an image. Accurate segmentation of objects allows autonomous vehicles to navigate complex environments, surveillance systems to detect and track specific objects, robots to manipulate objects efficiently, and augmented reality applications to seamlessly blend virtual objects with the real world. However, in the medical industry, the importance of semantic segmentation has become truly profound. Medical imaging techniques, such as computerized tomography scans and magnetic resonance imaging, generate vast amounts of data that require meticulous annotation for analysis. Manual annotation is a time-consuming and resource-intensive process, leading to diagnosis and treatment planning delays. Semantic segmentation techniques have the potential to automate this process, facilitating faster and more accurate analysis of medical images, thereby enhancing patient care and reducing the burden on healthcare professionals. Moreover, in medical applications, the need for interpretability is critical. Understanding and interpreting the segmentation results is vital for clinicians to make informed decisions. Interpretable semantic segmentation techniques provide transparency and insights into the segmentation process, ensuring that medical professionals can trust and validate the results for accurate diagnosis and treatment. Medical image analysis faces several challenges, with one of the primary obstacles being the limited availability of datasets specifically tailored for training segmentation models. These models require large and diverse datasets to learn the intricate patterns and features of medical images accurately. However, due to the sensitive nature of medical data and the need for expert annotations, obtaining such datasets can be challenging. Another significant challenge arises from the high variability in the region of interest (ROI) within medical imaging. The ROI can differ significantly from one patient to another due to variations in anatomy, pathology, and imaging parameters. This variability leads to differences in shape, size, and texture, making it difficult for segmentation models to delineate and analyze the regions of interest accurately. Consequently, ensuring consistent and reliable segmentation results across diverse medical images remains a critical challenge. Furthermore, there is a pressing need for systematic and quantitative evaluations of interpretability in deep learning-based segmentation models. Without such evaluations, trusting and relying on these models for clinical decision-making becomes challenging. Medical practitioners must comprehensively understand how and why these models arrive at their conclusions to incorporate them into their practice confidently. The absence of standardized evaluation methods impedes progress in building interpretable and trustworthy medical image analysis systems. This work addresses challenges in medical image segmentation. Our contributions include optimizing Random Fourier Features for spatial data through gradient descent named CRFFg, enhancing shallow encoder-decoder models for semantic segmentation, and proposing quantitative measures for interpretability. CRFFg takes advantage of the generalization properties of kernel methods and enhances data efficiency for spatial data derived from convolutions, mitigating low sample size and overfitting. To address shape, size, and texture variability in semantic segmentation across patients and imaging protocols, we incorporate a CRFFg layer into the skip connection of the encoder-decoder models. This improves the representation of low-level features from the encoder and their fusion in the decoder, specifically targeting the challenges of ROI variability. Interpretability is crucial in medical semantic segmentation, but deep learning models present challenges. To enhance interpretability, we propose quantitative measures: CAM-based Cumulative Relevance assesses the location of relevance in specific regions of interest, Mask-based Cumulative Relevance evaluates sensibility across multiple regions of interest, and CAM-Dice measures the homogeneity of relevance in interest regions. These measures provide objective and comprehensive evaluations, surpassing visual inspection and qualitative analysis. The proposed work has been tested in a medical image application where the mentioned problems occur, specifically in the segmentation of feet for monitoring the effectiveness of analgesia in the obstetric environment. This is achieved by monitoring changes in temperature at the soles of the feet. The proposed methodology demonstrates comparable performance with standard methods while also enhancing interpretability. It is important to note that this project is being developed in conjunction with SES Hospital Universitario de Caldas, under the name "Sistema prototipo de visión por computador utilizando aprendizaje profundo como soporte al monitoreo de zonas urbanas desde unidades aéreas no tripuladas" (Hermes Code 55261). The project is funded by Universidad Nacional de Colombia. In our future research, we have identified several promising avenues that can advance our work. By analyzing the spectral representation of the CRFFg layer, we aim to uncover hidden patterns and gain a deeper understanding of the subject. Additionally, incorporating Bayesian approximation techniques will enable us to enhance our decision-making and optimization strategies. We also plan to employ regularization techniques based on the proposed measures, which will effectively address overfitting issues and improve the model's performance by focusing on the desired behavior of the discriminative regions. By pursuing these paths, we aim to enhance our approach's overall effectiveness and reliability significantly, thereby pushing the boundaries of knowledge in this field (Texto tomado de la fuente)
dc.description.abstractLa segmentación semántica es fundamental en varias industrias y muestra su impacto significativo en numerosas aplicaciones. La segmentación semántica ofrece información valiosa que impulsa los avances en campos como la conducción autónoma, la vigilancia, la robótica y la realidad aumentada al permitir la identificación y el etiquetado precisos de los objetos dentro de una imagen. La segmentación precisa de objetos permite que los vehículos autónomos naveguen en entornos complejos, los sistemas de vigilancia detecten y rastreen objetos específicos, los robots manipulen objetos de manera eficiente y las aplicaciones de realidad aumentada combinen a la perfección objetos virtuales con el mundo real. Sin embargo, en la industria médica, la importancia de la segmentación semántica se ha vuelto verdaderamente profunda. Las técnicas de imágenes médicas, como las tomografías computarizadas y las resonancias magnéticas, generan grandes cantidades de datos que requieren una anotación meticulosa para su análisis. La anotación manual es un proceso que requiere mucho tiempo y recursos, lo que genera retrasos en el diagnóstico y la planificación del tratamiento. Las técnicas de segmentación semántica tienen el potencial de automatizar este proceso, facilitando un análisis más rápido y preciso de imágenes médicas, mejorando así la atención al paciente y reduciendo la carga de los profesionales de la salud. Además, en aplicaciones médicas, la necesidad de interpretabilidad es crítica. Comprender e interpretar los resultados de la segmentación es vital para que los médicos tomen decisiones informadas. Las técnicas de segmentación semántica interpretables brindan transparencia e información sobre el proceso de segmentación, lo que garantiza que los profesionales médicos puedan confiar y validar los resultados para un diagnóstico y tratamiento precisos. El análisis de imágenes médicas enfrenta varios desafíos, y uno de los principales obstáculos es la disponibilidad limitada de conjuntos de datos específicamente diseñados para entrenar modelos de segmentación. Estos modelos requieren conjuntos de datos grandes y diversos para aprender con precisión los patrones y características intrincados de las imágenes médicas. Sin embargo, debido a la naturaleza confidencial de los datos médicos y la necesidad de anotaciones de expertos, la obtención de dichos conjuntos de datos puede ser un desafío. Otro desafío significativo surge de la alta variabilidad en la región de interés (ROI) dentro de las imágenes médicas. El ROI puede diferir significativamente de un paciente a otro debido a variaciones en la anatomía, la patología y los parámetros de imagen. Esta variabilidad conduce a diferencias en forma, tamaño y textura, lo que dificulta que los modelos de segmentación delineen y analicen las regiones de interés con precisión. En consecuencia, garantizar resultados de segmentación consistentes y confiables en diversas imágenes médicas sigue siendo un desafío crítico. Además, existe una necesidad apremiante de evaluaciones sistemáticas y cuantitativas de la interpretabilidad en modelos de segmentación basados en aprendizaje profundo. Sin tales evaluaciones, confiar en estos modelos para la toma de decisiones clínicas se convierte en un desafío. Los médicos deben comprender de manera integral cómo y por qué estos modelos llegan a sus conclusiones para incorporarlos a su práctica con confianza. La ausencia de métodos de evaluación estandarizados impide el progreso en la construcción de sistemas de análisis de imágenes médicas interpretables y confiables. Este trabajo aborda los desafíos en la segmentación de imágenes médicas. Nuestras contribuciones incluyen la optimización de las características aleatorias de Fourier para datos espaciales a través del descenso de gradiente denominado CRFFg, la mejora de los modelos de codificador-decodificador poco profundos para la segmentación semántica y la propuesta de medidas cuantitativas para la interpretabilidad. CRFFg toma ventajas de las propiedades de generalización de los métodos kernel y mejora la eficiencia de datos para datos espaciales derivados de convoluciones, mitigando el tamaño de muestra bajo y el sobreajuste. Para abordar la variabilidad de forma, tamaño y textura en la segmentación semántica entre pacientes y protocolos de imágenes, incorporamos una capa CRFFg en la conexión de salto de los modelos codificador-decodificador. Esto mejora la representación de características de bajo nivel del codificador y su fusión en el decodificador, apuntando específicamente a los desafíos de la variabilidad del ROI. La interpretabilidad es crucial en la segmentación semántica médica, pero los modelos de aprendizaje profundo presentan desafíos. Para mejorar la interpretabilidad, proponemos medidas cuantitativas: la relevancia acumulada basada en CAM evalúa la ubicación de relevancia en regiones específicas de interés, la relevancia acumulada basada en máscara evalúa la sensibilidad en múltiples regiones de interés y CAM-Dice mide la homogeneidad de relevancia en regiones de interés. Estas medidas proporcionan evaluaciones objetivas y completas, superando la inspección visual y el análisis cualitativo. El trabajo propuesto ha sido probado en una aplicación de imagen médica donde se presentan los problemas mencionados, específicamente en la segmentación de pies para monitorear la efectividad de la analgesia en el medio obstétrico. Esto se logra monitoreando los cambios de temperatura en las plantas de los pies. La metodología propuesta demuestra un rendimiento comparable con los métodos estándar al tiempo que mejora la interpretabilidad. Es importante señalar que este proyecto se está desarrollando en conjunto con SES Hospital Universitario de Caldas, bajo el nombre de ”Sistema prototipo de visión por computador utilizando aprendizaje profundo como soporte al monitoreo de zonas urbanas desde unidades aéreas no tripuladas” (Código Hermes 55261 ). El proyecto es financiado por la Universidad Nacional de Colombia En nuestra investigación futura, hemos identificado varias vías prometedoras que pueden avanzar en nuestro trabajo. Al analizar la representación espectral de la capa CRFFg, nuestro objetivo es descubrir patrones ocultos y obtener una comprensión más profunda del tema. Además, la incorporación de técnicas de aproximación bayesiana nos permitirá mejorar nuestras estrategias de toma de decisiones y optimización. También planeamos emplear técnicas de regularización basadas en las medidas propuestas, que abordarán de manera efectiva los problemas de sobreajuste y mejorarán el rendimiento del modelo al enfocarse en el comportamiento deseado de las regiones discriminatorias. Al seguir estos caminos, nuestro objetivo es mejorar significativamente la eficacia y confiabilidad general de nuestro enfoque, ampliando así los límites del conocimiento en este campo.
dc.format.extentxxv, 151 páginas
dc.format.mimetypeapplication/pdf
dc.language.isoeng
dc.publisherUniversidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/
dc.subject.ddc620 - Ingeniería y operaciones afines
dc.titleA deep learning approach for image-based semantic segmentation with preserved interpretability
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.publisher.programManizales - Ingeniería y Arquitectura - Maestría en Ingeniería - Automatización Industrial
dc.contributor.researchgroupGrupo de Control y Procesamiento Digital de Señales
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Ingeniería - Automatización Industrial
dc.identifier.instnameUniversidad Nacional de Colombia
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourlhttps://repositorio.unal.edu.co/
dc.publisher.facultyFacultad de Ingeniería y Arquitectura
dc.publisher.placeManizales, Colombia
dc.publisher.branchUniversidad Nacional de Colombia - Sede Manizales
dc.relation.references[Speith, 2022] Speith, T. (2022). A review of taxonomies of explainable artificial intelligence (xai) methods. In 2022 ACM Conference on Fairness, Accountability, and Transparency, pages 2239–2250.
dc.relation.references[Stergiou, 2021] Stergiou, A. (2021). The mind’s eye: Visualizing class-agnostic features of cnns.
dc.relation.references[Stevens et al., 2006] Stevens, M. F., Werdehausen, R., Hermanns, H., and Lipfert, P. (2006). Skin temperature during regional anesthesia of the lower extremity. Anesthesia and analgesia, 102(4):1247—1251.
dc.relation.references[Sun et al., 2020] Sun, J., Darbehani, F., Zaidi, M., and Wang, B. (2020). Saunet: Shape attentive u-net for interpretable medical image segmentation.
dc.relation.references[Taghanaki et al., 2021] Taghanaki, S. A., Abhishek, K., Cohen, J. P., Cohen-Adad, J., and Hamarneh, G. (2021). Deep semantic segmentation of natural and medical images: a review. Artificial Intelligence Review, 54:137–178. Argumentan el uso de arquiteturas encoder-decoder.
dc.relation.references[Tancik et al., 2020] Tancik, M., Srinivasan, P. P., Mildenhall, B., Fridovich-Keil, S., Raghavan, N., Singhal, U., Ramamoorthi, R., Barron, J. T., and Ng, R. (2020). Fourier features let networks learn high frequency functions in low dimensional domains.
dc.relation.references[Teng et al., 2022] Teng, Q., Liu, Z., Song, Y., Han, K., and Lu, Y. (2022). A survey on the interpretability of deep learning in medical diagnosis. Multimedia Systems, pages 1–21.
dc.relation.references[Tsai et al., 2023] Tsai, J., Chang, C.-C., and Li, T. (2023). Autonomous driving control based on the technique of semantic segmentation. Sensors, 23(2).
dc.relation.references[Tsuneki, 2022] Tsuneki, M. (2022). Deep learning models in medical image analysis. Journal of Oral Biosciences, 64(3):312–320.
dc.relation.references[Ventura et al., 2023] Ventura, F., Greco, S., Apiletti, D., and Cerquitelli, T. (2023). Explaining deep convolutional models by measuring the influence of interpretable features in image classification. Data Mining and Knowledge Discovery, pages 1–58
dc.relation.references[Vinogradova et al., 2020] Vinogradova, K., Dibrov, A., and Myers, G. (2020). Towards interpretable semantic segmentation via gradient-weighted class activation mapping.
dc.relation.references[Wang et al., 2019] Wang, H., Wang, Z., Du, M., Yang, F., Zhang, Z., Ding, S., Mardziel, P., and Hu, X. (2019). Score-cam: Score-weighted visual explanations for convolutional neural networks.
dc.relation.references[Wang et al., 2022a] Wang, R., Lei, T., Cui, R., Zhang, B., Meng, H., and Nandi, A. K. (2022a). Medical image segmentation using deep learning: A survey. IET Image Processing, 16(5):1243–1267.
dc.relation.references[Wang and Li, 2023] Wang, S. and Li, R. (2023). Semantic-guided disentangled representation for unsupervised cross-modality medical image segmentation.
dc.relation.references[Wang et al., 2022b] Wang, T., Dong, B., Zhang, K., Li, J., and Xu, L. (2022b). Slim-rffnet: Slim deep convolution random fourier feature network for image classification. Knowledge-Based Systems, 237:107878.
dc.relation.references[Wang et al., 2021] Wang, X., Wang, L., Zhong, X., Bai, C., Huang, X., Zhao, R., and Xia, M. (2021). Pai-net: A modified u-net of reducing semantic gap for surgical instrument segmentation. IET Image Processing, 15:2959–2969.
dc.relation.references[Werdehausen et al., 2007] Werdehausen, R., Braun, S., Hermanns, H., Freynhagen, R., Lipfert, P., and Stevens, M. F. (2007). Uniform distribution of skin-temperature increase after different regional-anesthesia techniques of the lower extremity. Regional Anesthesia and Pain Medicine, 32(1):73–78.
dc.relation.references[Whitburn and Jones, 2020] Whitburn, L. Y. and Jones, L. E. (2020). Looking for Meaning in Labour Pain: Are Current Pain Measurement Tools Adequate? Pain Medicine, 22(5):1023–1028.
dc.relation.references[Whittingham, 2013] Whittingham, T. (2013). Imaging and imagining the fetus – the development of obstetric ultrasound. Ultrasound, 21:235 – 235.
dc.relation.references[Wieland et al., 2023] Wieland, M., Martinis, S., Kiefl, R., and Gstaiger, V. (2023). Semantic segmentation of water bodies in very high-resolution satellite and aerial images. Remote Sensing of Environment, 287:113452.
dc.relation.references[Willemink et al., 2020] Willemink, M. J., Koszek, W. A., Hardell, C., Wu, J., Fleischmann, D., Harvey, H., Folio, L. R., Summers, R. M., Rubin, D. L., and Lungren, M. P. (2020). Preparing medical imaging data for machine learning. Radiology, 295(1):4–15.
dc.relation.references[Williams et al., 2022] Williams, E., Niehaus, S., Reinelt, J., Merola, A., Mihai, P. G., Villringer, K., Thierbach, K., Medawar, E., Lichterfeld, D., Roeder, I., Scherf, N., and del C. Valdés Hernández, M. (2022). Automatic quality control framework for more reliable integration of machine learning-based image segmentation into medical workflows.
dc.relation.references[World Health Organization, 2023] World Health Organization (2023). Maternal health. Accessed on May 4, 2023.
dc.relation.references[Wu and Tang, 2021] Wu, J. and Tang, X. (2021). Brain segmentation based on multi-atlas and diffeomorphism guided 3d fully convolutional network ensembles. Pattern Recognition, 115:107904.
dc.relation.references[Xiao et al., 2017a] Xiao, H., Rasul, K., and Vollgraf, R. (2017a). Fashionmnist: a novel image dataset for benchmarking machine learning algorithms.
dc.relation.references[Xiao et al., 2017b] Xiao, H., Rasul, K., and Vollgraf, R. (2017b). Fashion-mnist: a novel image dataset for benchmarking machine learning algorithms. CoRR, abs/1708.07747.
dc.relation.references[Xie et al., 2019] Xie, J., Liu, F., Wang, K., and Huang, X. (2019). Deep kernel learning via random fourier features.
dc.relation.references[Xu et al., 2023] Xu, Q., Xie, W., Liao, B., Hu, C., Qin, L., Yang, Z., Xiong, H., Lyu, Y., Zhou, Y., Luo, A., et al. (2023). Interpretability of clinical decision support systems based on artificial intelligence from technological and medical perspective: A systematic review. Journal of Healthcare Engineering, 2023.
dc.relation.references[Yang and Yu, 2021] Yang, R. and Yu, Y. (2021). Artificial convolutional neural network in object detection and semantic segmentation for medical imaging analysis. Frontiers in Oncology, 11(1):573.
dc.relation.references[Yeung et al., 2022] Yeung, M., Sala, E., Schönlieb, C.-B., and Rundo, L. (2022). Unified focal loss: Generalising dice and cross entropy-based losses to handle class imbalanced medical image segmentation. Computerized Medical Imaging and Graphics, 95:102026.
dc.relation.references[Yıldırım et al., 2023] Yıldırım, G., Karakaş, H. M., Özkaya, Y. A., Şener, E., Fındık, Ö., and Pulat, G. N. (2023). Development of an artificial intelligence method to detect covid-19 pneumonia in computed tomography images. Istanbul Medical Journal, 24(1).
dc.relation.references[Zhang and Dong, 2019] Zhang, H. and Dong, B. (2019). A review on deep learning in medical image reconstruction. Journal of the Operations Research Society of China, 8:311–340.
dc.relation.references[Zhang et al., 2022] Zhang, L., Nan, Q., Bian, S., Liu, T., and Xu, Z. (2022). Real-time segmentation method of billet infrared image based on multi-scale feature fusion. Scientific Reports, 12(1):6879.
dc.relation.references[Zhang et al., 2020] Zhang, X., Xu, J., Yang, J., Chen, L., Zhou, H., Liu, X., Li, H., Lin, T., and Ying, Y. (2020). Understanding the learning mechanism of convolutional neural networks in spectral analysis. Analytica Chimica Acta, 1119:41–51.
dc.relation.references[Zhang et al., 2021a] Zhang, Y., Liu, H., and Hu, Q. (2021a). Transfuse: Fusing transformers and cnns for medical image segmentation. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 12901 LNCS:14–24.
dc.relation.references[Zhang et al., 2021b] Zhang, Y., Tino, P., Leonardis, A., and Tang, K. (2021b). A survey on neural network interpretability. IEEE Transactions on Emerging Topics in Computational Intelligence, 5(5):726–742.
dc.relation.references[Zhao et al., 2017] Zhao, H., Shi, J., Qi, X., Wang, X., and Jia, J. (2017). Pyramid scene parsing network.
dc.relation.references[Zheng et al., 2022] Zheng, Q., Wang, Z., Zhou, J., and Lu, J. (2022). Shap-cam: Visual explanations for convolutional neural networks based on shapley value.
dc.relation.references[Zhou et al., 2015a] Zhou, B., Khosla, A., Lapedriza, A., Oliva, A., and Torralba, A. (2015a). Learning deep features for discriminative localization.
dc.relation.references[Zhou et al., 2015b] Zhou, B., Khosla, A., Lapedriza, À., Oliva, A., and Torralba, A. (2015b). Learning deep features for discriminative localization. CoRR, abs/1512.04150.
dc.relation.references[Zhou et al., 2018a] Zhou, Z., Siddiquee, M. M. R., Tajbakhsh, N., and Liang, J. (2018a). Unet++: A nested u-net architecture for medical image segmentation. CoRR, abs/1807.10165.
dc.relation.references[Zhou et al., 2018b] Zhou, Z., Siddiquee, M. M. R., Tajbakhsh, N., and Liang, J. (2018b). Unet++: A nested u-net architecture for medical image segmentation. Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), 11045 LNCS:3–11.
dc.relation.references[Zhou et al., 2020] Zhou, Z., Siddiquee, M. M. R., Tajbakhsh, N., and Liang, J. (2020). Unet++: Redesigning skip connections to exploit multiscale features in image segmentation.
dc.relation.references[Zou et al., 2021] Zou, K., Chen, X., Wang, Y., Zhang, C., and Zhang, F. (2021). A modified u-net with a specific data argumentation method for semantic segmentation of weed images in the field. Computers and Electronics in Agriculture, 187:106242.
dc.relation.references[Zunair and Hamza, 2021] Zunair, H. and Hamza, A. B. (2021). Sharp u-net: Depthwise convolutional network for biomedical image segmentation. Computers in Biology and Medicine, 136:104699.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.proposalInfrared thermal segmentation
dc.subject.proposalRegional neuraxial analgesia
dc.subject.proposalDeep learning
dc.subject.proposalRandom fourier features
dc.subject.proposalClass activation maps
dc.subject.proposalSegmentación térmica infrarroja
dc.subject.proposalAnalgesia neuroaxial regional
dc.subject.proposalAprendizaje profundo
dc.subject.proposalCaracterísticas aleatorias de Fourier
dc.subject.proposalMapas de activación de clase
dc.title.translatedUn enfoque de aprendizaje profundo para la segmentación semántica de imágenes conservando interpretabilidad
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2
dcterms.audience.professionaldevelopmentBibliotecarios
dcterms.audience.professionaldevelopmentEstudiantes
dcterms.audience.professionaldevelopmentGrupos comunitarios
dcterms.audience.professionaldevelopmentInvestigadores
dcterms.audience.professionaldevelopmentPúblico general
dc.description.curricularareaEléctrica, Electrónica, Automatización Y Telecomunicaciones.Sede Manizales
dc.contributor.orcidAguirre Arango, Juan Carlos [0000000307027401]


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Reconocimiento 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito