Mostrar el registro sencillo del documento

dc.rights.licenseAtribución-NoComercial-CompartirIgual 4.0 Internacional
dc.contributor.advisorGómez Jaramillo, Francisco Albeiro
dc.contributor.advisorBarbosa Parada, Nathaly
dc.contributor.authorSarmiento Torres, Camilo Ernesto
dc.date.accessioned2024-02-06T21:07:05Z
dc.date.available2024-02-06T21:07:05Z
dc.date.issued2023
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/85636
dc.descriptionIlustraciones diagramas
dc.description.abstractContexto: El cáncer de próstata es el segundo tipo de cáncer más frecuente en hombres a nivel mundial, y su incidencia varía considerablemente según las regiones geográficas. En Latinoamérica, se estima que es el tercer tipo de cáncer más común y el más letal entre los hombres. Para un tratamiento efectivo, es crucial determinar con precisión la extensión de la enfermedad, y las imágenes PET/CT con radiotrazadores específicos del antígeno de membrana de próstata (PSMA) han demostrado ser útiles para este propósito. Estas imágenes también permiten medir la carga metabólica tumoral, un indicador importante para evaluar la respuesta al tratamiento, ya que una mayor carga metabólica se relaciona con un grado de malignidad más elevado y un posible avance de la enfermedad. No obstante, las imágenes PET/CT presentan desafíos debido a su baja resolución y alto ruido, lo que dificulta la delimitación precisa de la carga metabólica tumoral y requiere una considerable cantidad de tiempo. Los métodos comunes para esta delimitación son la interpretación visual y el uso de umbrales en software semiautomáticos, pero ambos presentan limitaciones y variabilidad dependiendo del observador o del umbral seleccionado. En el caso del cáncer de próstata metastásico, la delimitación manual es aún más compleja debido a la presencia de múltiples metástasis, lo que puede afectar la determinación de los tratamientos. Para afrontar estas dificultades, en este trabajo se han explorado enfoques basados en aprendizaje de máquina, que ofrecen una mayor precisión y se han revelado como una herramienta valiosa para mejorar la delimitación y cuantificación del MTB, brindando un método validado, reproducible y preciso para los centros oncológicos. Objetivo: El objeto de este trabajo fue cuantificar de forma automática la carga metabólica tumoral a través de algoritmos de aprendizaje de máquina en imágenes de tomografía por emisión de positrones de 68Ga-PSMA en pacientes diagnosticados con carcinoma de próstata. Metodología: Este trabajo adopto la metodología CRISP-DM (Cross Industry Standard Process of Data Mining) pero se realizaron adaptaciones donde fue necesario. Se recolectaron 100 exámenes PET/CT de 68Ga-PSMA en pacientes diagnosticados con carcinoma de próstata los cuales fueron anotados y estandarizados para después entrenar y evaluar una red neuronal convolucional con la arquitectura Attention U-NET en la tarea de la segmentación semántica de la carga metabólica tumoral. Resultados: Los resultados principales incluyen la creación de un modelo que puede cuantificar de manera automática la carga metabólica tumoral en exámenes PET/CT de 68Ga-PSMA en pacientes diagnosticados con carcinoma de próstata en la región de la pelvis. Este modelo destaca las captaciones en la próstata y los ganglios linfáticos. (Texto tomado de la fuente)
dc.description.abstractContext: Prostate cancer is the second most frequent type of cancer in men worldwide, and its incidence varies considerably according to geographical regions. In Latin America, it is estimated that it is the third most common type of cancer and the most lethal among men. For effective treatment, it is crucial to accurately determine the extent of the disease, and PET/CT imaging with prostate membrane antigen (PSMA)-specific radiotracers has proven useful for this purpose. These images also make it possible to measure the metabolic tumor burden, an important indicator to assess the response to treatment, since a higher metabolic burden is related to a higher degree of malignancy and a possible progression of the disease. However, PET/CT imaging presents challenges due to its low resolution and high noise, making precise delineation of metabolic tumor burden difficult and requiring a considerable amount of time. The common methods for this delimitation are visual interpretation and the use of thresholds in semi-automatic software, but both present limitations and variability depending on the observer or the selected threshold. In the case of metastatic prostate cancer, manual delimitation is even more complex due to the presence of multiple metastases, which can affect the determination of treatments. To face these difficulties, in this work we have explored approaches based on machine learning, which offer greater precision and have been revealed as a valuable tool to improve the delimitation and quantification of MTB, providing a validated, reproducible and precise method for cancer centers. Objective: The aim of this work was to automatically quantify the tumor metabolic burden through machine learning algorithms in 68Ga-PSMA positron emission tomography images in patients diagnosed with prostate carcinoma. Methodology: This work adopted the CRISP-DM (Cross Industry Standard Process of Data Mining) methodology, but adaptations were made where necessary. One hundred 68Ga-PSMA PET/CT scans were collected from patients diagnosed with prostate carcinoma, which were annotated and standardized to later train and evaluate a convolutional neural network with the Attention U-NET architecture in the task of semantic segmentation of metabolic tumor burden. Results: The main results include the creation of a model that can automatically quantify the metabolic tumor burden on 68Ga-PSMA PET/CT scans in patients diagnosed with prostate carcinoma in the pelvic region. This model highlights uptakes in the prostate and lymph nodes.
dc.format.extent[xiii], 85 páginas
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/
dc.titleCuantificación automática de la carga metabólica tumoral en imágenes de tomografía por emisión de positrones de 68Ga-PSMA en pacientes con carcinoma de próstata
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.publisher.programBogotá - Ciencias - Maestría en Física Médica
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Física Médica
dc.description.researchareaMedicina Nuclear
dc.identifier.instnameUniversidad Nacional de Colombia
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourlhttps://repositorio.unal.edu.co/
dc.publisher.facultyFacultad de Ciencias
dc.publisher.placeBogotá, Colombia
dc.publisher.branchUniversidad Nacional de Colombia - Sede Bogotá
dc.relation.referencesP. Rawla, «Epidemiology of Prostate Cancer», World J Oncol, vol. 10, n.o 2, p. 63, 2019, doi: 10.14740/WJON1191.
dc.relation.referencesR. B. dos Reis et al., «Prostate Cancer in Latin America: Challenges and Recommendations», Cancer Control, vol. 27, n.o 1, ene. 2020, doi: 10.1177/1073274820915720.
dc.relation.references«Páginas - Incidencia cáncer de próstata en Colombia». Accedido: 9 de agosto de 2022. [En línea]. Disponible en: https://www.sispro.gov.co/observatorios/oncancer/indicadores/Paginas/C%C3%A1ncer-de-pr%C3%B3stata.aspx
dc.relation.referencesT. Matoba et al., «Impact of tumor burden on survival in patients with recurrent or metastatic head and neck cancer treated with immune checkpoint inhibitors», Scientific Reports 2022 12:1, vol. 12, n.o 1, pp. 1-8, ago. 2022, doi: 10.1038/s41598-022-18611-z.
dc.relation.referencesC. Hurley et al., «Comparison of 18F-FDG-PET-CT and bone scintigraphy for evaluation of osseous metastases in newly diagnosed and recurrent osteosarcoma», Pediatr Blood Cancer, vol. 63, n.o 8, p. 1381, ago. 2016, doi: 10.1002/PBC.26014.
dc.relation.referencesF. Dondi, D. Albano, F. Bertagna, y G. Treglia, «Bone Scintigraphy versus PSMA-Targeted PET/CT or PET/MRI in Prostate Cancer: Lessons Learned from Recent Systematic Reviews and Meta-Analyses», Cancers (Basel), vol. 14, n.o 18, sep. 2022, doi: 10.3390/CANCERS14184470.
dc.relation.referencesI. Tsechelidis y A. Vrachimis, «PSMA PET in Imaging Prostate Cancer», Front Oncol, vol. 12, p. 170, ene. 2022, doi: 10.3389/FONC.2022.831429/BIBTEX.
dc.relation.referencesJ. Kuten et al., «Head-to-Head Comparison of 68 Ga-PSMA-11 with 18 F-PSMA-1007 PET/CT in Staging Prostate Cancer Using Histopathology and Immunohistochemical Analysis as a Reference Standard», J Nucl Med, vol. 61, n.o 4, pp. 527-532, abr. 2020, doi: 10.2967/JNUMED.119.234187.
dc.relation.referencesS. Hoberück et al., «Intraindividual comparison of [68 Ga]-Ga-PSMA-11 and [18F]-F-PSMA-1007 in prostate cancer patients: a retrospective single-center analysis», EJNMMI Res, vol. 11, n.o 1, pp. 1-18, oct. 2021, doi: 10.1186/S13550-021-00845-Z/TABLES/9.
dc.relation.referencesS. Schmuck et al., «Initial Experience with Volumetric 68Ga-PSMA I&T PET/CT for Assessment of Whole-Body Tumor Burden as a Quantitative Imaging Biomarker in Patients with Prostate Cancer», J Nucl Med, vol. 58, n.o 12, pp. 1962-1968, dic. 2017, doi: 10.2967/JNUMED.117.193581.
dc.relation.referencesH. J. Im, T. Bradshaw, M. Solaiyappan, y S. Y. Cho, «Current Methods to Define Metabolic Tumor Volume in Positron Emission Tomography: Which One is Better?», Nucl Med Mol Imaging, vol. 52, n.o 1, pp. 5-15, feb. 2018, doi: 10.1007/S13139-017-0493-6.
dc.relation.referencesF. Barbato et al., «PSMA-PET for the assessment of metastatic hormone-sensitive prostate cancer volume of disease», J Nucl Med, vol. 62, n.o 12, pp. 1747-1750, dic. 2021, doi: 10.2967/JNUMED.121.262120.
dc.relation.referencesC. J. Sweeney et al., «Chemohormonal Therapy in Metastatic Hormone-Sensitive Prostate Cancer», N Engl J Med, vol. 373, n.o 8, pp. 737-746, ago. 2015, doi: 10.1056/NEJMOA1503747.
dc.relation.referencesC. C. Parker et al., «Radiotherapy to the primary tumour for newly diagnosed, metastatic prostate cancer (STAMPEDE): a randomised controlled phase 3 trial», The Lancet, vol. 392, n.o 10162, pp. 2353-2366, dic. 2018, doi: 10.1016/S0140-6736(18)32486-3/ATTACHMENT/20C2D10F-7890-48AB-ABB8-E0BBEF754C89/MMC1.PDF.
dc.relation.referencesR. Seifert et al., «Semiautomatically Quantified Tumor Volume Using 68 Ga-PSMA-11 PET as a Biomarker for Survival in Patients with Advanced Prostate Cancer», J Nucl Med, vol. 61, n.o 12, pp. 1786-1792, dic. 2020, doi: 10.2967/JNUMED.120.242057.
dc.relation.referencesR. Seifert et al., «Total tumor volume reduction and low PSMA expression in patients receiving Lu-PSMA therapy», Theranostics, vol. 11, n.o 17, pp. 8143-8151, 2021, doi: 10.7150/THNO.60222.
dc.relation.referencesC. Parkinson, C. Matthams, K. Foley, y E. Spezi, «Artificial intelligence in radiation oncology: A review of its current status and potential application for the radiotherapy workforce», Radiography, vol. 27, pp. S63-S68, oct. 2021, doi: 10.1016/J.RADI.2021.07.012.
dc.relation.referencesH. Zaidi, I. E. N.-E. journal of nuclear medicine and molecular, y undefined 2010, «PET-guided delineation of radiation therapy treatment volumes: a survey of image segmentation techniques», Springer, vol. 37, n.o 11, pp. 2165-2187, nov. 2010, doi: 10.1007/s00259-010-1423-3.
dc.relation.referencesM. Evans et al., «Head and neck target delineation using a novel PET automatic segmentation algorithm», Elsevier, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://www.sciencedirect.com/science/article/pii/S0167814016344255
dc.relation.referencesZ. Zhong et al., «Simultaneous cosegmentation of tumors in PET-CT images using deep fully convolutional networks», Med Phys, vol. 46, n.o 2, pp. 619-633, feb. 2019, doi: 10.1002/MP.13331.
dc.relation.referencesY. Guo et al., «Automatic lung tumor segmentation on PET/CT images using fuzzy Markov random field model», hindawi.com, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://www.hindawi.com/journals/cmmm/2014/401201/
dc.relation.referencesA. Gafita et al., «qPSMA: Semiautomatic Software for Whole-Body Tumor Burden Assessment in Prostate Cancer Using 68 Ga-PSMA11 PET/CT», J Nucl Med, vol. 60, n.o 9, pp. 1277-1283, 2019, doi: 10.2967/JNUMED.118.224055.
dc.relation.referencesD. Jin, D. Guo, T. Ho, A. Harrison, … J. X.-M. I., y undefined 2021, «DeepTarget: Gross tumor and clinical target volume segmentation in esophageal cancer radiotherapy», Elsevier, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://www.sciencedirect.com/science/article/pii/S1361841520302735
dc.relation.referencesA. Groendahl, I. Knudtsen, … B. H.-P. in M., y undefined 2021, «A comparison of methods for fully automatic segmentation of tumors and involved nodes in PET/CT of head and neck cancers», iopscience.iop.org, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://iopscience.iop.org/article/10.1088/1361-6560/abe553/meta
dc.relation.referencesY. Yu, P. Decazes, … J. L.-L.-… M. I. and, y undefined 2018, «Semi-automatic lymphoma detection and segmentation using fully conditional random fields», Elsevier, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://www.sciencedirect.com/science/article/pii/S0895611118301307
dc.relation.referencesA. Kerhet, C. Small, H. Quon, T. Riauka, L. S.-C. oncology, y undefined 2010, «Application of machine learning methodology for PET-based definition of lung cancer», mdpi.com, Accedido: 6 de noviembre de 2021. [En línea]. Disponible en: https://www.mdpi.com/941962
dc.relation.referencesR. Fonti, M. Conson, y S. Del Vecchio, «PET/CT in radiation oncology», Semin Oncol, vol. 46, n.o 3, pp. 202-209, jun. 2019, doi: 10.1053/J.SEMINONCOL.2019.07.001.
dc.relation.references«What Is Prostate Cancer?| Prostate Cancer Types | American Cancer Society». Accedido: 22 de julio de 2023. [En línea]. Disponible en: https://www.cancer.org/cancer/types/prostate-cancer/about/what-is-prostate-cancer.html
dc.relation.referencesC. L. Rock et al., «American Cancer Society guideline for diet and physical activity for cancer prevention», CA Cancer J Clin, vol. 70, n.o 4, pp. 245-271, jul. 2020, doi: 10.3322/CAAC.21591.
dc.relation.references«Pruebas para diagnosticar y determinar la etapa del cáncer de próstata | American Cancer Society». Accedido: 22 de julio de 2023. [En línea]. Disponible en: https://www.cancer.org/es/cancer/tipos/cancer-de-prostata/deteccion-diagnostico-clasificacion-por-etapas/como-se-diagnostica.html
dc.relation.referencesS. Schmuck et al., «Initial Experience with Volumetric 68Ga-PSMA I&T PET/CT for Assessment of Whole-Body Tumor Burden as a Quantitative Imaging Biomarker in Patients with Prostate Cancer», J Nucl Med, vol. 58, n.o 12, pp. 1962-1968, dic. 2017, doi: 10.2967/JNUMED.117.193581.
dc.relation.referencesM. Unterrainer et al., «Recent advances of PET imaging in clinical radiation oncology», Radiation Oncology, vol. 15, n.o 1, abr. 2020, doi: 10.1186/S13014-020-01519-1.
dc.relation.referencesF. G. Dall’Olio et al., «Tumour burden and efficacy of immune-checkpoint inhibitors», Nature Reviews Clinical Oncology 2021 19:2, vol. 19, n.o 2, pp. 75-90, oct. 2021, doi: 10.1038/s41571-021-00564-3.
dc.relation.referencesJ. Xiang et al., «Metabolic tumor burden: a new promising way to reach precise personalized therapy in PDAC», Cancer Lett, vol. 359, n.o 2, pp. 165-168, abr. 2015, doi: 10.1016/J.CANLET.2015.01.023.
dc.relation.referencesF. C. Gaertner et al., «Uptake of PSMA-ligands in normal tissues is dependent on tumor load in patients with prostate cancer», Oncotarget, vol. 8, n.o 33, p. 55094, ago. 2017, doi: 10.18632/ONCOTARGET.19049.
dc.relation.referencesF. C. Gaertner et al., «Uptake of PSMA-ligands in normal tissues is dependent on tumor load in patients with prostate cancer», Oncotarget, vol. 8, n.o 33, p. 55094, ago. 2017, doi: 10.18632/ONCOTARGET.19049.
dc.relation.referencesS. R. Cherry, J. A. Sorenson, y M. E. Phelps, «Physics in nuclear medicine», p. 523, 2012.
dc.relation.referencesS. R. Banerjee et al., «68Ga-labeled inhibitors of prostate-specific membrane antigen (PSMA) for imaging prostate cancer», J Med Chem, vol. 53, n.o 14, pp. 5333-5341, jul. 2010, doi: 10.1021/JM100623E.
dc.relation.referencesE. Demirci, O. E. Sahin, M. Ocak, B. Akovali, J. Nematyazar, y L. Kabasakal, «Normal distribution pattern and physiological variants of 68Ga-PSMA-11 PET/CT imaging», Nucl Med Commun, vol. 37, n.o 11, pp. 1169-1179, nov. 2016, doi: 10.1097/MNM.0000000000000566.
dc.relation.references«PET/TC (tomografía por emisión de positrones – tomografía computada)». Accedido: 23 de julio de 2023. [En línea]. Disponible en: https://www.radiologyinfo.org/es/info/pet
dc.relation.referencesA. Géron, «Hands-on Machine Learning with Scikit-Learn, Keras, and TensorFlow (2019, O’reilly)», Hands-On Machine Learning with R, p. 510, 2017, Accedido: 23 de julio de 2023. [En línea]. Disponible en: https://www.oreilly.com/library/view/hands-on-machine-learning/9781492032632/
dc.relation.referencesS. J. Russell y P. Norvig, «Inteligencia artificial: un enfoque moderno (2a. ed.)», Revista ICONO14 Revista científica de Comunicación y Tecnologías emergentes, pp. 19-21, 2013, Accedido: 23 de julio de 2023. [En línea]. Disponible en: https://bv.unir.net:3555/es/ereader/unir/45310
dc.relation.referencesS. J. (Stuart J. Russell y P. Norvig, «Artificial intelligence : a modern approach», p. 1167, Accedido: 23 de julio de 2023. [En línea]. Disponible en: https://books.google.com/books/about/Artificial_Intelligence_A_Modern_Approac.html?hl=es&id=cb0qEAAAQBAJ
dc.relation.referencesD. Cielen, A. Meysman, y M. Ali, «Introducing data science : big data, machine learning, and more, using Python tools», Accedido: 23 de julio de 2023. [En línea]. Disponible en: https://books.google.com/books/about/Introducing_Data_Science.html?hl=es&id=bTozEAAAQBAJ
dc.relation.referencesA. Géron, «Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow : concepts, tools, and techniques to build intelligent systems», p. 821, Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://books.google.com/books/about/Hands_On_Machine_Learning_with_Scikit_Le.html?hl=es&id=HHetDwAAQBAJ
dc.relation.references«Ch. 9 - Object Detection and Segmentation». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://manipulation.csail.mit.edu/segmentation.html
dc.relation.referencesJ. Heaton, «Ian Goodfellow, Yoshua Bengio, and Aaron Courville: Deep learning: The MIT Press, 2016, 800 pp, ISBN: 0262035618 Article», Genet Program Evolvable Mach, vol. 19, n.o 1-2, pp. 305-307, 2018, Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://books.google.com/books/about/Deep_Learning.html?hl=es&id=Np9SDQAAQBAJ
dc.relation.references«A Comprehensive Introduction to Different Types of Convolutions in Deep Learning | by Kunlun Bai | Towards Data Science». Accedido: 18 de noviembre de 2023. [En línea]. Disponible en: https://towardsdatascience.com/a-comprehensive-introduction-to-different-types-of-convolutions-in-deep-learning-669281e58215
dc.relation.references«Convolutional Neural Networks (LeNet) — DeepLearning 0.1 documentation». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://deeplearningtutorials.readthedocs.io/en/latest/lenet.html
dc.relation.references«The pipeline of the general CNN architecture [30]. | Download Scientific Diagram». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://www.researchgate.net/figure/The-pipeline-of-the-general-CNN-architecture-30_fig1_329389588
dc.relation.references«Transfer learning & fine-tuning». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://keras.io/guides/transfer_learning/
dc.relation.referencesP. Chapman et al., «CRISP-DM 1.0: Step-by-step data mining guide». 2000. Accedido: 1 de septiembre de 2019. [En línea]. Disponible en: https://www.semanticscholar.org/paper/CRISP-DM-1.0%3A-Step-by-step-data-mining-guide-Chapman-Clinton/54061a4aa0cb241a726f54d0569efae1c13aab3a?tab=abstract&citingPapersSort=year&citingPapersLimit=10&citingPapersOffset=0&citationIntent=methodology&year%5B0%5D=0&year%5B1%5D=0&citedPapersSort=is-influential&citedPapersLimit=10&citedPapersOffset=0
dc.relation.referencesY. (Kyle) Sha, «yingkaisha/keras-unet-collection: v0.1.12», sep. 2021, doi: 10.5281/ZENODO.5449801.
dc.relation.referencesO. Ronneberger, P. Fischer, y T. Brox, «U-net: Convolutional networks for biomedical image segmentation», Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 9351, pp. 234-241, 2015, doi: 10.1007/978-3-319-24574-4_28/COVER.
dc.relation.referencesZ. Zhou, M. M. Rahman Siddiquee, N. Tajbakhsh, y J. Liang, «Unet++: A nested u-net architecture for medical image segmentation», Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 11045 LNCS, pp. 3-11, 2018, doi: 10.1007/978-3-030-00889-5_1/COVER.
dc.relation.referencesO. Oktay et al., «Attention U-Net: Learning Where to Look for the Pancreas», abr. 2018, Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://arxiv.org/abs/1804.03999v3
dc.relation.references«A detailed explanation of the Attention U-Net | by Robin Vinod | Towards Data Science». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://towardsdatascience.com/a-detailed-explanation-of-the-attention-u-net-b371a5590831
dc.relation.references«What Does Backbone Mean in Neural Networks? | Baeldung on Computer Science». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://www.baeldung.com/cs/neural-network-backbone
dc.relation.referencesT. L. A. Dinh y F. Aires, «Nested leave-two-out cross-validation for the optimal crop yield model selection», Geosci Model Dev, vol. 15, n.o 9, pp. 3519-3535, may 2022, doi: 10.5194/GMD-15-3519-2022.
dc.relation.references«Nested Cross-Validation | Guide to Nested Cross Validation». Accedido: 24 de julio de 2023. [En línea]. Disponible en: https://www.analyticsvidhya.com/blog/2021/03/a-step-by-step-guide-to-nested-cross-validation/
dc.relation.referencesA. Carass et al., «Evaluating White Matter Lesion Segmentations with Refined Sørensen-Dice Analysis», Scientific Reports 2020 10:1, vol. 10, n.o 1, pp. 1-19, may 2020, doi: 10.1038/s41598-020-64803-w.
dc.relation.referencesF. Greco y C. A. Mallio, «Artificial intelligence and abdominal adipose tissue analysis: A literature review», Quant Imaging Med Surg, vol. 11, n.o 10, oct. 2021, doi: 10.21037/QIMS-21-370.
dc.relation.referencesM. A. Rahman y Y. Wang, «Optimizing intersection-over-union in deep neural networks for image segmentation», Lecture Notes in Computer Science (including subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics), vol. 10072 LNCS, pp. 234-244, 2016, doi: 10.1007/978-3-319-50835-1_22/COVER.
dc.relation.referencesS. Jardim, J. António, y C. Mora, «Image thresholding approaches for medical image segmentation - short literature review», Procedia Comput Sci, vol. 219, pp. 1485-1492, ene. 2023, doi: 10.1016/J.PROCS.2023.01.439.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.decsNeoplasias de la Próstata
dc.subject.decsProstatic Neoplasms
dc.subject.decsTomografía de Emisión de Positrones
dc.subject.decsPositron-Emission Tomography
dc.subject.decsNuclear Medicine
dc.subject.decsMedicina nuclear
dc.subject.proposalCáncer de próstata
dc.subject.proposal68Ga-PSMA
dc.subject.proposalcarga metabólica tumoral
dc.subject.proposalredes neuronales convolucionales
dc.subject.proposalPET/CT
dc.subject.proposalMetabolic tumor burden
dc.subject.proposalProstate cancer
dc.subject.proposalConvolutional neural networks
dc.title.translatedAutomatic quantification of metabolic tumor burden on 68Ga-PSMA positron emission tomography images in patients with prostate cancer
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Atribución-NoComercial-CompartirIgual 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito