A Deep Learning model for automatic grading of prostate cancer histopathology images
Tipo de contenido
Trabajo de grado - Maestría
Idioma del documento
InglésFecha de publicación
2024Abstract
Gleason grading is recognized as the standard method for diagnosing prostate cancer. However, it is subject to significant inter-observer variability due to its reliance on subjective visual assessment. Current deep learning approaches for grading often require exhaustive pixel-level annotations and are generally limited to patch-level predictions, which do not incorporate slide-level information. Recently, weakly-supervised techniques have shown promise in generating whole-slide label predictions using pathology report labels, which are more readily available. However, these methods frequently lack visual and quantitative interpretability, reinforcing the black box nature of deep learning models, hindering their clinical adoption. This thesis introduces WiSDoM, a novel weakly-supervised and interpretable approach leveraging attention mechanisms and Kernel Density Matrices for the grading of prostate cancer on whole slides. This method is adaptable to varying levels of supervision. WiSDoM facilitates multi-scale interpretability through several features: detailed heatmaps that provide granular visual insights by highlighting critical morphological features without requiring tissue annotations; example-based phenotypical prototypes that illustrate the internal representation learned by the model, aiding in clinical verification; and visual-quantitative measures of model uncertainty, which enhance the transparency of the model's decision-making process, a crucial factor for clinical use. WiSDoM has been validated on core-needle biopsies from two different institutions, demonstrating robust agreement with the reference standard (quadratically weighted Kappa of 0.93). WiSDoM achieves state-of-the-art inter-observer agreement performance on the PANDA Challenge publicly available dataset while being clinically interpretable.Resumen
La clasificación de Gleason se reconoce como el método estándar para diagnosticar el cáncer de próstata. Sin embargo, está sujeto a una variabilidad significativa entre observadores debido a su dependencia de la evaluación visual subjetiva. Los enfoques actuales de aprendizaje profundo a menudo requieren anotaciones exhaustivas a nivel de píxeles y generalmente se limitan a predicciones a nivel de parche, que no incorporan información a nivel de lámina. Recientemente, las técnicas débilmente supervisadas se han mostrado prometedoras a la hora de generar predicciones de etiquetas de láminas completas utilizando etiquetas de informes de patología, que están más fácilmente disponibles. Sin embargo, estos métodos frecuentemente carecen de interpretabilidad visual y cuantitativa, lo que refuerza la naturaleza de caja negra de los modelos de aprendizaje profundo y dificulta su adopción clínica. Esta tesis introduce WiSDoM, un enfoque novedoso interpretable y débilmente supervisado que aprovecha los mecanismos de atención y las matrices de densidad para gradar cáncer de próstata en láminas completas. Este método se adapta a distintos niveles de supervisión. WiSDoM facilita la interpretabilidad a múltiples escalas a través de varias características: mapas de calor detallados que brindan información visual granular al resaltar características morfológicas críticas sin requerir anotaciones de tejido; prototipos fenotípicos basados en ejemplos que ilustran la representación interna aprendida por el modelo, ayudando en la verificación clínica; y medidas visual-cuantitativas de incertidumbre del modelo, que mejoran la transparencia del proceso de toma de decisiones, un factor crucial para el uso clínico. WiSDoM se ha validado en biopsias de dos instituciones diferentes, lo que demuestra una sólida concordancia con el estándar de referencia (Kappa ponderado cuadráticamente de 0,93). WiSDoM logra un rendimiento del estado del arte de acuerdo entre observadores en el conjunto de datos PANDA Challenge además de ser clínicamente interpretable. (Texto tomado de la fuente).Palabras clave
Colecciones
![Atribución-NoComercial-CompartirIgual 4.0 Internacional](/themes/Mirage2//images/creativecommons/cc-generic.png)