Un método para generación de mapas mentales a partir de un dataset de artículos científicos en el contexto de calidad de software mediante técnicas de machine learning
Author
Advisor
Type
Trabajo de grado - Maestría
Document language
EspañolPublication Date
2025Metadata
Show full item recordSummary
En los últimos años, el análisis de grandes volúmenes de texto ha ganado relevancia en diversas disciplinas, especialmente con el avance de las técnicas de machine learning y el procesamiento de lenguaje natural. En particular, la investigación sobre calidad de software ha generado una gran cantidad de artículos científicos que, debido a su complejidad y volumen, dificultan la comprensión rápida y la identificación de las ideas clave. Una posible solución a este problema es el uso de herramientas automáticas que ayuden a visualizar las relaciones entre los conceptos clave de manera más accesible. En este estudio, se propone un enfoque para generar mapas mentales a partir de un conjunto de artículos científicos relacionados con la calidad de software, utilizando un modelo de lenguaje grande (LLM) como técnica principal. El objetivo es crear representaciones gráficas que permitan identificar las conexiones y temas principales de manera eficiente, simplificando la comprensión del contenido. Para lograr este objetivo, se llevó a cabo una revisión de la literatura para identificar las mejores técnicas de análisis de texto y generación de representaciones jerárquicas. Se decidió optar por el uso de un modelo de lenguaje grande (LLM) debido a su capacidad sobresaliente para procesar grandes volúmenes de texto y capturar relaciones semánticas complejas. Los LLM, entrenados en variados corpus de texto, tienen la capacidad de identificar patrones y extraer conceptos clave con alta precisión, lo que los convierte en una opción ideal para generar mapas mentales detallados y efectivos. En este caso, se implementó un código en Python utilizando el modelo Gemini-1.5-Flash, que, en su versión gratuita disponible en el momento del estudio, permitió realizar múltiples iteraciones para ajustar el modelo y obtener resultados más precisos. Los resultados demostraron que la alternativa propuesta es una herramienta eficaz para la generación de mapas mentales, con un resultado promedio de 88%. La capacidad del modelo para realizar múltiples iteraciones de manera eficiente, utilizando recursos computacionales limitados, abre la posibilidad de explorar otras herramientas de grandes modelos de lenguaje (LLM) y evaluar su desempeño en tareas de análisis cuantitativo de información en otros dominios, como la investigación académica o la ingeniería de software. (Tomado de la fuente)Abstract
In recent years, the analysis of large volumes of text has gained relevance in various disciplines, especially with the advancement of machine learning techniques and natural language processing. In particular, research on software quality has generated a significant number of scientific articles that, due to their complexity and volume, make it difficult to quickly understand and identify key ideas. A possible solution to this problem is the use of automated tools to help visualize the relationships between key concepts in a more accessible way. This study proposes an approach to generate mind maps from a set of scientific articles related to software quality, using a large language model (LLM) as the main technique. The goal is to create graphical representations that allow for the efficient identification of connections and key themes, simplifying the understanding of the content. To achieve this goal, a literature review was conducted to identify the best techniques for text analysis and the generation of hierarchical representations. The decision was made to use a large language model (LLM) due to its outstanding ability to process large volumes of text and capture complex semantic relationships. LLMs, trained on diverse text corpora, have the capacity to identify patterns and extract key concepts with high precision, making them an ideal choice for generating detailed and effective mind maps. In this case, a Python code was implemented using the Gemini-1.5-Flash model, which, in its free version available at the time of the study, allowed for multiple iterations to fine-tune the model and obtain more accurate results. The results demonstrated that the proposed alternative is an effective tool for generating mind maps, with an average result of 88%. The model's ability to perform multiple iterations efficiently, using limited computational resources, opens up the possibility of exploring other large language model (LLM) tools and evaluating their performance in quantitative information analysis tasks in other domains, such as academic research or software engineering.Keywords
Physical description
Ilustraciones, gráficos
Collections
