Maestría en Ingeniería - Sistemas y Computación
URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/81877
Examinar
Envíos recientes
Item type: Ítem , Desarrollo de un modelo basado en redes neuronales para la clasificación automática de textos periodísticos: caso de estudio 20 news group(Universidad Nacional de Colombia, 2025-07-09) Puertas Bustos, Leonardo; Niño Vásquez, Luis Fernando; laboratorio de Investigación en Sistemas Inteligentes LisiEn la era digital, la clasificación automática de textos se ha convertido en una herramienta fundamental para gestionar eficientemente la gran cantidad de información generada a diario, especialmente en el ámbito periodístico. Este trabajo presenta el desarrollo y la evaluación de un modelo basado en redes neuronales para clasificar automáticamente artículos del conjunto de datos 20 Newsgroups, que incluye textos periodísticos en inglés categorizados en 20 temáticas distintas. Se implementaron tanto modelos tradicionales (como Regresión Logística, Random Forest, SVM, XGBoost y KNN) como modelos de redes neuronales (MLP, CNN, LSTM, GRU, BERT y XLNet). El preprocesamiento incluyó limpieza, tokenización y representación de texto con TF-IDF. Los resultados muestran que los modelos BERT, MLP y SVM alcanzaron las mayores precisiones (cercanas al 91%), mientras que modelos como GRU y KNN tuvieron desempeños significativamente inferiores. Estos hallazgos evidencian la eficacia de las redes neuronales, especialmente aquellas basadas en transformers, para tareas complejas de clasificación textual. (Texto tomado de la fuente)Item type: Ítem , Self-supervised learning for histopathological image analysis using limited annotated data(Universidad Nacional de Colombia, 2025) Betancourth Castro, Landneyker; González Osorio, Fabio Augusto; Cruz Roa, Angel Alfonso; Betancourth Castro, Landneyker [0001826131]; MindlabThe analysis of digital histopathology slides plays a crucial role in cancer research and diagnosis, including prostate cancer. However, acquiring sufficient annotated data to train deep learning models in this domain is challenging due to the scarcity of pathologists, the expertise required for precise annotations, and the time-consuming nature of the process. This study proposes a self-supervised learning approach based on SimCLR (Simple Contrastive Learning of Representations) for histopathological image analysis, enabling the learning of visual representations from unannotated data. These representations are then used to train a supervised classifier with a small amount of labeled data, facilitating accurate and generalizable prostate cancer grading. The dataset used in this study is the Prostate cANcer graDe Assessment (PANDA) dataset Bulten2022, which contains histopathological images of prostate tissue samples along with expert annotations for cancer grade assessment. We evaluated various scenarios and configurations by varying the amount of annotated data and using self-supervised representation learning on unannotated datasets from either a general domain (natural images) or a specific domain (histopathology). In our proposed SimCLR-based approach, we demonstrate the effectiveness of self-supervised techniques in learning meaningful representations from unannotated data. The method leverages inherent structures and patterns in histopathological images to learn rich representations, which can later be fine-tuned on a small annotated dataset for specific downstream tasks. The proposed SimCLR-based framework was evaluated on the task of prostate cancer grade assessment using a limited number of annotated samples. Experimental results show that the self-supervised model is capable of generalizing to unseen data and achieving competitive performance compared to supervised approaches trained on larger annotated datasets. Notably, better performance was observed when the model was pre-trained directly on domain-specific histopathological images, reaching scores of 0.96 for stroma, 0.76 for healthy tissue, and 0.73, 0.71, 0.42 for Gleason 3, 4, 5, respectively with only 15% of the annotated data. In contrast, when using a model pre-trained on natural images (STL-10), slightly lower scores were obtained: 0.9, 0.58, 0.56, 0.52, and 0.3, respectively. Despite this difference, the model trained on natural images still showed remarkable performance, especially considering it was trained with a reduced fraction of labeled data, highlighting its potential for use in resource-constrained scenarios. (Texto tomado de la fuente)Item type: Ítem , Cuantificación de la progresión de glándulas de control a lesiones precancerosas en el estómago a partir del análisis histopatológico de imágenes(Universidad Nacional de Colombia, 2025-07-15) Caviedes Rojas, Jerson Mauricio; Romero, Eduardo; Cruz-Roa, Ángel; https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001710930; Niño, Luis Fernando; Villareal, Jesús Alberto; Cim@LabIn Colombia, gastric cancer poses a significant challenge to the healthcare system, particularly in regions like Nariño, where the incidence reaches 150 cases per 100,000 inhabitants. This high rate is associated with a 90% prevalence of Helicobacter pylori infection, a key risk factor in the development of precancerous lesions such as intestinal metaplasia. Early detection of these lesions is crucial but faces obstacles due to a shortage of pathologists and the subjectivity involved in evaluating biopsies using systems like OLGA and OLGIM. To address this issue, the use of artificial intelligence tools, specifically convolutional neural networks, has been explored to analyze histopathological images. In a recent study, various neural network architectures were evaluated for classifying intestinal metaplasia in gastric biopsy images. The VGG16 architecture stood out with an accuracy of 76% and an AUC of 0.922, outperforming models like InceptionV3 and ResNet50. Additionally, it showed high concordance with expert annotations, evidenced by a Dice Score of 0.93 and a Jaccard Index of 0.87. These results suggest that implementing deep learning models like VGG16 can enhance the detection and quantification of gastric precancerous lesions, optimizing early diagnosis and potentially reducing the burden of gastric cancer in high-incidence regions such as Nariño.Item type: Ítem , Automatic classification of 21 subtypes of blood cells(Universidad Nacional de Colombia, 2024) Rodríguez Lozano, Jhonathan Javier; Romero Castro, Eduardo; Gómez Perdomo, Jonatan; Tarquino Gonzalez, Jonnathan Steve; Cim@LabCytomorphological assessment of bone marrow cells plays a crucial role in diagnosing various hematologic disorders, but the process remains largely manual, relying on trained specialists, which creates a bottleneck in clinical workflows. While deep learning algorithms present a promising solution for automation, most existing models focus on a limited subset of cell types associated with specific diseases and are often treated as black-box systems. This study introduces a novel engineered feature representation, called region-attention embedding, aimed at improving deep learning classification across 21 bone marrow cell subtypes. The embedding organizes cytological features into a structured square matrix based on pre-segmented regions of the cell—cytoplasm, nucleus, and entire cell—thus preserving spatial and regional relationships. When integrated with the Xception and ResNet50 models, this approach highlights region-specific relevance in images, enhancing interpretability. The method was evaluated on the largest publicly available bone marrow cell subtype dataset, using three iterations of 3-fold cross-validation on 80% of the dataset (n = 89,484) and testing on a separate 20% (n = 22,371). The results indicate that the proposed method exceeds the performance of existing models on comparable validation sets, achieving an F1-score of 0.82, and demonstrates strong performance on the unseen test set with an F1-score of 0.56.Item type: Ítem , Generación de recomendaciones automáticas de inversión en la Bolsa de Valores de Colombia mediante agentes autónomos de inteligencia artificial(Universidad Nacional de Colombia, 2025) Rodriguez Barreto, Julian Mauricio; Restrepo Calle, Felipe; Plas Programming languages And SystemsEl comportamiento de los precios de activos financieros, específicamente en el mercado colombiano, está influenciado por múltiples factores económicos y financieros, que influyen en los precios y generan incertidumbre en los inversionistas. Históricamente, Colombia ha mostrado una baja participación en el mercado de renta variable debido, en parte, a la complejidad del análisis requerido para la toma de decisiones. Este trabajo se motivó por la necesidad de facilitar este proceso mediante tecnologías avanzadas, con el fin de promover la inclusión financiera y mejorar la precisión en la toma de decisiones. En Colombia, se evidenció que, aunque existen desarrollos tecnológicos como aplicaciones móviles (TRII y Tyba) y estudios de implementación de Inteligencia Artificial (IA) en el mercado local, la aplicación específica de Agentes Autónomos de IA, aún es incipiente en el contexto financiero colombiano. Modelos como FinGPT y FinAgent han demostrado resultados prometedores en otros mercados, destacando la necesidad de adaptar estas tecnologías al contexto local con las características propias del mercado colombiano. El objetivo de este trabajo es desarrollar un Agente Autónomo de Inteligencia Artificial que proporcionará soporte automatizado para decisiones de inversión en la Bolsa de Valores de Colombia. Este objetivo se alcanzó mediante un proceso metodológico estructurado en cuatro fases: la recolección de datos mediante técnicas de web scraping, la creación de una herramienta computacional basada en técnicas de IA para extraer información relevante de fuentes confiables, la implementación del agente autónomo utilizando el modelo ReAct y grandes modelos de lenguaje (LLMs), y la evaluación de su desempeño comparado con estrategias tradicionales. Los resultados obtenidos mostraron que el agente autónomo, en diferentes contextos, logró superar a estrategias convencionales como Comprar y Mantener, Media Móvil y Reversión a la Media, evaluadas a través de métricas como la Tasa Promedio de Retorno Anual (ARR), volatilidad y el Sharpe Ratio. Además, pruebas estadísticas como Mann-Whitney U confirmaron las diferencias del agente en términos de rentabilidad ajustada al riesgo para acciones destacadas como Ecopetrol, Bancolombia, Nutresa y Cementos Argos. Este trabajo aporta una solución innovadora al mercado bursátil colombiano, demostrando que los Agentes Autónomos basados en IA pueden ser efectivos en contextos financieros locales. Los hallazgos sugieren un gran potencial para mejorar la inclusión financiera en Colombia y plantean futuras líneas de investigación en la adaptación y optimización de estos modelos en mercados emergentes. (Texto tomado de la fuente).Item type: Ítem , Evaluación automática de casos de prueba de ejercicios de programación de computadores(Universidad Nacional de Colombia, 2025-07-15) Rivera Cárdenas, David Leonardo; Restrepo Calle, Felipe; González Osorio, Fabio Augusto; Vergara Vargas, Jeisson Andrés; Plas Programming languages And SystemsEl reciente crecimiento de plataformas de evaluación automática de ejercicios de programación de computadores ha ayudado a los docentes en la retroalimentación de las soluciones propuestas por los estudiantes; esto es un factor importante en el desarrollo de habilidades de programación de computadores. Sin embargo, los docentes enfrentan desafíos a la hora de conocer si los casos de prueba que han creado tienen la suficiente cobertura, la cual hace referencia a la cantidad o porcentaje de código que es alcanzado por las pruebas. El objetivo general del presente trabajo es proponer y desarrollar un prototipo funcional de una herramienta que mida, de manera automática, la calidad de un conjunto de casos de prueba usados para evaluar la solución de ejercicios de programación de computadores. La herramienta mide el nivel de cobertura de estos casos mediante métricas como cobertura de rama y línea, proporcionando información de su calidad. La metodología empleada incluyó una revisión de la literatura sobre técnicas, métricas y herramientas de evaluación de pruebas, seguida del diseño, implementación y validación del prototipo utilizando un conjunto de datos de soluciones y casos de prueba de 18 ejercicios del curso Introducción a la Programación en Python de la Universidad Nacional de Colombia. Los resultados muestran que la herramienta permite identificar deficiencias en la cobertura de los casos de prueba y, a partir de ellos, se sugieren oportunidades de mejora para fortalecer el proceso de creación de casos de prueba para la evaluación de ejercicios de programación. Este trabajo contribuye a la mejora continua de la enseñanza de programación de computadores, al ofrecer una solución automática para la evaluación de pruebas, que proporcione una orientación a los docentes para la generación de casos de prueba más completos y efectivos, por medio de la identificación del nivel de cobertura alcanzado. (Texto tomado de la fuente).Item type: Ítem , Estrategia eficiente para la mejora de las capacidades de modelos grandes de lenguaje (LLMs)(Universidad Nacional de Colombia, 2025) Velandia Gutiérrez, Julián Camilo; Niño Vásquez, Luis Fernando; Velandia Gutiérrez, Julián Camilo [0002030716]; Velandia Gutiérrez, Julián Camilo [0009-0000-8617-7445]; laboratorio de Investigación en Sistemas Inteligentes LisiLos grandes modelos de lenguaje (LLMs) se han consolidado como un hito en el ámbito de la inteligencia artificial y el procesamiento del lenguaje natural, pero su implementación a gran escala se ve limitada por la necesidad de recursos computacionales elevados. Este trabajo propone que a partir de un modelo base, se exploren y combinen técnicas de procesamiento y selección cuidadosa de datos, entrenamiento y ajustes en la arquitectura, con el fin de mejorar la eficiencia de los modelos en entornos con recursos restringidos y sobre una base de conocimiento delimitada. El enfoque metodológico incluyó la definición de criterios para la elaboración de conjuntos de datos confiables, la experimentación controlada con diferentes configuraciones y la evaluación sistemática de las variantes resultantes en términos de capacidad, versatilidad, tiempo de respuesta y seguridad. Finalmente, se llevaron a cabo pruebas comparativas, midiendo el desempeño de las variantes desarrolladas y validando la eficacia de las estrategias propuestas (Texto tomado de la fuente).Item type: Ítem , Detección y conteo de evasores en el sistema de transporte Transmilenio(Universidad Nacional de Colombia, 2024) Rodríguez Peraza, César Ivan; Pedraza Bonilla, César Augusto; Perdomo Charry, Oscar Julian; Zona Ortiz, Angela Tatiana; Plas Programming languages And SystemsBogotá se encuentra entre las veinte ciudades con peor tráfico del mundo de acuerdo con el Ranking del Índice de Tráfico. Además, carece de un sistema de transporte público robusto; el sistema TransMilenio, en particular, presenta deficiencias operativas y económicas que agravan los problemas de movilidad en la ciudad. La más destacada de estas deficiencias es la evasión de pago, un fenómeno que hasta ahora ha sido difícil de cuantificar y, por consiguiente, de mitigar. Por esta razón, el objetivo de este trabajo es detectar y cuantificar a los evasores en los torniquetes del sistema TransMilenio. Para lograrlo, se exploraron diversas técnicas de procesamiento de imágenes y video, así como aprendizaje automático e inteligencia artificial. Este trabajo enfrenta varios retos, entre los que destacan el marcado desequilibrio en el conjunto de datos (3 de cada 100 personas son evasores), la sutileza en algunos eventos de evasión y los complejos entornos de las estaciones. El modelo con mejores resultados es capaz de identificar el 95% de los evasores, gracias a la aplicación de conceptos de vanguardia en aprendizaje no supervisado y auto-supervisado. (Texto tomado de la fuente).Item type: Ítem , Desarrollo de una arquitectura de referencia basada en microservicios para Internet de las Cosas(Universidad Nacional de Colombia, 2024-10-22) Obregón Sánchez, David; Cangrejo Aljure, Libia Denisse; Umaña Acosta, Henry Roberto; Herrera Álvarez, David Alberto; ANGeoScInternet de las Cosas (IoT) es un ecosistema en constante crecimiento que conecta el mundo físico y digital a través de internet, y plantea una serie de desafíos únicos en el desarrollo de software, como la heterogeneidad de dispositivos, la naturaleza distribuida, la escalabilidad y la seguridad. En este trabajo se presenta el diseño de una arquitectura de referencia basada en microservicios para entornos IoT, que garantiza los atributos mínimos de calidad de software de dichos sistemas. Mediante una revisión sistemática de la literatura, la identificación de los atributos de calidad de software específicos para IoT, el diseño de una arquitectura de referencia y la implementación de una arquitectura tecnológica a través de una prueba de concepto, se evalúan atributos de calidad específicos usando el enfoque de microservicios en entornos IoT. Se destacan sus principales ventajas frente a enfoques tradicionales, como las arquitecturas monolíticas. Finalmente, se plantean desafíos vigentes en aspectos adicionales a la calidad del software para el enfoque de microservicios. (Texto tomado de la fuente).Item type: Ítem , Selección del sistema de información CRM más apropiado, en una empresa del sector financiero en Colombia, usando metodologías de análisis multicriterio. Caso de estudio(Universidad Nacional de Colombia, 2024) Barragán Huertas, Julieth Paola; Cortés Aldana, Félix AntonioPropósito: El objetivo del presente estudio consiste en proponer un marco metodológico para la selección óptima de sistemas de Gestión de Relaciones con Clientes (CRM) que se ajuste a las necesidades y requerimientos específicos de una entidad perteneciente al sector financiero en Colombia. Esta propuesta se fundamenta en la revisión íntegra de la literatura pertinente y en la identificación precisa de los requisitos y particularidades de la empresa en cuestión. El modelo propuesto se fundamenta en un enfoque de análisis multicriterio, el cual permite estructurar de manera sistemática los criterios relevantes para la evaluación de las distintas alternativas de CRM disponibles en el mercado actual. Este enfoque garantiza una evaluación integral que abarca tanto aspectos técnicos como operativos, financieros y estratégicos, asegurando así la selección del sistema CRM más idóneo para las necesidades y objetivos específicos de la empresa. Al integrar los hallazgos obtenidos en la revisión de la literatura con las necesidades y expectativas particulares de la entidad financiera en cuestión, el modelo propuesto proporciona una guía sólida y objetiva para la toma de decisiones en materia de selección de sistemas CRM, contribuyendo así a potenciar la eficiencia y la efectividad de las actividades de gestión de relaciones con clientes en el contexto del sector financiero colombiano. Metodología: La metodología empleada en el presente estudio académico se centra en la estructuración y aplicación del análisis multicriterio de toma de decisiones (MCDA) con el objetivo de abordar el dilema de la toma de decisiones. Este enfoque metodológico comprende varias etapas fundamentales, entre las que se incluyen la definición y delimitación del problema, la identificación de las opciones a evaluar, la comprensión de los criterios relevantes para la toma de decisiones y la elaboración de un modelo que refleje las particularidades y las interrelaciones entre estos elementos. La metodología se sustenta en el análisis jerárquico (AHP), el cual se utiliza como herramienta principal para evaluar las opciones disponibles y determinar la mejor alternativa en función de los criterios establecidos previamente. El AHP permite descomponer el problema en una estructura jerárquica, lo que facilita la comparación y la ponderación de los distintos criterios y subcriterios involucrados en la toma de decisiones. Además, este enfoque metodológico proporciona un marco sistemático y transparente para la toma de decisiones, lo que contribuye a minimizar sesgos y maximizar la objetividad en el proceso de evaluación y selección de alternativas. Hallazgos: Utilizando el análisis jerárquico para la toma de decisiones, se han identificado los criterios esenciales para la selección de un sistema CRM (Customer Relationship Management) para una empresa perteneciente al sector financiero en Colombia. Esta identificación se realiza en un entorno caracterizado por cambios normativos y de mercado que demandan una redefinición del enfoque en la gestión de las relaciones con los clientes. El resultado de este análisis es la obtención de un modelo jerárquico que facilita la evaluación de alternativas de CRM, permitiendo la elección del sistema más adecuado para la empresa en cuestión, considerando tanto sus particularidades como las condiciones específicas del mercado. Aplicaciones prácticas: La implementación de la metodología de análisis multicriterio de toma de decisión (MCDA), ha habilitado a la compañía utilizada en este estudio, a elegir de manera eficiente y argumentada, la obtención de un sistema de información CRM, crucial en el contexto del desarrollo de la estrategia de comunicación y gestión organizacional de cara a los clientes. Adicionalmente, esta metodología puede utilizarse como un marco de referencia inicial para la realización o implementación de estudios adicionales, los cuales podrían considerar la utilización de un modelo similar, adaptado a las necesidades de otras empresas colombianas que enfrenten problemáticas análogas. Originalidad y Valor: La principal contribución de este trabajo reside en la identificación de criterios fundamentales para la toma de decisiones en la adquisición de un sistema de información CRM (Customer Relationship Management) en el contexto actual de la empresa de estudio. Se han considerado las particularidades específicas de la compañía, el entorno nacional, la normativa vigente respecto al contacto con los clientes, así como las reformas propuestas por el gobierno actual que podrían incidir en el negocio, los clientes y, en consecuencia, en la estrategia de comunicación a emplear con los consumidores. Los hallazgos obtenidos por la investigadora proporcionan una base sólida para exploraciones posteriores que busquen la aplicación de modelos jerarquizados en la evaluación de opciones de inversiones en IT y la toma de decisiones en empresas similares (Texto tomado de la fuente).Item type: Ítem , Aplicación de la tecnología Blockchain en un prototipo para la gestión de las denuncias de la Comisaría de Familia de Fusagasugá(Universidad Nacional de Colombia, 2024-09-28) Castañeda Ramírez, Laurent Fernando; Camargo Mendoza, Jorge Eliecer; Unsecurelab Cybersecurity Research GroupEl Blockchain es una tecnología famosa gracias a las criptomonedas, por sus bondades como la validación, sincronización e inmutabilidad de los registros. Esto proporciona confianza entre las partes interesadas. Aunque esta tecnología posee un potencial significativo, su implementación en el sector público ha experimentado un retraso notable. Es normal que muchos municipios gestionen sus procesos con sistemas de información. Sin embargo, la integridad y la confianza en la información pueden ser puestas en duda, lo que puede ocasionar un aumento de los costos, disminuir el bienestar de la comunidad y deteriorar la imagen de la comunidad ante el gobierno local. El escenario de interés es la Comisaría de Familia de Fusagasugá, donde su sistema de información presenta falacias en distintas partes de su actividad. Esto ofrece la oportunidad para la construcción de un prototipo para el registro y seguimiento de las denuncias con tecnología Blockchain. La metodología aplicada es la deductiva, con un enfoque en la investigación cualitativa. Se buscó entender el funcionamiento desde lo general como organización hasta el nivel de sus procesos. Se realizó una panorámica de procesos para identificar aquellos que fueran de interés. Una vez identificados, la metodología BPM, siendo BPMN su producto para determinar la manera de integrar la tecnología Blockchain Se construyó un prototipo usando metodologías de desarrollo de software. Este fue puesto a prueba por algunos miembros de la comisaría con el fin de validar el prototipo. Los resultados obtenidos a través de una encuesta demostraron que se cumplió con el objetivo planteado, donde la información cuenta con validación e integridad. (Texto tomado de la fuente).Item type: Ítem , A deep learning approach for 3D reconstruction of indoor scenes(Universidad Nacional de Colombia, 2024) Gómez, Diego; Prieto Ortiz, Flavio AugustoLa presente tesis de maestría expone el fundamento, experimentación, resultados y análisis del entrenamiento y evaluación de métodos para la reconstrucción 3D implícita, específicamente Neural Radiance Fields (NeRF), mediante diferentes acercamientos para el conjunto de datos, que refieren a las imágenes originales y a técnicas de aumentación, con el propósito de establecer el impacto de la aumentación de imágenes en el rendimiento de métodos NeRF y seleccionar los acercamientos más viables. Los conjuntos de datos originales fueron manualmente recolectados para seis escenas categorizadas en dos variantes, tres para objetos específicos y tres para vistas amplias, donde un proceso de aumentación con transformaciones de color y geométricas, resultó en 18 conjuntos finales generados con el software COLMAP, el cual calculó las poses de las cámaras y puntos clave de las escenas. Si bien se probó un acercamiento para aumentar imágenes con una red generativa antagónica dual, mediante WGAN-GP para generar nuevas muestras y una SRGAN para incrementar la resolución, el resultado no fue satisfactorio dado las inconsistencias en las vistas de las cámaras y las distorsiones en las escenas. A partir de una revisión de la literatura y teniendo en cuenta las limitaciones de hardware, se seleccionaron cuatro métodos NeRF (i.e. 3D Gaussian Splatting, Instant-NGP, Nerfacto, zip-NeRF) para el entrenamiento y evaluación de los 18 conjuntos de datos, resultando en 72 modelos y un tiempo total de más de 101 horas para ambos procesos. Según las métricas de evaluación y resultados visuales, la aumentación de color mostró un incrementar en los resultados con respecto a las imágenes originales, mientras que las transformaciones geométricas generaron el efecto contrario. Así mismo, mediante un extenso análisis y discusión, se llegó a la selección del acercamiento de aumentación con color y de 3D Gaussian Splatting como el método NeRF. El documento está dividido en seis capítulos, que contienen la introducción, explicación teórica de la reconstrucción 3D y la aumentación de imágenes, procesos de experimentación, resultados, análisis, conclusiones y posibles trabajos futuros (Texto tomado de la fuente).Item type: Ítem , Efecto de un entorno de aprendizaje de programación de computadores basado en el desarrollo de videojuegos sobre la motivación por aprender de los estudiantes(Universidad Nacional de Colombia, 2024) Peña Vargas, Manuel Alejandro; Restrepo-Calle, Felipe; Ramírez Echeverry, Jhon Jairo; Plas Programming languages And SystemsDebido a la creciente aplicación de la programación de computadores en áreas laborales y del conocimiento, cada vez se incluyen más cursos relacionados con este campo en las carreras universitarias. La complejidad de los contenidos de materias asociadas exige nuevas estrategias y metodologías de enseñanza que resulten cómodas para los estudiantes y los motiven. En este sentido, el uso y la aplicación de videojuegos se ha convertido en una alternativa prometedora. GDBL (Game Development Based Learning) es una estrategia que utiliza la construcción o modificación de videojuegos como técnica de enseñanza. La principal herramienta que utiliza el GDBL se denomina GDF (Game Development Frameworks), y consiste en una serie de entornos, librerías o componentes de desarrollo que permiten desarrollar dichos videojuegos. Esta estrategia se basa en la teoría de aprendizaje constructivista, que se fundamenta en la construcción y refinamiento de modelos mentales basados en la experiencia y sentido de autonomía derivado de la propia motivación por aprender. En este trabajo, se abordará específicamente el modelo SRL (Self-Regulated Learning). Los resultados y la caracterización reportados en esta investigación proporcionan evidencia empírica relacionada con el uso de GDBL en cursos de programación de computadores y su efecto en la motivación de los estudiantes por aprender. Los resultados, tanto positivos como negativos, contribuirán a comprender y consolidar el uso de estrategias GDBL en el ámbito educativo (Texto tomado de la fuente).Item type: Ítem , Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor(Universidad Nacional de Colombia, 2024) Mongua López, Luis Alejandro; Pedraza Bonilla, Cesar AugustoEste trabajo de grado explora la aplicación de técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente el proceso de inspección vehicular en los centros de diagnóstico automotor (CDA) en Colombia, específicamente durante la prueba de frenos. El objetivo principal es desarrollar un método que permita identificar el eje y el vehículo al que pertenece durante la inspección, con el fin de prevenir la suplantación de ejes o vehículos. La metodología empleada consta de tres fases: preparación, implementación y documentación. En la fase de preparación se recolectaron videos de inspecciones y se construyeron conjuntos de datos etiquetados manualmente para el entrenamiento y evaluación de los modelos. Durante la fase de implementación, se entrenaron y compararon tres modelos de detección de objetos (DETR-ResNet50, DETR-ResNet101 y YOLOv9) para la detección de ejes, seleccionando el modelo YOLOv9 por su mejor rendimiento. Además, se utilizó un algoritmo de reconocimiento de placas para identificar los vehículos y una red siamesa para los casos en que la placa no era visible. En la fase de documentación, se detalló el desarrollo del proyecto, el experimento realizado y los resultados obtenidos. El experimento consistió en evaluar el método propuesto utilizando imágenes de una semana de operación de un CDA. Los resultados demostraron la efectividad del modelo YOLOv9 para la detección de ejes y del algoritmo de identificación de vehículos, con un alto porcentaje de aciertos y pocos falsos positivos. En conclusión, este trabajo demuestra la viabilidad de aplicar técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente los procesos de inspección vehicular en los CDA, contribuyendo así a mejorar la calidad del servicio y la seguridad vial. Se sugieren trabajos futuros enfocados en expandir los conjuntos de datos, explorar nuevas arquitecturas de redes neuronales y realizar pruebas de campo a mayor escala (Texto tomado de la fuente).Item type: Ítem , Modelo multimodal para pronóstico de producción de pozos petroleros(Universidad Nacional de Colombia, 2024) Bello Angulo, David Esneyder; León Guzmán, Elizabeth; Bello Angulo, David Esneyder [https://orcid.org/0009-0007-4142-1441]; Midas: Grupo de Investigación en Minería de DatosEl presente trabajo de investigación presenta un aporte en dos áreas de estudio de series de tiempo en el contexto de la producción de pozos petroleros, siendo estas la clasificación para identificar fallas en los pozos, y los pronósticos de producción. El conjunto de datos utilizado corresponde a la producción de pozos petroleros, incluyendo información multimodal como datos numéricos, imágenes y texto para cada punto temporal. En la clasificación de series de tiempo, se aborda la predicción de fallas en el siguiente paso temporal, logrando una exactitud del 61.3% con un modelo multimodal conectado a una capa LSTM. En pronósticos de series de tiempo, los modelos multimodales con capas LSTM destacan, superando a modelos no multimodales y a implementaciones ARIMA en predicciones trimestrales y bi-anuales, presentando un error porcentual absoluto medio de 8% llegando a 2% en casos específicos. Este trabajo contribuye significativamente a los campos de clasificación y predicción de series de tiempo multimodales, proponiendo una arquitectura de encoder multimodal distribuido en el tiempo que puede ser implementada para series de tiempo multimodales de cualquier área de la industria. (Texto tomado de la fuente).Item type: Ítem , A Deep Learning model for automatic grading of prostate cancer histopathology images(Universidad Nacional de Colombia, 2024) Medina Carrillo, Sebastian Rodrigo; González Osorio, Fabio Augusto; Cruz Roa, Ángel Alfonso; Romero, Eduardo; Tabares Soto, Reinel; MindlabGleason grading is recognized as the standard method for diagnosing prostate cancer. However, it is subject to significant inter-observer variability due to its reliance on subjective visual assessment. Current deep learning approaches for grading often require exhaustive pixel-level annotations and are generally limited to patch-level predictions, which do not incorporate slide-level information. Recently, weakly-supervised techniques have shown promise in generating whole-slide label predictions using pathology report labels, which are more readily available. However, these methods frequently lack visual and quantitative interpretability, reinforcing the black box nature of deep learning models, hindering their clinical adoption. This thesis introduces WiSDoM, a novel weakly-supervised and interpretable approach leveraging attention mechanisms and Kernel Density Matrices for the grading of prostate cancer on whole slides. This method is adaptable to varying levels of supervision. WiSDoM facilitates multi-scale interpretability through several features: detailed heatmaps that provide granular visual insights by highlighting critical morphological features without requiring tissue annotations; example-based phenotypical prototypes that illustrate the internal representation learned by the model, aiding in clinical verification; and visual-quantitative measures of model uncertainty, which enhance the transparency of the model's decision-making process, a crucial factor for clinical use. WiSDoM has been validated on core-needle biopsies from two different institutions, demonstrating robust agreement with the reference standard (quadratically weighted Kappa of 0.93). WiSDoM achieves state-of-the-art inter-observer agreement performance on the PANDA Challenge publicly available dataset while being clinically interpretable.Item type: Ítem , Representación gráfica para diseño arquitectónico de software con lenguaje de descripción de arquitectura Sarch(Universidad Nacional de Colombia, 2024-06-12) De La Rosa Córdoba, Dayron Giovanni; Vergara Vargas, Jeisson Andrés; De La Rosa Córdoba, Dayron Giovanni; De La Rosa Córdoba, Dayron Giovanni; De La Rosa Córdoba, Dayron Giovanni; Umaña Acosta, Henry Roberto; De La Rosa Córdoba, Dayron Giovanni; Colectivo de Investigación en Ingeniería de Software Colswe; De La Rosa Córdoba, Dayron GiovanniEste trabajo final se enfoca en el análisis, diseño y desarrollo de una herramienta basada en el lenguaje de descripción de arquitectura Sarch, con el fin de facilitar el proceso de represen- tación textual y gráfica de la arquitectura de un sistema de software. Se investigaron a fondo las características y propiedades de la representación textual de arquitecturas utilizando Sarch, comprendiendo su sintaxis y semántica para describir componentes, conectores y relaciones en sistemas de software. Como resultado, se creó una herramienta gráfica que permite a arquitec- tos y desarrolladores diseñar arquitecturas de software utilizando Sarch de manera intuitiva y eficiente. La herramienta brinda un entorno interactivo que facilita la creación y edición de la re- presentación textual de la vista de componentes y conectores, la cual genera una representación gráfica con sus elementos arquitectónicos. Se validó la representación gráfica de Sarch median- te un conjunto de propiedades arquitectónicas , demostrando que es coherente con la sintaxis textual y capaz de expresar adecuadamente la estructura y relaciones entre los elementos. En conjunto, el trabajo presenta una herramienta para la definición y análisis de arquitecturas de software, abriendo la puerta a futuros desarrollos en la graficación de otras vistas de Sarch, per- mitiendo el movimiento de elementos arrastrándolos y la integración con bases de datos para el almacenamiento de los diseños. (Texto tomado de la fuente).Item type: Ítem , Método basado en aprendizaje automático para la calificación de ensayos cortos en inglés de una muestra de estudiantes de bachillerato(Universidad Nacional de Colombia, 2024) Bofill Barrera, Joan Gabriel; Niño Vásquez, Luis Fernando; León Guzmán, Elizabeth; laboratorio de Investigación en Sistemas Inteligentes LisiEste trabajo aborda el desafío de la calificación automática de ensayos argumentativos en inglés escritos por estudiantes de bachillerato que están aprendiendo el inglés como segunda lengua. El objetivo general es implementar un método automético basado en aprendizaje supervisado que permita resolver esta tarea para 6 indicadores en simultáneo: Cohesión, Sintaxis, Vocabulario, Gramática, Fraseología y Convenciones en escala de 1 a 5. Para lograrlo, se realiza un análisis descriptivo de los datos, se aplican procedimientos de preprocesamiento y se extraen características relevantes; se exploran diferentes estrategias, técnicas de representación y modelos desde algunos clásicos hasta aquellos con mejor desempeño en la actualidad, evaluando en cada iteración su rendimiento, contrastándola con las calificaciones humanas. Luego, se presenta el modelo con menor error que está basado principalmente en DeBERTa al cual se le aplican distintas técnicas para mejorar su desempeño y se combina con un modelo SVR que toma como características los embeddings de los textos concatenados en 10 modelos preentrenados sin fine-tuning. Con esta estrategia, el resultado se acerca bastante a las calificaciones humanas, presentando un RMSE de 0.45 sobre todos los indicadores. (Texto tomado de la fuente).Item type: Ítem , Platform-independent cloud computing infrastructure definition model for scalable microservices architectures(Universidad Nacional de Colombia, 2024-05-25) Vargas Romero, Camilo Ernesto; Vergara Vargas, Jeisson Andrés; Colectivo de Investigación en Ingeniería de Software ColsweSoftware systems play a fundamental role in modern everyday life, and cloud computing has significantly expanded their reach while simultaneously reducing complexities and costs associated with their development and deployment. In this context, software architecture emerges as an essential component to ensure an optimal structure according to needs, defining innovative styles such as microservices architectures, which consist of a group of small, highly specialized services. When considering the implementation of these systems in the cloud, the challenge arises of defining the appropriate cloud computing infrastructure, especially regarding the configuration of scalability properties, a task often characterized by its complexity and duration. To address this complexity, an extension of the Architecture Description Language (ADL) Sarch has been undertaken, allowing the definition of scalability properties. Additionally, model-to-model transformation rules have been established to facilitate the transition from an architecture model to an infrastructure-as-code schema, specifically configured to address the scalability quality attribute. This innovative approach aims to simplify the task of configuring the necessary infrastructure, accelerating and automating the process to enable a faster and more efficient implementation of advanced microservices architectures in the dynamic environment of cloud computing.Item type: Ítem , Determinar la variabilidad de la demanda de energía eléctrica que permita evaluar el potencial uso de un esquema tarifario diferencial(Universidad Nacional de Colombia, 2023-12) Duarte Aunta, Javier Eduardo; Rosero Garcia, Javier Alveiro; Oscar German, Duarte VelascoEste estudio introduce una metodología para el análisis de la variabilidad en la demanda eléctrica, con el objetivo de estimar la flexibilidad del consumo energético en Colombia. Esta evaluación es clave para la posible implementación de esquemas tarifarios diferenciados, en particular tarifas Time-of-use (ToU). La metodología comienza con un pre-procesamiento de datos, centrado en la organización y limpieza de registros individuales de consumo. Seguidamente, se realiza un procesamiento y clasificación de los datos mediante técnicas de análisis de variabilidad y clustering. Los clusters representativos son seleccionados para identificar intervalos de tiempo con alta variabilidad en el consumo de energía eléctrica. El paso final consiste en analizar el potencial de flexibilidad energética en estos intervalos, tanto para usuarios con alta variabilidad como para el conjunto total de usuarios estudiados. Esta metodología fue aplicada utilizando datos reales de medidores inteligentes del sistema eléctrico colombiano, logrando identificar con éxito las franjas horarias con potencial para establecer tarifas de ToU. Este trabajo, surge como una iniciativa del grupo de investigación Electrical Machines and Drives de la Universidad Nacional – Sede Bogotá, que aspira a fomentar la implementación de estrategias de respuesta de la demanda que promuevan la sostenibilidad y faciliten la transición hacia un panorama energético resiliente a nivel nacional e internacional. Se espera que los hallazgos aquí presentados contribuyan significativamente en la formulación de esquemas tarifarios que incentiven una modificación consciente en los patrones de consumo de energía eléctrica. (Texto tomado de la fuente).