Maestría en Ingeniería - Sistemas y Computación

URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/81877

Examinar

Envíos recientes

Mostrando 1 - 20 de 352
  • Item type: Ítem ,
    Solución basada en software para la reconciliación transaccional enfocada en la gestión de datos financieros de Clip MX utilizando Databricks
    (Universidad Nacional de Colombia, 2025) Neira Embus, Manuel Fernando; Vergara Vargas, Jeisson Andrés; Colectivo de Investigación en Ingeniería de Software Colswe
    En el contexto empresarial actual, la eficiencia en la gestión financiera se ha convertido en un aspecto determinante para el éxito estratégico, operativo y normativo de las organizaciones. Las compañías del sector financiero enfrentan continuamente desafíos derivados del incremento en la cantidad, variedad y velocidad con la que los datos transaccionales son generados y procesados. Clip, reconocida fintech mexicana especializada en soluciones integradas de pago electrónico, no es ajena a esta realidad, ya que la empresa ha experimentado un crecimiento sostenido en el volumen de transacciones electrónicas que procesa diariamente. Esta situación le ha generado retos significativos en términos de gestión y análisis de datos financieros, particularmente en el área de reconciliación transaccional. Históricamente, Clip ha enfrentado desafíos operativos en la reconciliación financiera, relacionados principalmente con procesos manuales y semi-automatizados que generaban altos costos operativos, limitaciones en términos de dependencia de plataformas tecnológicas específicas como Snowflake. Estas limitantes se traducían en demoras operativas, alto riesgo de errores y una flexibilidad reducida ante cambios normativos o incrementos en el volumen transaccional. En respuesta a estas necesidades, la presente investigación desarrolla una solución basada en software para optimizar el proceso de reconciliación financiera transaccional en Clip MX mediante la plataforma Databricks. La propuesta se fundamenta en un análisis detallado de los procesos operativos existentes en la compañía, identificando tanto las necesidades funcionales (capacidad de procesamiento, precisión en la reconciliación, reportabilidad) como las no funcionales (escalabilidad, portabilidad, seguridad de la información). La solución integra tecnologías avanzadas como procesamiento distribuido mediante Apache Spark, almacenamiento eficiente y versionado utilizando Delta Lake y la automatización de flujos de trabajo y orquestación de procesos mediante Airflow. Además, se establecen mecanismos robustos de monitoreo en tiempo real mediante integración con plataformas como Slack, que permiten identificar y responder de manera oportuna ante cualquier anomalía. De esa manera, la evaluación y validación del sistema se realizan mediante métricas específicas relacionadas con efectividad operativa, precisión de resultados, eficiencia temporal y reducción de costos operativos, de manera que se asegura que la solución propuesta contribuya efectivamente al fortalecimiento del proceso de gestión financiera de Clip. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Detección de patologías de plantas en cultivos de palma aceitera a partir del análisis automático de imágenes multiespectrales basado en técnicas de procesamiento digital de imágenes y aprendizaje computacional
    (Universidad Nacional de Colombia, 2026) Torres Galindo, Angie Katherine; Camacho Tamayo, Jesús Hernán; Cruz Roa, Angel Alfonso
    Este trabajo de grado aborda la aplicación de técnicas de visión por computadora y el análisis de imágenes multiespectrales, para la posible detección temprana de la Marchitez Letal (ML), una de las enfermedades más devastadoras en los cultivos de palma aceitera (Elaeis guineensis Jacp.) en Colombia. Se aplicó la metodología CRISP-DM. Para la adquisición de datos, se utilizó unas aeronaves remotamente pilotadas equipadas con el sensor multiespectral Micasense Rededge M. Para el procesamiento de las imágenes multiespectrales se aplicaron técnicas de procesamiento digital de imágenes, como la normalización de la reflectancia, así como de índices vegetacionales como el NDRE, para el realce de características de imagen. El componente principal del estudio se enfoca en la implementación de una red neuronal convolucional (CNN), y la exploración de arquitecturas como EfficientNetB0 y ResNet50V2 para realizar un a clasificación binaria de las palmas: sanas y enfermas. Logrando resultados de las métricas de desempeño en el modelo de la CNN escogida valores sobresalientes, como una exactitud (accuracy) general del 88% y un AUC de 0,8758, en arquitecturas como ResNet50V2 la exactitud fue de 93%, revelando un comportamiento prometedor con datos multiespectrales en la detección de los estados de la enfermedad. Este trabajo de grado presenta que el uso de imágenes multiespectrales y técnicas de aprendizaje computacional podrían ser una herramienta viable para el monitoreo y control de la enfermedad, ofreciendo una posible solución en comparación con los métodos de inspección visual tradicionales. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Evaluación del desempeño de modelos de aprendizaje supervisado con efectos aleatorios en datos correlacionados
    (Universidad Nacional de Colombia, 2025) Calderón Rodríguez, John Alexander; González Osorio, Fabio Augusto; Calderón Rodríguez, John Alexander [0000000317386512]; Mindlab
    La mayoría de los modelos de aprendizaje automático asumen independencia entre las observaciones, lo cual rara vez ocurre en conjuntos de datos reales. Un claro ejemplo lo constituyen los estudiantes agrupados por institución educativa, donde comparten un contexto común y, por tanto, muestran una correlación natural. Ajustar modelos sin considerar esta estructura puede inducir sesgos y reducir su capacidad predictiva. En respuesta a esta limitación, recientemente han surgido propuestas que incorporan explícitamente componentes de correlación en el modelado. Entre las propuestas más relevantes en la literatura se encuentra el modelo lineal mixto de redes neuronales (LMMNN), que incorpora efectos aleatorios inspirados en el marco estadístico de los modelos lineales mixtos. En este trabajo, se evaluó el desempeño del LMMNN, junto con otros enfoques, utilizando los datos de la prueba Saber 11 aplicada en 2023 a estudiantes colombianos de grado once al finalizar su formación escolar. Los resultados obtenidos destacan la importancia de incluir el componente de correlación en el ajuste de los modelos. En particular, se observó una disminución del 10% en los errores de estimación y un incremento significativo en la varianza explicada. Aunque este enfoque implica un mayor tiempo de cómputo debido a su complejidad y número de parámetros, los beneficios en términos de capacidad predictiva justifican el esfuerzo computacional adicional. Este trabajo logra una evaluación aplicada de modelos de aprendizaje automático recientes que integran efectos aleatorios, utilizando datos reales en el contexto educativo colombiano. Se cuantificó el impacto de modelar explícitamente la estructura de correlación en métricas clave como el error, la varianza explicada y el tiempo de ejecución, aportando evidencia empírica valiosa para el desarrollo y uso de estas metodologías en datos con componente de correlación. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Detección y caracterización espectral individual de palmas aceiteras en imágenes aéreas mediante técnicas de visión artificial
    (Universidad Nacional de Colombia, 2025) Gómez Rivera, Andrés Felipe; Pedraza Bonilla, César Augusto; Plas Programming languages And Systems; Alexander Caballero Rodríguez
    El cultivo de la palma aceitera en Colombia es de gran importancia en industrias como la alimenticia, química, cosmética y producción de biocombustibles. Existen condiciones fitosanitarias que ponen en riesgo las plantaciones y que pueden disminuir drásticamente su producción. El fenotipado de los cultivos proporciona información para la detección temprana de individuos con anomalías relacionadas con su salud. En este estudio se implementa un proceso fotogramétrico de obtención de datos de imágenes aéreas en cultivos de palma mediante plataformas aéreas no tripuladas y sensores multiespectrales. Luego se implementa y evalúa un método de detección individual de palmas utilizando algoritmos de extracción de características (HOG), clasificación (SVM) y agrupación de detecciones. Posteriormente se implementa el algoritmo desarrollado para la detección de individuos sobre una imagen aérea multiespectral y se realiza su caracterización espectral individual, basado en el cálculo de índices de vegetación. Se obtiene un catálogo geolocalizado de palmas individuales junto con un conjunto de metadatos útiles para orientar al productor acerca de los individuos del cultivo con mayor interés de estudio según el estado fitosanitario relacionado con los índices de vegetación utilizados. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Method for the semi-automatic generation of integration test cases in the process of architectural evolution from monolith to microservices, using model-driven software engineering
    (Universidad Nacional de Colombia, 2025) Ocampo Gamboa, Luis Alejandro; Vergara Vargas, Jeisson Andrés; Oliveira Neves, Vânia; Ocampo Gamboa, Luis Alejandro [0002152619]; Ocampo Gamboa, Luis Alejandro [0009-0000-2733-9029]; Colectivo de Investigación en Ingeniería de Software Colswe
    In recent years, the evolution from monolithic architectures to microservice-based systems has become a common strategy to improve scalability, flexibility, and maintainability. However, this transition introduces significant challenges for software quality assurance, particularly regarding the validation of interactions among independently deployed services. Manual creation and maintenance of integration tests in distributed environments are error-prone and inefficient, and existing approaches to architectural evolution typically emphasize functional and non-functional requirements without explicitly incorporating integration testing into the process. This master's final work proposes a model-driven method to support the architectural evolution from monolithic to microservice systems through the iterative and semi-automatic generation of integration test cases. The method relies on architectural design artifacts, specifically a component-and-connector structure of the evolving architecture and the network configuration of deployed microservices, to derive executable integration tests. A sequence of iterative steps aligns the evolution process with test generation and execution, ensuring that integration validation is embedded in each stage of architectural transformation. To implement the method, a supporting tool was developed that implements the defined Model-to-Text transformation rules. This tool enables the generation and execution of integration test cases in parallel with the deployment of microservices, facilitating early detection of integration errors and reducing risks during architectural evolution. The proposed approach contributes to modern software engineering by strengthening the alignment between architectural design, system evolution, and software testing, ultimately promoting a more robust transition toward modular and scalable architectures.
  • Item type: Ítem ,
    Evaluación de la madurez DevOps en una organización mediante la aplicación de una técnica basada en GQM
    (Universidad Nacional de Colombia, 2025) Herrera Maldonado, Juan Sebastián; Aponte Melo, Jairo Hernán; Ingeniería de Software
    El enfoque DevOps se ha consolidado como un pilar estratégico para que las organizaciones puedan desarrollar, probar y desplegar software de forma ágil, frecuente y confiable. Su objetivo primordial es romper las barreras tradicionales entre el desarrollo y las operaciones de TI, facilitando una colaboración integral que se traduzca en una entrega de valor continua y adaptada a las cambiantes demandas del mercado. Como afirman [5], “DevOps representa una convergencia necesaria de las prácticas de desarrollo y operaciones, permitiendo a las organizaciones responder de manera rápida y eficaz a los requerimientos del entorno”. A pesar de los múltiples casos de éxito que demuestran cómo la adopción de DevOps puede optimizar procesos y acelerar la innovación, la transición hacia este modelo no está exenta de retos. Se han documentado numerosas dificultades, especialmente en organizaciones con estructuras jerárquicas y procesos tradicionales arraigados, donde la resistencia al cambio y la falta de una cultura colaborativa constituyen obstáculos significativos. Esta dualidad—entre el potencial transformador y los desafíos de implementación—subraya la necesidad de contar con métodos de evaluación que permitan diagnosticar de forma precisa el nivel de madurez DevOps dentro de una organización. El presente trabajo final aborda esta problemática a través de un estudio de caso en una organización FinTech, evaluando su grado de madurez DevOps mediante la aplicación de una técnica basada en GQM (Goal-Question-Metric). La metodología GQM, ampliamente reconocida por su capacidad para traducir metas estratégicas en preguntas y métricas cuantificables, proporciona un marco estructurado que facilita la toma de decisiones informadas y la identificación de áreas críticas de mejora. [11] destacan que “la técnica GQM ofrece un marco robusto para evaluar el desempeño y orientar la mejora continua, permitiendo una alineación precisa entre los objetivos organizacionales y las prácticas operativas”. El estudio de caso realizado en conjunto con los equipos de la organización reveló que la evaluación basada en GQM logró capturar de manera fidedigna la situación actual de las capacidades y el desempeño en materia de DevOps. Este diagnóstico no solo permitió establecer un punto de referencia claro, sino que también facilitó la elaboración de un plan piloto que priorice el fortalecimiento de aquellos componentes críticos identificados durante el análisis. En este sentido, la implementación de la técnica GQM se configuró como una herramienta clave para la toma de decisiones estratégicas, permitiendo a la organización avanzar hacia una adopción más completa y sostenible de las prácticas DevOps. La integración de DevOps mediante un enfoque evaluativo basado en GQM no solo evidencia la viabilidad y eficacia de este modelo en entornos altamente competitivos y dinámicos, sino que también subraya la importancia de contar con métricas objetivas y un análisis profundo para gestionar la transformación cultural y tecnológica. Este trabajo respalda la premisa de que, a pesar de los desafíos inherentes a la transición, la implementación de DevOps es esencial para alcanzar niveles superiores de agilidad, eficiencia y calidad en la entrega de software, posicionando a la organización FinTech en una trayectoria de innovación y competitividad sostenida. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Detección de anomalías en series temporales multivariantes (MTS) basada en métodos de estimación de la densidad.
    (Universidad Nacional de Colombia, 2025) Rodriguez Peraza, Andres Francisco; Gonzalez Osorio, Fabio Augusto; Mindlab
    La detección de anomalías en series temporales multivariantes (MTS) es fundamental para la identificación temprana de comportamientos inusuales en datos secuenciales de múltiples variables. Esta trabajo de grado propone un enfoque basado en métodos de estimación de densidad, que permite modelar de forma probabilística la distribución de datos normales y detectar desviaciones significativas como anomalías. Se implementa un modelo de detección de anomalías en series temporales multivariantes basado en métodos de estimación de densidad, y se evalúa exclusivamente sobre el dataset Server Machine Dataset (SMD), el cual proporciona registros reales de múltiples máquinas con diferentes configuraciones operativas. Este conjunto permite validar el modelo en escenarios con alta dimensionalidad, datos desbalanceados y comportamiento variable entre contextos. Los resultados se analizan usando métricas estándar AUC-PR y F1-score. Se diseñó un experimento comparativo frente a métodos del estado del arte, mostrando ventajas en contextos con alta dimensionalidad y datos desbalanceados. Los resultados sugieren que la estimación de densidad permite capturar mejor los patrones normales y mejorar la detección de desviaciones significativas en datos multivariantes. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Proof of feasibility of an integration of AdePT in Gaussino simulations for improving performance
    (Universidad Nacional de Colombia, 2025) Benavides Rubio, Juan Bernardo; Sandoval Usme, Carlos Eduardo; Benavides Rubio, Juan Bernardo [0009-0006-5300-8497];
    The Large Hadron Collider beauty (LHCb) experiment at CERN faces a significant computational challenge as increasing data collection rates demand proportionally larger sets of simulated data. The simulation of the electromagnetic calorimeter (ECAL) has been identified as the primary performance bottleneck, consuming over 60% of the total simulation time and limiting the statistical precision of key physics analyses. This thesis explores a novel solution to this bottleneck by integrating AdePT (Accelerated demonstrator of electromagnetic Particle Transport), a library designed for GPU-accelerated simulation of electromagnetic showers, into Gaussino, the LHCb experiment-agnostic simulation framework. A proof-of-concept integration was developed to offload the computationally intensive ECAL simulation from the CPU to the GPU. The feasibility of this approach was evaluated through a series of benchmark tests comparing the performance and physics fidelity of the AdePT-integrated simulations against the standard Geant4 baseline. The results demonstrate significant performance improvements, with speed-up factors of up to 4.12x in calorimeter-centric benchmarks. The performance was found to scale effectively with event complexity, highlighting the effciency of GPU parallelization for high-multiplicity events. Physics validation studies confirmed a high degree of fidelity, with key observables such as energy deposition and longitudinal shower profiles showing strong agreement with the baseline. While some discrepancies were identified, they are under active investigation. This work successfully demonstrates that integrating AdePT into Gaussino is a viable strategy to alleviate the simulation bottleneck, paving the way for a more effcient use of heterogeneous computing resources and enhancing the physics potential of the LHCb experiment.
  • Item type: Ítem ,
    Prototipo de modelo predictivo para anticipar resultados de instituciones educativas en las pruebas Saber 11
    (Universidad Nacional de Colombia, 2026) Puentes Cespedes, Miguel Angel; Camargo Mendoza, Jorge Eliecer; Puentes Cespedes, Miguel Angel [0009000906416756]
    Esta investigación desarrolla un modelo predictivo del desempeño institucional en las Pruebas Saber 11 de Colombia, con el propósito de anticipar el puntaje promedio global de las instituciones educativas a partir de sus características socioeconómicas, demográficas e institucionales. La motivación surge ante la ausencia de herramientas analíticas que permitan a los establecimientos educativos proyectar sus resultados antes de la aplicación del examen, situación que limita la planeación estratégica y la implementación de acciones preventivas. La metodología adoptada se basó en el modelo CRISP-DM, abarcando las fases de comprensión del problema, preparación y limpieza de datos, análisis exploratorio, modelado y evaluación. Se utilizaron datos históricos del ICFES correspondientes al periodo 2014-2024. Se implementaron diferentes modelos de aprendizaje automático, entre ellos regresión lineal regularizada, Random Forest, XGBoost y redes neuronales profundas. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Implementación de un modelo de generación de imágenes basado en principios de la física cuántica.
    (Universidad Nacional de Colombia, 2026) Mora López, Andrea Carolina; Gonzalez Osorio, Fabio Augusto; Useche Reyes, Diego Hernan; Mindlab
    La computación cuántica presenta ventajas frente a la computación clásica, en particular en tareas de optimización y generación de datos. Sin embargo, las limitaciones del hardware actual dificultan la implementación práctica de modelos generativos cuánticos a gran escala. Esto ha impulsado el desarrollo de enfoques híbridos, simulaciones clásicas y modelos inspirados en principios cuánticos. En este trabajo se proponen tres modelos generativos inspirados en principios de la computación cuántica, pero implementados sobre arquitecturas clásicas. Todos ellos comparten un método de estimación de densidad llamado Kernel Density Matrix (KDM), compuesto por tres elementos un kernel, un conjunto de prototipos y los pesos asociados a dichos prototipos. Los modelos desarrollados son: un autoencoder entrenado de manera independiente de la capa KDM (AEKDMS), un autoencoder y una KDM entrenados conjuntamente mediante una función de pérdida combinada (AEKDM-FPC) y un autoencoder con una KDM estocástica inctegrada como capa intermedia en el espacio latente (AEKDM-CIS). La validación experimental se llevó a cabo utilizando los conjuntos de datos MNIST Digits, Fashion-MNIST y CELEB-A, evaluando el desempeño mediante las métricas Fréchet Inception Distance (FID), divergencia de Kullback Leibler y log-verosimilitud (LL). Los resultados muestran que el modelo AEKDMS alcanzó el mejor desempeño global. En MNIST Digits obtuvo un FID de 21.52, una KL de 4.12 y una LL de 654.84, superando a modelos base como VAE (FID 75.43, KL 10.76, LL 582.61) y GAN (FID 35.24, KL 15.68, LL 419.56). En Fashion-MNIST, el mismo modelo logró un FID de 53.11 y una LL de 674.63, mientras que VAE y GAN alcanzaron FIDs de 149.67 y 167.62, respectivamente. Finalmente, para el set CELEB-A obtuvo un FID de 182.51 comparado con los modelos de linea base que alcanzaron valores de 216.47 y 211.83 para la GAN y VAE respectivamente. El modelo entrenado conjuntamente AEKDM-FPC se destacó en log-verosimilitud, alcanzando el mayor valor en el conjunto de MNIST Digits (LL = 745.57), aunque sacrificó calidad visual (FID = 31.74). Finalmente, el modelo AEKDM-CIS presentó un desempeño inferior en ambas bases de datos, con FID más altos (76.79 en dígitos y 194.04 en Fashion-MNIST) y log-verosimilitudes más bajas, lo que indica inestabilidad en el entrenamiento. Sin embargo, para el conjunto de mayor dimensión CELEB-A obtuvo un mejor desempeño en métricas como la log verosimilitud (LL = 8213,04). En conjunto, los resultados confirman que los modelos inspirados en principios cuánticos, en particular el AEKDMS, superan a las líneas base clásicas tanto en calidad visual como en consistencia estadística, además de requerir arquitecturas más ligeras (61k–68k parámetros frente a los 2.9M del GAN). (Texto tomado de la fuente)
  • Item type: Ítem ,
    Impacto de la inteligencia artificial generativa en la implementación de Test-Driven Development: evaluación de la calidad del código y su aplicabilidad en entornos académicos
    (Universidad Nacional de Colombia, 2025-12-01) Álvarez Rodríguez , Óscar Eduardo; Aponte Melo, Jairo Hernán; Colectivo de Investigación en Ingeniería de Software Colswe
    La inteligencia artificial generativa (IAG) ha acelerado la escritura de código, pero aún hay incertidumbre sobre riesgos en la calidad, la seguridad y la pertinencia de las soluciones. Este trabajo examina la integración de IAG en el Desarrollo Guiado por Pruebas (TDD) en un entorno académico controlado. Se empleó un diseño con dos condiciones (con y sin apoyo de IAG) en un reto de programación orientado a TDD, con instrucción previa homogénea, misma consigna y ventana temporal equivalente. La calidad del producto se evaluó mediante métricas estándar (complejidad ciclomática e índice de mantenibilidad), herramientas de análisis estático (Pylint/Flake8), seguridad (Bandit) y cobertura de pruebas; Además, se recogió la percepción de los participantes: antes del ejercicio, respecto a su propio nivel de programación y etapa académica; y después del ejercicio, en relación con la dificultad percibida y el grado de completitud alcanzado. Los resultados no evidencian diferencias estadísticamente significativas en complejidad ciclomática ni en mantenibilidad entre los grupos CON IA y SIN IA. Gráficamente se observan algunas variaciones descriptivas entre ambos grupos, pero estas no alcanzan significancia estadística y deben interpretarse con cautela. La cobertura no presenta un patrón uniforme y depende de la calidad de los casos de prueba. En el caso de la métrica de seguridad, Bandit no reportó vulnerabilidades en ninguno de los proyectos, lo cual es consistente con el alcance acotado del reto y limita la posibilidad de extraer conclusiones generales sobre la seguridad del software. La evidencia cualitativa sugiere que la IAG puede favorecer la velocidad de avance y la estructuración inicial del código, pero requiere pautas de prompting y supervisión para evitar errores sutiles y dependencias excesivas. Se discuten amenazas a la validez y se proponen lineamientos prácticos para cursos de programación que deseen incorporar IAG sin desplazar el razonamiento propio del estudiante. (Texto tomado de la fuente).
  • Item type: Ítem ,
    Identificación de ejemplos adversarios en modelos de Machine Learning que detectan malware para Android
    (Universidad Nacional de Colombia, 2025-11-26) Aldana Burgos, Leidy Marcela; Camargo Mendoza, Jorge Eliecer; González Osorio, Fabio Augusto; Niño Vásquez, Luis Fernando; Unsecurelab Cybersecurity Research Group
    Este documento muestra un método computacional para identificar entradas adversarias en Machine Learning, enfocado en la detección de Malware para Android. En primer lugar, se creó un conjunto de datos de malware, con el cual se entrenaron cuatro modelos de machine learning, estos cuatro modelos son una red neuronal, un Autoencoder, SVM y regresión logística; todos ellos tienen el objetivo de aprender a clasificar aplicaciones para Android entre beningware o malware. En segundo lugar, se ejecutaron diez ataques adversarios de evasión contra cada uno de esos modelos de machine learning, los cuales son FGSM, BIM, CW (L2 y Linf), ZOO, HopSkip Jump, JSMA, Deepfool, PGD y Boundary Attack. La implementación de estos ataques permitió analizar la vulnerabilidad de estos modelos, debido a que logra alterar la clasificación que hace cada modelo. En tercer lugar, se propone un método sencillo para mitigar los efectos de dicha vulnerabilidad, el cual tiene el enfoque de detectar ejemplos adversarios previo a la entrada a cada modelo de machine learning; una vez detectados son excluidos y se evalúa de nuevo las métricas de rendimiento, como la evaluación cuantitativa de la capacidad para clasificar en cada modelo de machine learning. Finalmente, en los resultados se resalta la importancia de algunas características estáticas y dinámicas frecuentes en muestras de malware. (Texto tomado de la fuente).
  • Item type: Ítem ,
    Conflubot : chatbot para la busqueda de información en repositorios Confluence
    (Universidad Nacional de Colombia, 2025) Duque Cardona, Juan José; Aponte Melo, Jairo Hernán
    La distribución del conocimiento es uno de los aspectos más relevantes en las organizaciones, puesto que permite su aplicación en distintas áreas para la toma de decisiones. La gestión del conocimiento se encarga de crear, almacenar y distribuir el conocimiento en los diferentes sectores, para lo cual se emplean tecnologías de la información, ya que facilitan la generación de nuevo conocimiento y ayudan a las instituciones a posicionarse como organizaciones vanguardistas. Una de las herramientas implementadas para distribuir información en proyectos es Confluence, un editor wiki basado en la web cuyo objetivo principal es optimizar el contenido o las especificaciones de los documentos de un proyecto. Aunque Confluence incluye un buscador para facilitar la localización de información en distintos proyectos, cuando un empleado consulta sus repositorios, su productividad se ve afectada, ya que encontrar información específica requiere un esfuerzo considerable y demasiado tiempo. Considerando la problemática anteriormente mencionada, el presente trabajo de grado presenta la implementación y evaluación de un chatbot denominado Conflubot, el cual tiene como propósito facilitar la búsqueda de información en repositorios Confluence. Para implementar y evaluar el chatbot, se realizó un análisis bibliográfico en el que se examinaron proyectos con funcionalidades similares a Conflubot. El objetivo era identificar las herramientas utilizadas en su desarrollo, evaluarlas y así determinar cuáles serían las más adecuadas para la implementación de Conflubot. Posteriormente, se estudiaron los patrones arquitectónicos de los sistemas RAG y se determinó el uso del patrón Naive para diseñar la arquitectura de Conflubot. Una vez determinado el patrón arquitectónico, se llevó a cabo el desarrollo, entrenamiento del modelo de embebido y despliegue del chatbot en la nube. Tras implementar Conflubot, se diseñaron pruebas y formularios para que algunos usuarios interactuaran con él y evaluaran su funcionamiento y utilidad. Los resultados mostraron una percepción positiva sobre su desempeño, además de sugerir mejoras futuras centradas en la búsqueda de información y en la forma en que el chatbot responde a las consultas. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Propuesta de articulación de un modelo de despliegue de transformación digital con un marco de trabajo de ciberseguridad para los bancos colombianos
    (Universidad Nacional de Colombia, 2025) Insuasty Mejía, Karol Stephany; Sánchez Torres, Jenny Marcela; Giraldo Ríos, Lucas Adolfo; Griego (Grupo Investigación en Gestión y Organizaciones)
    Este estudio tuvo como propósito principal la construcción de una propuesta de articulación de un modelo de despliegue de transformación digital con un marco de trabajo de ciberseguridad para los bancos colombianos, en respuesta a la necesidad de superar el problema de una débil integración de la transformación digital y la ciberseguridad en el sector bancario colombiano y como contribución a la limitada literatura sobre la relación sinérgica entre estos dos grandes componentes de resiliencia digital. Para ello, se caracterizaron inicialmente los modelos de despliegue de transformación digital y se determinó el marco de trabajo de ciberseguridad que se ajustan a los bancos, a través del método de revisión sistemática de literatura propuesto. Con base en este proceso de búsqueda, se seleccionó el modelo de despliegue de transformación digital denominado Digital Transformation Roadmap y el marco de ciberseguridad ISO 27001:2022 para ser focalizados en la construcción de la propuesta de articulación. Para la validación de contenido de la primera versión de la propuesta, se acudió el método de juicio de expertos complementado con una entrevista semiestructurada a los cinco expertos participantes con base en cuyos resultados se elaboró una versión revisada de la propuesta de articulación. Uno de los principales hallazgos generales de este estudio es haber explorado la posibilidad de articular los controles y elementos de ciberseguridad con los pasos de cada etapa del modelo de despliegue de transformación digital focalizado yendo más allá de la manera habitual de concebir, en el mejor de los casos, a la ciberseguridad como un componente más de la transformación digital. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Optimización de la auditoría continua en empresas de servicios públicos mediante un marco metodológico basado en aprendizaje supervisado : caso de estudio del proceso de facturación
    (Universidad Nacional de Colombia, 2025) Coronado Cabarcas, Yarelmis; Perdomo Charry, Oscar Julián; Mindlab
    Este trabajo presenta un marco metodológico optimizado para auditoría continua en empresas de servicios públicos, con énfasis en el proceso de facturación, mediante el uso de aprendizaje supervisado. El proyecto surgió ante la necesidad de mejorar la detección de anomalías y riesgos operativos que, bajo enfoques tradicionales, son detectados de forma tardía, afectando la eficiencia y la confiabilidad del proceso auditor. Para ello, se diseñó e implementó un marco estructurado en siete fases, desde el diagnóstico inicial de madurez hasta la retroalimentación del modelo, aplicando metodologías CRISP-DM, COSO-ERM y principios de automatización analítica. Tras una revisión comparativa de modelos de machine learning, se seleccionó Random Forest por su robustez ante datos desbalanceados y su capacidad para capturar patrones no lineales. El modelo fue entrenado y validado con datos ofuscados de facturación, alcanzando un F1-score de 0.61 en la detección de anomalías. Posteriormente, se aplicó a un nuevo conjunto de datos simulados, identificando más de 29 mil alertas de comportamiento atípico, lo que evidenció su potencial como herramienta de apoyo para auditorías automatizadas. Los resultados validan la aplicabilidad del marco propuesto y destacan la importancia de integrar enfoques de inteligencia artificial en los sistemas de control interno del sector público (Texto tomado de la fuente).
  • Item type: Ítem ,
    Prototipo de plataforma educativa basada en modelos de lenguaje para el apoyo en el aprendizaje de matemáticas básicas
    (Universidad Nacional de Colombia, 2025) Pabón Correa, David Alejandro; Restrepo Calle, Felipe; Pabon Correa, David Alejandro [0009000824194336]; Plas Programming languages And Systems
    El presente trabajo desarrolla un prototipo de plataforma educativa de código abierto orientada a la enseñanza de matemáticas básicas, integrando modelos de lenguaje para ofrecer tutoría personalizada. La propuesta surge como respuesta a la brecha de aprendizaje matemático en Colombia y a la necesidad de contar con herramientas capaces de operar en entornos con recursos limitados. Se plantea la adaptación de modelos de lenguaje pequeños (Small Language Models) al dominio de las matemáticas elementales, con el propósito de generar explicaciones paso a paso y fomentar el aprendizaje activo. El documento describe las fases de diseño pedagógico, la construcción de un conjunto de datos en español, el ajuste fino de los modelos y la implementación de un prototipo con interfaz de usuario. Los resultados obtenidos muestran la factibilidad técnica y pedagógica de esta aproximación en escenarios de baja conectividad, y se plantea su potencial escalabilidad como alternativa inclusiva para fortalecer la enseñanza de las matemáticas en el sistema educativo colombiano (Texto tomado de la fuente).
  • Item type: Ítem ,
    Telemedicina - Análisis de tecnologías en el sistema de salud para la atención de pacientes en una institución de prestación de servicios de salud
    (Universidad Nacional de Colombia, 2025) Mojica Perdigon, Gustavo Adolfo; Umaña Acosta, Henry Roberto
    La implementación de la telemedicina en Colombia enfrenta desafíos estructurales relacionados con la integración tecnológica, la interoperabilidad entre sistemas y la adopción institucional. Este trabajo explora el estado actual de dicha implementación en tres IPS privadas de Bogotá, combinando un enfoque mixto de investigación que integra análisis cualitativos (entrevistas a profesionales de la salud) y cuantitativos (encuestas a pacientes). A través de esta triangulación metodológica, se identifican barreras y oportunidades, y se contrastan los hallazgos con frameworks tecnológicos reconocidos como HL7 FHIR y OpenMRS. El análisis automatizado mediante inteligencia artificial refuerza los patrones emergentes, facilitando una categorización robusta de las percepciones y experiencias recogidas. Finalmente, se presentan lineamientos estratégicos para fortalecer la adopción de telemedicina desde una perspectiva técnica, organizacional y centrada en el usuario (Texto tomado de la fuente).
  • Item type: Ítem ,
    Análisis de la deserción estudiantil en los programas de pregrado de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia, Sede Bogotá, utilizando métodos de aprendizaje automático
    (Universidad Nacional de Colombia, 2025) Vargas Contreras, Rosmer Manuel; Franco Soto, Diana Carolina
    La deserción estudiantil universitaria es uno de los principales problemas que enfrentan las instituciones de educación superior, generando impactos negativos tanto a nivel individual como institucional y para el país. En esta investigación se construyeron modelos predictivos para la deserción estudiantil en los programas de pregrado de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia, Sede Bogotá, durante el período 2022-2023, utilizando algunas técnicas de aprendizaje automático. Se implementaron cuatro algoritmos de aprendizaje automático: regresión logística, Random Forest, XGBoost y redes neuronales. La optimización de hiperparámetros se realizó utilizando Optuna y Grid Search CV, evaluando múltiples técnicas de balanceo de datos para abordar el desbalance inherente en los datos de deserción. La evaluación se basó en validación cruzada estratificada 5-fold y un conjunto de prueba independiente del 20%. El análisis descriptivo reveló que la tasa de deserción se incrementó de 0.44% en 2022-1S a 10.30% en 2023-2S, con diferencias notables por género (6.10% en hombres versus 3.76% en mujeres) y edad (17.44% en estudiantes de 30 a 34 años). La regresión logística identificó como factores de mayor impacto predictivo al Promedio Académico Ponderado Acumulado con β = −4.700 (p < 0.001), siendo el predictor más fuerte, junto con el número de matrículas (β = −0.426, p < 0.001), que reduce las probabilidades de abandono en 34.7%. Los estudiantes de la carrera de Administración de Empresas presentan menor riesgo (β = −0.957, p < 0.001), mientras que aquellos que deben nivelar Matemáticas muestran mayor probabilidad de desertar (β = 0.582, p = 0.006). Los efectos post confinamiento por la pandemia COVID-19 fueron significativos en 2020-2S aumentando la deserción (β = 0.646, p = 0.020), pero protectores en 2021-2S (β = −0.700, p = 0.004). Finalmente, Random Forest alcanzó el mejor rendimiento con una exactitud de 96.99% y un área bajo la curva ROC de 0.9914 en el conjunto de prueba. El modelo desarrollado proporciona una herramienta que puede ser útil para la identificación temprana de estudiantes en riesgo, con aplicaciones inmediatas en sistemas de alerta temprana institucionales. Los hallazgos contribuyen al entendimiento de los factores asociados con la deserción y proporcionan evidencia empírica para el diseño de estrategias diferenciadas de retención estudiantil (Texto tomado de la fuente).
  • Item type: Ítem ,
    Prototipo de una herramienta de software para el acompañamiento de pausas activas en entornos de trabajo remoto
    (Universidad Nacional de Colombia, 2025) Garzon Vasquez, Nicolas Andres; Duarte, Helga; Colectivo de Investigación en Ingeniería de Software Colswe
    Este proyecto tiene como objetivo desarrollar un prototipo de software para orientar y acompañar a las personas en modalidad de trabajo remoto, en la realización de pausas activas durante la jornada laboral. La idea surge ante el aumento significativo de personas que trabajan de manera remota, que pueden llegar a desarrollar enfermedades relacionadas, como el sedentarismo, las dolencias musculares y la fatiga visual que enfrentan. Las personas que trabajan remoto, aunque tengan a su disposición espacios proporcionados por el empleador para realizar estas actividades, no cuentan con una herramienta que les ayude a desarrollar las pausas activas de forma guiada y práctica, a diferencia de los entornos de presencialidad, donde sí se recibe el acompañamiento. Además de guiar al usuario en la ejecución de las pausas activas, el prototipo incorpora la opción de registrar cada sesión realizada. De esta manera, se generan métricas que pueden ser consultadas por el empleador, ofreciendo un valor agregado en términos de seguimiento y control, promoviendo el autocuidado. Esta funcionalidad constituye una de las principales ventajas del prototipo frente a otras soluciones disponibles en el mercado, ya que permite a las empresas hacer seguimiento al compromiso de sus colaboradores con la práctica de pausas activas (Texto tomado de la fuente).
  • Item type: Ítem ,
    Modelo de predicción de abandono de clientes en un marketplace mediante técnicas de machine learning
    (Universidad Nacional de Colombia, 2025-10-06) Baquero Pico, Cristian Adolfo; Restrepo Calle, Felipe; León Guzmán, Elizabeth; Plas Programming languages And Systems
    En el contexto competitivo de los marketplaces, la retención de clientes se ha convertido en un factor estratégico clave. Este trabajo presenta el desarrollo de un modelo predictivo de abandono de clientes (churn) aplicando técnicas de aprendizaje automático (machine learning), con el objetivo de identificar proactivamente a aquellos usuarios con mayor probabilidad de abandonar la plataforma. El estudio se estructura bajo la metodología CRISP-DM, abordando desde la selección y análisis de una base de datos —“theLook eCommerce”— hasta la preparación de características y la comparación de múltiples algoritmos. Se evaluaron diferentes configuraciones temporales para representar el con texto del cliente, y se identificaron las más efectivas en términos de desempeño predictivo. El modelo desarrollado, basado en Random Forest, alcanzó métricas superiores al 82 % en Accuracy y 78 % en F1-score, demostrando su utilidad para apoyar estrategias de retención en entornos reales. Este trabajo reafirma la necesidad de enfoques personalizados en la predicción del churn y sienta las bases para su implementación práctica. (Texto tomado de la fuente).