Maestría en Ingeniería - Analítica

URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/82559

Examinar

Envíos recientes

Mostrando 1 - 20 de 105
  • Item type: Ítem ,
    Método predictivo para clasificar la aceptación de la vacunación contra la influenza empleando técnicas de aprendizaje de máquinas.
    (Universidad Nacional de Colombia, 2025-09-15) Falcón Granada, Juan Sebastián; Branch Bedoya, John Willian; Iral Palomino, Rene; Branch Bedoya, John Willian [0000-00020378028X]; Iral, Rene [0000000182780079]
    Este trabajo propone y valida una metodología analítica para predecir la aceptación de la vacunación contra la influenza en población laboral y segmentar a los no vacunados para orientar intervenciones focalizadas y aumentar las coberturas lo máximo posible. Primero, se realizó una revisión sistemática de la literatura que consolidó un marco de variables clave para predecir la vacunación contra influenza, así como los métodos de aprendizaje de máquinas más utilizados y sus métricas. Luego, se aplicó la metodología a un caso de uso real en una prestadora de servicios de salud colombiana, (población de 19520 individuos, 44% vacunados y 56% no vacunados). Se entrenaron y compararon cuatro métodos de aprendizaje de máquinas (Regresión Logística, Random Forest, XGBoost y Multi-Layer Perceptron), priorizando la identificación de no vacunados. Los mejores desempeños se obtuvieron con MLP (especificidad del 70% y recall del 55%) y XGBoost (especificidad del 70% y recall del 53%), con AUC del 67%, evidenciando capacidad predictiva moderada. Sobre la subpoblación predicha como no vacunada (11586 personas), un clustering mediante Partitioning Around Medoids definió seis clústeres; los clústeres 2 y 6 (predominio asistencial, mayor edad y más días de incapacidad) fueron priorizados por mayor exposición y potencial impacto operativo. El estudio entrega una metodología reproducible y un punto de partida transferible a otros contextos (comunidades, empresas no sanitarias) y patologías con dinámica similar (neumococo, refuerzos de COVID-19, VPH). (Texto tomado de la fuente) mejores desempeños se obtuvieron con MLP (especificidad del 70% y recall del 55%) y XGBoost (especificidad del 70% y recall del 53%), con AUC del 67%, evidenciando capacidad predictiva moderada. Sobre la subpoblación predicha como no vacunada (11586 personas), un clustering mediante Partitioning Around Medoids definió seis clústeres; los clústeres 2 y 6 (predominio asistencial, mayor edad y más días de incapacidad) fueron priorizados por mayor exposición y potencial impacto operativo. El estudio entrega una metodología reproducible y un punto de partida transferible a otros contextos (comunidades, empresas no sanitarias) y patologías con dinámica similar (neumococo, refuerzos de COVID-19, VPH).
  • Item type: Ítem ,
    Desarrollo de un modelo de pronóstico de la demanda para un negocio de fertilizantes utilizando modelos de aprendizaje de máquinas
    (Universidad Nacional de Colombia, 2025-01-14) Soto Cañas, Luis Fernando; Torres Madroñero, Maria Constanza
    Este trabajo presenta la implementación y comparación de diferentes modelos predictivos aplicados a las ventas de fertilizantes, utilizando tanto modelos clásicos como de aprendizaje de máquinas. El objetivo principal fue encontrar el mejor modelo capaz de predecir la demanda futura con base en variables históricas, tanto internas como externas. Durante el desarrollo del trabajo, se realizó una integración y depuración exhaustiva de las diferentes fuentes de datos, seguida por una exploración de los datos que permitió identificar patrones relevantes. Posteriormente, se aplicaron distintos enfoques de modelado, incluyendo modelos autorregresivos como ARIMA, además se utilizaron diferentes modelos de aprendizaje de máquinas como el Random Forest, XGBoost y las redes neuronales recurrentes tipo LSTM, como última etapa se utilizaron técnicas de optimización de hiperparámetros para mejorar el rendimiento de los modelos implementados. Los resultados obtenidos muestran un rendimiento superior en la precisión de los modelos de aprendizaje automático frente a los modelos autorregresivos, demostrando que la analítica avanzada es un aliado estratégico para la toma de decisiones en un contexto organizacional. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Estimación dinámica de la susceptibilidad por movimientos en masa haciendo uso de técnicas de aprendizaje automático y su aplicación en plataforma Web-GIS
    (Universidad Nacional de Colombia, 2025-11-26) Correa Zapata, Daniel Felipe; Aristizábal Giraldo, Edier Vicente; Correa Zapata, Daniel Felipe [000900005998900X]; Aristizabal Giraldo, Edier Vicente [0000000226482197]; Investigación en Geología Ambiental Gea
    Los movimientos en masa constituyen una amenaza recurrente de alto impacto en entornos andinos densamente poblados: entre 2000 y 2023 se registraron 11,269 muertes asociadas a estos eventos en Colombia, con Antioquia como departamento más afectado (33.5%) y el Valle de Aburrá concentrando el 44% de los registros departamentales, en un contexto global donde la literatura reporta miles de deslizamientos fatales y una tendencia creciente vinculada al aumento de precipitaciones extremas y a la expansión urbana. Persiste un conjunto de brechas operativas en la estimación de la susceptibilidad: inventarios heterogéneos y con actualización irregular, productos cartográficos estáticos de rápida obsolescencia, y barreras técnicas para la adopción de metodologías avanzadas a escalas semidetalladas exigidas por la normativa y los lineamientos del Servicio Geológico Colombiano. El estado del arte evidencia que los enfoques heurísticos adolecen de reproducibilidad, los métodos físico‑mecánicos requieren parámetros locales difíciles de generalizar, y muchas plataformas Web-GIS carecen de integración dinámica de inventarios, analítica comparativa multimodelo y mecanismos transparentes de evaluación. Frente a este panorama, la hipótesis de trabajo plantea que integrar en una plataforma Web-GIS modelos de aprendizaje automático complementarios —Regresión Logística (paramétrica), Modelos Aditivos Generalizados (semiparamétricos) y Random Forest (no paramétrico)— con ajuste interactivo de hiperparámetros y flujos reproducibles de ingestión, análisis exploratorio, entrenamiento y ejecución mejora la precisión y eficiencia de la estimación de la susceptibilidad y reduce el periodo entre la ocurrencia de nuevos eventos y la generación de productos operativos. La solución desarrollada implementa una arquitectura desacoplada: un frontend en React y Leaflet para selección de variables, incorporación de inventarios y delimitación de áreas de interés; un backend en Django/Django REST Framework que orquesta el preprocesamiento geoespacial (rasterización de eventos y buffers, recortes por AOI, muestreo balanceado evento/no evento, estandarización selectiva), el análisis exploratorio automatizado (correlaciones, densidades, boxplots), el entrenamiento de modelos con registro de hiperparámetros y métricas (matriz de confusión, reporte de clasificación, curva ROC), además de la ejecución de dichos modelos; un datalake local estructurado para persistencia de modelos serializados, figuras y registros; GeoServer para publicación inmediata de mapas de susceptibilidad vía WMS; y un canal WebSocket para trazabilidad casi en tiempo real de procesos intensivos. Esta arquitectura se alinea con las oportunidades de investigación identificadas: dinamización de inventarios multitemporales, democratización de analítica geoespacial avanzada y provisión de servicios interoperables que fortalecen la gestión del riesgo y la planificación territorial en Antioquia. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Implementación de analítica descriptiva y predictiva a partir de una arquitectura serverless en la nube para pymes
    (Universidad Nacional de Colombia, 2025-11-17) López Saldarriaga, Diego Alejandro; Espinosa Bedoya, Albeiro; Branch Bedoya, John Willian; Espinosa Bedoya, Albeiro [000000017292987X]; Branch Bedoya, John Willian [0000-00020378028X]; Gidia: Grupo de Investigación YyDesarrollo en Inteligencia Artificial
    La computación en la nube y las arquitecturas serverless han surgido como una alternativa estratégica para que las pequeñas y medianas empresas (PYMES) accedan a capacidades de analítica avanzada sin incurrir en altos costos de infraestructura. Sin embargo, la adopción integral de enfoques de Infrastructure as Code (IaC) y analítica predictiva en este contexto aún presenta vacíos de investigación y práctica en América Latina. Se llevó a cabo una revisión sistemática de la literatura para identificar beneficios, limitaciones y tendencias en IaC y arquitecturas serverless. Posteriormente, se diseñó e implementó una arquitectura serverless en AWS, utilizando tanto CloudFormation como Terraform para comparar flexibilidad y mantenibilidad. Con datos anonimizados de pacientes, se construyeron y evaluaron modelos predictivos (Regresión Logística, Random Forest, Gradient Boosting y KNN) desplegados en Glue Jobs. Finalmente, se desarrolló un reporte descriptivo en Amazon QuickSight, consolidando tanto las transformaciones en la capa gold como las predicciones generadas. La revisión evidenció que AWS es el proveedor con mayor adopción y soporte para PYMES, que CloudFormation ofrece mayor granularidad en configuraciones específicas y que Terraform facilita portabilidad multi-nube. En la arquitectura implementada, S3 junto con Glue y Athena demostraron ser soluciones costo-eficientes y escalables, mientras que AWS Glue Jobs se consolidó como la mejor opción para cargas predictivas al superar las limitaciones de tamaño de librerías en Lambda. En el modelo predictivo, Gradient Boosting alcanzó la mayor exactitud con 61,57%, seguido de Regresión Logística con 61,11%, evidenciando la viabilidad de recomendaciones automáticas aun con variables limitadas. El tablero en QuickSight integró métricas descriptivas y predictivas en cuatro páginas, mostrando de manera visual patrones históricos y predicciones. Se pudo concluir que la adopción de arquitecturas serverless con IaC es viable y costo-eficiente para PYMES, siempre que se consideren las limitaciones técnicas de cada servicio. De los resultados se concluye que Glue Jobs complementa a Lambda en escenarios de analítica avanzada, mientras que QuickSight constituye una herramienta práctica para consolidar la analítica descriptiva y predictiva en tableros interactivos. En conjunto, la investigación demuestra que las PYMES pueden acceder a soluciones analíticas robustas y escalables en la nube, fortaleciendo su capacidad competitiva. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Transiciones dinámicas de datos: animación de flujos de datos mediante grafos de procesos operativos
    (Universidad Nacional de Colombia, 2025-11-05) Reina Saldaña, Arley Smith; Branch Bedoya, John Willian; Branch Bedoya, John Willian [0000-00020378028X]; Gidia: Grupo de Investigación YyDesarrollo en Inteligencia Artificial
    El análisis de procesos industriales presenta limitaciones cuando se emplean representaciones estáticas, ya que estas no logran capturar de manera adecuada la dimensión temporal de los flujos de información. Para superar esta restricción, se diseñó e implementó un sistema de visualización dinámica basado en PM4Py y PyGame, que integra registros en formato XES con grafos animados. La interfaz desarrollada incorpora controles de reproducción y un esquema de codificación visual —basado en velocidad, tamaño y color— orientado a resaltar cuellos de botella, concentraciones de actividad y variaciones temporales. La validación del sistema se llevó a cabo mediante una encuesta a expertos, quienes compararon la animación con herramientas habitualmente utilizadas. Los resultados evidencian una valoración favorable de la representación del comportamiento del proceso (61,1 % la calificó como superior), aunque se registraron opiniones divididas en torno a la calidad visual (44,4 % favorable y 11,1 % en desacuerdo) y al costo percibido (38,9 % superior, 27,8 % inferior). La intención de adopción alcanzó una mediana de 4 (“Probablemente sí”), con un 55,6 % de disposición positiva. En síntesis, la animación potencia la comprensión de la dinámica procesal y demuestra la viabilidad de integrar minería de procesos y visualización animada en entornos abiertos. Sin embargo, persisten barreras asociadas al diseño visual, la curva de aprendizaje y la integración tecnológica, lo que señala la necesidad de ajustes futuros para consolidar su adopción en contextos industriales. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Integración de un modelo YOLO y un algoritmo SORT en computadoras de placa única (SBC) para la detección, clasificación y verificación automatizada del estado de señales de tránsito
    (Universidad Nacional de Colombia, 2025-09-13) Quintero Arias, Christian Wbeimar; Ballesteros Parra, John Robert; Zapata Jaramillo, Carlos Mario; Ballesteros, John [0000-000173698399]
    Este trabajo presenta la integración de un modelo de detección de objetos YOLO y el algoritmo de seguimiento SORT en computadoras de placa única (SBC), con el propósito de detectar, clasificar y verificar automáticamente el estado de las señales de tránsito. La investigación parte de la necesidad de optimizar los procesos de inspección manual, los cuales demandan altos costos y presentan limitaciones en cobertura y oportunidad. Se implementó un enfoque experimental que incluyó la creación de un conjunto de datos propio con más de 1000 imágenes de señales en diferentes condiciones (óptimas, eterioradas, obstruidas y ausentes), complementado con técnicas de aumentación para robustecer el modelo. Se compararon múltiples arquitecturas YOLO y variantes de hiperparámetros, seleccionando YOLOv8n por su balance entre precisión (mAP50=78.5%) y eficiencia en hardware limitado. El sistema fue desplegado en Raspberry Pi 5, integrando un módulo GPS NEO-6M para georreferenciación y cámara CSI para captura en tiempo real. Los resultados experimentales muestran un desempeño promedio de 3.88 FPS en el entorno embebido, con precisión superior al 80% y capacidad de geolocalizar las señales detectadas, lo que valida la viabilidad del prototipo. Se concluye que la combinación de YOLO y SORT en computadoras de placa única (SBC) constituye una alternativa funcional y escalable para la gestión inteligente de la señalización vial, contribuyendo a reducir costos operativos y mejorando la seguridad vial mediante inspección automatizada. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Modelo de aprendizaje de máquinas para la predicción de la tasa de corrosión por CO2 en salmueras con iones divalentes y presencia de carbon quantum dots (CQDs)
    (Universidad Nacional de Colombia, 2025-09-19) Ortiz Pérez, Leidy Viviana; Cortés Correa, Farid Bernardo; Torres Madroñero , Maria Constanza; Franco Ariza, Camilo Andres; Cortés, Farid B. [0000000312073859]; Torres-Madronero, Maria C. [0000000297952459]; Fenómenos de Superficie Michael Polanyi
    La corrosión del acero al carbono en ambientes salinos saturados con CO₂ constituye un reto crítico para la confiabilidad de las infraestructuras en energía y procesos de Captura, Utilización y Almacenamiento de Carbono (CCUS). Las salmueras de formación con NaCl, CaCl₂ y CO₂ disuelto aceleran la degradación electroquímica, generando altas tasas de corrosión y riesgos operativos. Como alternativa de mitigación, los Carbon Quantum Dots (CQDs) se perfilan como inhibidores verdes prometedores por su dispersabilidad, estabilidad química y bajo impacto ambiental. Sin embargo, predecir con precisión estas tasas sigue siendo un desafío, ya que los modelos tradicionales no logran representar las complejas interacciones entre múltiples variables. En esta tesis se evaluó experimentalmente el efecto inhibidor de los CQDs mediante ensayos gravimétricos bajo diferentes condiciones de salinidad y tiempos de inmersión, y se desarrollaron modelos de aprendizaje de máquinas para predecir la tasa de corrosión en estos ambientes. Se evaluaron cinco algoritmos: Random Forest (RF), XGBoost, Support Vector Regression (SVR), K-Near Neighbors (KNN) y Multilayer Perceptron (MLP). El mejor desempeño predictivo se obtuvo con RF y XGBoost, alcanzando R² superiores a 0.91, RMSE de 1.1 mpy y MAE de 0.8 mpy. Estos resultados demuestran el potencial del aprendizaje de máquinas como herramienta poderosa y confiable para predecir el comportamiento corrosivo en salmueras complejas ricas en CO₂, apoyando la implementación de estrategias de mitigación de la corrosión más seguras, eficientes y sostenibles en aplicaciones industriales. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Análisis de imágenes en platos de comida típicos de Antioquía: un enfoque de visión por computadora para el conteo de carbohidratos en personas con diabetes mellitus.
    (Universidad Nacional de Colombia, 2025-08-18) Jaramillo Tamayo, Andrés Felipe; Ospina Arango, Juan David; Bolaños Martínez, Freddy; Lema Pérez, Laura
    Esta investigación tuvo como objetivo implementar un sistema computacional basado en visión por computador para cuantificar gramos de carbohidratos en platos típicos de Antioquia, con el fin de apoyar el control en personas con diabetes tipo 1. Se construyó un banco de datos compuesto por 1.328 imágenes anotadas manualmente, representando 41 tipos de carbohidratos. Se entrenaron y evaluaron tres modelos de segmentación semántica multiclase, destacando la aplicación de transfer learning de UperNet con backbone ConvNeXt, el cual alcanzó un mIoU de validación de 0.758 y una precisión del 95.3 %. Para la conversión de área segmentada a gramos, se integró la metodología Look Up Table (LUT), que relaciona el porcentaje de cobertura del alimento respecto al plato con su masa estimada, usando el ATLAS como referencia. Esta aproximación presentó errores absolutos promedio entre el 35 % y el 45 %, validados mediante pesajes gravimétricos en tres platos reales. El sistema demostró mayor precisión en clases con alta representación visual y evidencia un alto potencial de aplicabilidad en contextos clínicos y educativos. Se recomienda ampliar la base de datos, mejorar la representación por clase y automatizar el proceso de etiquetado para aumentar la escalabilidad del sistema. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Advancing healthcare analytics : a thematic review of machine learning, health informatics, and real-world data applications
    (Universidad Nacional de Colombia, 2025-09-13) Arias Rios, María Isabel; Velásquez Henao, Juan David; Arias Rios, Maria Isabel [https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001828551]
    This study aims to map the conceptual and methodological landscape of healthcare analytics by identifying dominant thematic clusters, synthesizing key trends, and outlining translational challenges and research opportunities in the field. To achieve this, 2,281 Scopus-indexed publications were analyzed using unsupervised text mining and clustering techniques, with a focus on identifying recurring themes, methodological innovations, and gaps in the healthcare analytics literature across clinical, administrative, and public health contexts. The analysis revealed eight dominant themes: intelligent systems for predictive healthcare, patientcentered health analytics, adaptive AI for clinical insights, demographic health analytics, digital mental health surveillance, ethical analytics for health surveillance, personalized care through data analytics, and AI-driven insights for outbreak response. Together, these clusters illustrate an ongoing transition toward real-time, multimodal, and ethically grounded analytics ecosystems. However, the field continues to face persistent challenges, such as data interoperability, algorithmic opacity, standardization of evaluation practices, and demographic bias. The review also underscores emerging priorities that are likely to shape the next phase of development, including explainable AI, federated learning, and context-aware modeling, alongside ethical considerations related to data privacy and digital equity. From a practical perspective, key recommendations include the co-design of solutions with healthcare professionals, greater investment in infrastructure, and the deployment of real-time clinical decision support systems. Overall, healthcare analytics is positioned as a foundational pillar of learning health systems, carrying significant implications for translational research and the advancement of precision health. (Tomado de la fuente)
  • Item type: Ítem ,
    Método para identificar y caracterizar variantes del SARS-CoV-2 mediante algoritmos de aprendizaje de máquinas y simulaciones moleculares
    (Universidad Nacional de Colombia, 2024-04-15) López Carvajal, María Stella; Branch Bedoya, John William; Hernández Ortíz, Juan Pablo; https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001956104; López Carvajal, Maria Stella [0000-0003-3053-1278]; Branch Bedoya, John William [0000-0002-0378-028X]; Hernández Ortíz, Juan Pablo [0000-0003-0404-9947]; Gidia: Grupo de Investigación YyDesarrollo en Inteligencia Artificial
    La vigilancia genómica del SARS-CoV-2 ha permitido la identificación de variantes de interés y de preocupación a nivel mundial, relevantes para el manejo de salud pública, el mejoramiento de pruebas de diagnóstico y el diseño de las vacunas. Aproximadamente 16 millones de secuencias del virus han sido reportadas a la fecha, un número de instancias varios ordenes de magnitud superior a las decenas de miles de secuencias que han podido ser analizadas con árboles filogenéticos usando estrategias de paralelización computacional. El aprendizaje automático constituye una alternativa para el procesamiento de grandes conjuntos de datos y la identificación de patrones en el genoma viral, características que pueden ser aprovechadas para la identificación de variantes y el reconocimiento de linajes emergentes. En el presente trabajo se construyó una herramienta para la identificación de variantes del SARS-CoV-2 a partir de la obtención y procesamiento automático de secuencias del virus, transformaciones numéricas de los datos y aprendizaje no supervisado. Además, se incorporaron herramientas bioinformáticas para el modelado y la caracterización de proteínas codificadas por los genomas representativos de los linajes identificados. (Tomado de la fuente)
  • Item type: Ítem ,
    Predicción de sobrecostos en proyectos de construcción de edificación (uso no residencial) empleando una técnica de Machine Learning. Caso de estudio: Capital Project Schedules and Budgets
    (Universidad Nacional de Colombia, 2025) Ospina Castañeda, Andrés Felipe; Espinosa Bedoya, Albeiro; Rojas López, Miguel David; Ospina Castañeda, Andres Felipe [0002208300]; Rojas Lopez, Miguel David [0000252352]; Espinosa Bedoya, Albeiro [EGp0-AIAAAAJ&hl]; Espinosa Bedoya, Albeiro [0000-0001-7292-987X]; Rojas López, Miguel David [0000-0002-3531-4910]; Centro de Investigación y Consultoría Organizacional-Cinco-
    El presente estudio propone un modelo predictivo basado en técnicas de Machine Learning para anticipar sobrecostos en proyectos de construcción de edificación de uso no residencial, tomando como caso de estudio la base de datos “Capital Project Schedules and Budgets” de la School Construction Authority (SCA) de Nueva York. La investigación surge ante la necesidad de superar las limitaciones de los enfoques tradicionales en la gestión de riesgos en costos. A partir del enfoque CRISP-DM, se llevó a cabo un proceso estructurado que incluyó la comprensión del negocio, análisis exploratorio de datos, selección de variables relevantes, transformación de datos y entrenamiento de modelos predictivos. Se evaluaron cuatro algoritmos: Linear Regression, Random Forest Regressor, Multi Layer Perceptron Regressor, y Gradient Boosting Regressor, siendo este último el de mejor desempeño, alcanzando un coeficiente de determinación (R²) de 0.9824, con un error cuadrático medio (MSE) de 309.699.558 y un error absoluto medio (MAE) de 3.887. El análisis identificó que las variables más influyentes en los sobrecostos fueron de tipo financiero, destacándose el presupuesto total del proyecto, el gasto real estimado a la fecha y el presupuesto final estimado. En contraste, variables categóricas como el tipo de proyecto o la fase constructiva mostraron baja significancia estadística. Asimismo, la validación del modelo mediante K-Fold Cross Validation confirmó su capacidad de generalización, sin indicios de sobreajuste. (Tomado de la fuente)
  • Item type: Ítem ,
    Generación de contenido educativo integrando modelos de difusión y estilos de aprendizaje
    (Universidad Nacional de Colombia, 2025-08-28) Arenas Tamayo, Luis Miguel; Bolaños Martínez, Freddy; Arango Zuluaga, Eliana Isabel; LhTcFwQAAAAJ; Arenas Tamayo, Luis Miguel [0009-0003-7214-6025]; Bolaños Martínez, Freddy [0000-0002-3123-5481]; Arango Zuluaga, Eliana Isabel [0000-0002-0947-3694]; Luis-Arenas-Tamayo-2
    Esta tesis surge a partir del reciente auge y las crecientes capacidades de la inteligencia artificial generativa, en particular de los modelos de difusión generadores de imágenes, como herramienta para complementar contenidos pedagógicos considerando los estilos de aprendizaje como insumo. Para ello, se desarrolló una herramienta web utilizando el framework Django, servicios nube de AWS y ComfyUI, estructurada en dos etapas, una etapa de identificación, que adapta un cuestionario de estilos de aprendizaje mediante imágenes generadas, y una etapa de inferencia, en la cual se generan imágenes a demanda por parte de los participantes para la evaluación de cuatro modelos de difusión. En ambas etapas se aplicaron preguntas de percepción utilizando la escala Likert, validadas mediante el Coeficiente de Cronbach de 0.836 y 0.721 respectivamente. Los resultados evidenciaron que, en la etapa de identificación, el 60% de las respuestas fueron clasificadas como altas, el 23.78% como bajas y el 16.22% como medias. En la etapa de inferencia, se observó una leve disminución en la proporción de respuestas altas 47.83%, mientras que las respuestas medias y bajas aumentaron a 30.98% y 21.20%, respectivamente. Adicionalmente, se incorporó el análisis de los estilos de aprendizaje preferentes de los participantes, revelando patrones significativos en la percepción según cada estilo. En general, los participantes con estilos VIS (visual), REF (reflexivo), SEN (sensitivo) y ACT (activo) tendieron a otorgar calificaciones altas en ambas etapas. Los modelos de difusión fueron evaluados también mediante el CLIP Score, evidenciando preferencias diferenciadas según el estilo de aprendizaje. El modelo DALLE 3 fue el más preferido en términos generales, mientras que los participantes con estilo visual mostraron una inclinación positiva hacia Stable Diffusion XL y Stable Diffusion 3.5. Estos hallazgos indican que la percepción de utilidad o calidad de las imágenes generadas varía de acuerdo con el estilo de aprendizaje predominante, lo cual tiene implicaciones relevantes para la personalización de herramientas educativas basadas en inteligencia artificial generativa. (Tomado de la fuente)
  • Item type: Ítem ,
    Análisis computacional del receptor de manosa CD206 y componentes de la pared celular de Mycobacterium leprae, PGL-1 y manosa
    (Universidad Nacional de Colombia, 2024) Montoya Pareja, Juan Pablo; Hernández Ortiz, Juan Pablo; Botero Mejía, Maria Luisa; Hernández Ortiz, Juan Pablo [0000-0003-0404-9947]
    Esta tesis presenta un análisis computacional exhaustivo del receptor de manosa CD206 y su interacción con componentes clave de la pared celular de Mycobacterium leprae, específicamente el glicolípido fenólico-1 (PGL-1) y la manosa. Empleando una combinación de técnicas de modelado molecular, incluyendo dinámica molecular, docking molecular y simulaciones de complejos receptor-ligando, el estudio proporciona una comprensión detallada de la estructura, dinámica y mecanismos de reconocimiento molecular del receptor CD206. La investigación se estructuró en tres fases principales: dinámica molecular del receptor CD206 en sus estados conformacionales abierto y cerrado, así como del cuarto dominio de reconocimiento de carbohidratos (CRD4) aislado; docking molecular entre el receptor y los ligandos PGL-1 y manosa; y dinámica molecular de los complejos receptor-ligando resultantes. Los hallazgos clave incluyen la identificación de un posible mecanismo de “captura y liberación” basado en la alternancia entre estados conformacionales, la confirmación de la especificidad del receptor hacia la manosa, la elucidación del papel del dominio CRD4 en la unión de ligandos, y la caracterización de las diferencias en la dinámica de interacción entre el receptor y los ligandos. El estudio reveló una preferencia consistente del receptor por la manosa sobre PGL-1, con energías de unión más favorables en el estado cerrado del receptor. Además, se observaron cambios conformacionales inducidos por la unión de ligandos, que podrían ser cruciales para la función biológica del receptor. Estos resultados tienen implicaciones significativas para el entendimiento de los mecanismos de reconocimiento de patógenos en el sistema inmune innato y abren nuevas vías para el diseño de estrategias terapéuticas dirigidas a modular la actividad del receptor CD206 en el contexto de enfermedades infecciosas, particularmente la lepra. La integración de múltiples técnicas computacionales en este trabajo ha permitido una caracterización detallada de un sistema biológico complejo, demostrando el poder de los enfoques in silico en la investigación biomédica moderna. Los hallazgos de esta tesis no solo contribuyen al conocimiento fundamental de las interacciones receptor-ligando en el sistema inmune, sino que también proporcionan una base sólida para futuras investigaciones experimentales y computacionales en este campo, con potenciales aplicaciones en el desarrollo de nuevas terapias y en la comprensión más profunda de las interacciones patógeno-huésped. (Tomado de la fuente)
  • Item type: Ítem ,
    Análisis de los factores asociados a la deserción estudiantil en la Facultad de Minas de la Universidad Nacional de Colombia
    (Universidad Nacional de Colombia, 2025-08-20) Cross Arroyave, Yurladys; Villa Garzón, Fernán Alonso; Cross Arroyave, Yurladys [0000000318663091]; Villa Garzón Fernán A. [0000000238636106]; Gidia: Grupo de Investigación YyDesarrollo en Inteligencia Artificial
    El presente trabajo analiza los factores asociados a la deserción estudiantil en la Facultad de Minas de la Universidad Nacional de Colombia, sede Medellín, mediante la aplicación de técnicas de Learning Analytics (LA). El objetivo principal es identificar las causas predominantes y fundamentar estrategias para su mitigación a través de decisiones basadas en datos. Para ello, se adoptó el marco metodológico CRISP-DM, recopilando y procesando información del Sistema de Información Académica, abarcando un período de 28 semestres (2010-2023). Los datos fueron integrados, limpiados y anonimizados, lo que permitió la construcción de un tablero de control interactivo para visualizar indicadores clave de deserción. El análisis se centró en tres dimensiones: variables académicas: rendimiento y promedio ponderado acumulado (PPA); variables socioeconómicas: estrato y tipo de colegio de procedencia; y, variables contextuales: características de los programas académicos y sedes. Los resultados evidencian que el 75% de las deserciones ocurren durante los primeros cuatro semestres, con picos críticos en el primero (15.4%) y el cuarto (32.4%). Entre los factores determinantes destacan las dificultades académicas, la adaptación al entorno universitario y la falta de orientación vocacional. Estos hallazgos subrayan la necesidad de implementar intervenciones tempranas que aborden los riesgos desde las etapas iniciales de la formación. La aplicación de LA resulta fundamental para identificar patrones de comportamiento estudiantil y facilitar la toma de decisiones oportunas. Asimismo, el estudio revela la importancia de fortalecer el acompañamiento académico y socioemocional, así como de diseñar estrategias personalizadas que respondan a las particularidades institucionales y a los perfiles estudiantiles. La integración de datos históricos cuantitativos mediante herramientas interactivas, como tableros de control, proporciona un marco analítico robusto. Este enfoque no solo permite una comprensión integral del fenómeno, sino también el diseño de acciones sostenibles para reducir la deserción. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Modelo para predicción de la demanda potencial basado en Machine Learning aplicado en una empresa del sector textil y moda colombiano – caso de estudio aplicado al mercado de California
    (Universidad Nacional de Colombia, 2025) Serrano Casas, Edinson Manuel; Espinosa Bedoya, Albeiro
    El desafío para predecir la demanda de las compañías del sector textil moda constituye un aspecto fundamental para incrementar el volumen de ventas con un adecuado manejo del inventario. En este contexto, las compañías pueden acceder a ventajas competitivas que soporten el constante cambio del mercado global. Esta investigación aborda dicho desafío desarrollando un método de predicción de la demanda empleando técnicas de aprendizaje de máquinas. A través de un conjunto de datos representativo, que incluye información detallada sobre las ventas e inventario de una compañía del sector textil moda en el canal de comercio electrónico, se ajustan técnicas de aprendizaje de máquina, utilizando un enfoque de redes neuronales recurrentes, específicamente LSTM, y XGBoost. Los resultados obtenidos demuestran que el método propuesto alcanza una precisión general del 80,3%, demostrando su habilidad para predecir la demanda. La investigación aporta al campo del comercio electrónico de las empresas del sector textil moda con presencia en el mercado de Estados Unidos de América un enfoque predictivo que se centra en la precisión y la generalización. Este enfoque de generalización implica que el modelo no está restringido a un conjunto de datos específico o a condiciones de mercado particulares, sino que puede ajustarse y mantener su precisión ante los cambios dinámicos que presenta el comercio electrónico. (Tomado de la fuente)
  • Item type: Ítem ,
    Aplicación de modelo híbrido en sistemas de recomendación en ecommerce utilizando inteligencia artificial
    (Universidad Nacional de Colombia, 2025-07-18) Bolivar, Juan Esteban; Guzmán Luna, Jaime Alberto
    El comercio electrónico ha experimentado un crecimiento exponencial en los últimos años, impulsado en gran medida por la transformación digital acelerada tras la pandemia de COVID-19. Factores como los confinamientos y el aumento de la confianza en las plataformas digitales han incentivado a las empresas a optimizar sus estrategias tecnológicas para mantenerse competitivas. En este contexto, la implementación de sistemas de recomendación se ha convertido en una herramienta clave para mejorar la experiencia de compra, permitiendo a las plataformas ofrecer productos y servicios personalizados según las preferencias de los usuarios. Para lograr recomendaciones precisas y relevantes, es fundamental el uso de técnicas avanzadas de análisis de datos y algoritmos de inteligencia artificial. Los modelos híbridos de recomendación, que combinan enfoques basados en contenido, filtrado colaborativo y aprendizaje profundo, han demostrado ser altamente efectivos al mejorar la precisión de las sugerencias y la satisfacción del usuario. La integración de estos modelos permite aprovechar grandes volúmenes de datos y patrones de comportamiento, optimizando la personalización y aumentando la fidelización del cliente. Este estudio explora la aplicación de un modelo híbrido en sistemas de recomendación en e-commerce, analizando su impacto en la precisión de las sugerencias y la experiencia del usuario. Además, se investiga el uso de técnicas de inteligencia artificial, como redes neuronales y modelos de aprendizaje automático, para mejorar la eficiencia y efectividad de las recomendaciones. (Tomado de la fuente)
  • Item type: Ítem ,
    Optimización del pronóstico de ventas en Dislicores : evaluación y selección de modelos de series temporales, aprendizaje automático y técnicas avanzadas
    (Universidad Nacional de Colombia, 2025-07-20) Espitia Humanez, Wilson Fernando; Torres Madroñero, María Constanza
    Dislicores es una empresa colombiana líder en la distribución y comercialización de bebidas alcohólicas y no alcohólicas, siendo su portafolio principal los vinos (tintos, blancos, rosados y espumosos), licores (whisky, ginebra, rones y tequilas), cervezas y bebidas sin alcohol. Además, complementa su oferta con alimentos como pasabocas, dulces y alimentos madurados, fortaleciendo y complementando su propuesta de consumo masivo. El objetivo de este estudio es mejorar la precisión de los pronósticos de demanda, mediante la evaluación y comparación de modelos avanzados de predicción. Para ello, se implementan seis modelos: Promedio Móvil Simple, Regresión Lineal, Holt-Winters, MSTL con Regresión Polinómica, XGBoost y LightGBM, utilizando datos históricos del periodo 2020-2024. Siguiente la metodología CRISP-DM, se realizaron procesos de limpieza de datos, análisis exploratorio y evaluación de desempeño empleando métricas como MAE%, SESGO%, SCORE% y RMSE% sobre las 232 referencias clave (Pareto). El modelo seleccionado se integrará en un pipeline automatizado y escalable dentro del servicio en nube de Amazon Web Services (AWS). Finalmente, los resultados se implementaron en Qlik Sense, facilitando el análisis y toma de decisiones estratégicas basadas en datos confiables y de fácil acceso. Esta solución pretende contribuir a una gestión y seguimiento más eficiente de la demanda, optimizando la planificación operativa y fortalecer la competitividad de Dislicores en el mercado nacional. (Tomado de la fuente)
  • Item type: Ítem ,
    Visualización de datos categóricos empleando métodos de reducción de dimensionalidad enfocados en datos socioeconómicos
    (Universidad Nacional de Colombia, 2025) Oliveros Duran, Daniel Alejandro; Branch Bedoya, John Willian; Iral Palomino, René
    En el contexto actual, la disponibilidad creciente de herramientas para el análisis y la visualización estadística ha facilitado significativamente la exploración de datos y sus relaciones. No obstante, el incremento exponencial en la complejidad y el volumen de los datos plantea desafíos considerables, especialmente en el tratamiento de variables categóricas. Estas variables exhiben desafíos particulares en términos de representación gráfica, integración en modelos analíticos y en la interpretación de los resultados. Entre los principales desafíos que se destacan se encuentran la alta cardinalidad, que genera combinaciones complejas y dificulta el análisis individual de cada categoría, así como el incremento de la dimensionalidad derivado de técnicas de codificación como el one-hot encoding. El propósito de este estudio es desarrollar un procedimiento de visualización para datos categóricos con alta cardinalidad y dimensionalidad. Para lograr este objetivo, se propone un enfoque que abarca el procesamiento y la selección de variables categóricas, con el propósito de facilitar la aplicación de técnicas de reducción de dimensionalidad. Posteriormente, se determinará un método de visualización adecuado para representar el conjunto de datos reducido, de manera que sea posible analizar las relaciones entre las variables categóricas en un espacio de menor dimensión. (Tomado de la fuente)
  • Item type: Ítem ,
    Analítica predictiva y desarrollo de un modelo cuantitativo para estudio y segmentación del mercado farmacéutico para patologías de alto costo
    (Universidad Nacional de Colombia, 2025-06-23) Trillos Paredes, Jose Antonio; Olaya Morales, Yris; Trillos Paredes, Jose Antonio [0009-0007-6723-9867]
    Actualmente, Colombia enfrenta importantes retos en su sistema de salud, especialmente en la gestión eficiente de los recursos, la cobertura y la administración de los prestadores de servicios. Dentro de este contexto, el sector farmacéutico, encargado de la comercialización de medicamentos, enfrenta desafíos específicos debido a la limitada cobertura del sistema y la falta de sistemas de información robustos. Para garantizar un acceso adecuado a las terapias según las necesidades de la población, surge la necesidad de analizar la información del mercado de medicamentos de alto costo y del sistema de salud colombiano, con el objetivo de respaldar la toma de decisiones de manera analítica y fundamentada. Este trabajo propone la aplicación de modelos de aprendizaje automático y técnicas de minería de datos para abordar dichas necesidades, centrándose en la construcción de un modelo de clusterización inspirado en la metodología RFM (Recency, Frequency, Monetary) (Hughes, 1996), adaptada al contexto del sector farmacéutico. Para ello, se ajustaron los parámetros clásicos del modelo RFM, reemplazando la dimensión de recencia por los días de inventario de cada cliente y frecuencia por variaciones en las compras, mientras que la dimensión valor monetario se mantuvo para representar el valor económico asociado. Esta adaptación permitió capturar mejor la dinámica de compra de los clientes en función de su estabilidad de inventario y su impacto financiero. Los resultados de la clasificación son el resultado de un proceso estructurado que inició con la recopilación y consolidación de una base de datos de 110,322 registros correspondientes a transacciones comerciales realizadas durante un año. Posteriormente, se realizó un proceso de pretratamiento de los datos, que incluyó la limpieza, normalización y transformación de las variables para garantizar su calidad y coherencia. A continuación, se emplearon técnicas de clusterización no supervisada para segmentar a los clientes en grupos homogéneos, utilizando los algoritmos K-Means, Gaussian Mixture Model (GMM) y Aglomerativo (Hierarchical Clustering). La validación de los modelos se realizó mediante la comparación de la métrica WCSS (Within-Cluster Sum of Squares) adaptada a las características de cada algoritmo, permitiendo seleccionar el modelo con la mejor cohesión interna. Como resultado, el algoritmo K-Means mostró el mejor desempeño, evidenciado por un menor valor de WCSS de 5.93, lo que garantiza una mayor compactación de los clusters y, por ende, una segmentación más precisa. Finalmente, el modelo entrenado permitió clasificar a los clientes en función de su comportamiento histórico de compra y predecir su posible evolución futura, facilitando la identificación de segmentos con diferentes perfiles de riesgo financiero. Esta clasificación ofrece una herramienta práctica para la toma de decisiones comerciales basadas en datos, permitiendo implementar estrategias diferenciadas para cada grupo y optimizar la gestión del mercado de medicamentos de alto costo en Colombia. La metodología desarrollada es escalable y puede adaptarse a otras patologías, consolidando así una solución replicable para distintos contextos dentro del sector farmacéutico. (Tomado de la fuente)
  • Item type: Ítem ,
    Modelo de gestión de recursos para la optimización de proyectos integrando técnicas de Inteligencia Artificial
    (Universidad Nacional de Colombia, 2025) Herrera Arredondo, Carolina; Jiménez Builes, Jovani Alberto
    La gestión de recursos es una parte fundamental de la gestión de proyectos, pues gracias a ella los gestores, mediante planificaciones determinan previamente qué recursos requieren para la ejecución de un proyecto, partiendo desde una identificación rigurosa de necesidades y siendo éstas cuantificadas por medio de la estimación del presupuesto requerido para su ejecución. En este caso, al ser el presupuesto un recurso limitado, es necesario realizar formulaciones precisas que permitan la optimización del capital y minimicen el riesgo de incurrir en sobrecostos o el incumplimiento de los objetivos. Este trabajo aplica técnicas de analítica de datos e inteligencia artificial para predecir el presupuesto total de proyectos de investigación a partir de características propias de estos. Una vez ejecutados los seis modelos seleccionados, Random Forest mostró el mejor desempeño para predecir el costo total de un proyecto. El modelo seleccionado se reconoce como una herramienta estratégica de apoyo que puede ser integrada para la toma de decisiones en la optimización de recursos en proyectos. (Tomado de la fuente)