Maestría en Ingeniería - Sistemas y Computación
URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/81877
Examinar
Envíos recientes
Ítem Detección y conteo de evasores en el sistema de transporte Transmilenio(Universidad Nacional de Colombia, 2024) Rodríguez Peraza, César Ivan; Pedraza Bonilla, César Augusto; Perdomo Charry, Oscar Julian; Zona Ortiz, Angela Tatiana; Plas Programming languages And SystemsBogotá se encuentra entre las veinte ciudades con peor tráfico del mundo de acuerdo con el Ranking del Índice de Tráfico. Además, carece de un sistema de transporte público robusto; el sistema TransMilenio, en particular, presenta deficiencias operativas y económicas que agravan los problemas de movilidad en la ciudad. La más destacada de estas deficiencias es la evasión de pago, un fenómeno que hasta ahora ha sido difícil de cuantificar y, por consiguiente, de mitigar. Por esta razón, el objetivo de este trabajo es detectar y cuantificar a los evasores en los torniquetes del sistema TransMilenio. Para lograrlo, se exploraron diversas técnicas de procesamiento de imágenes y video, así como aprendizaje automático e inteligencia artificial. Este trabajo enfrenta varios retos, entre los que destacan el marcado desequilibrio en el conjunto de datos (3 de cada 100 personas son evasores), la sutileza en algunos eventos de evasión y los complejos entornos de las estaciones. El modelo con mejores resultados es capaz de identificar el 95% de los evasores, gracias a la aplicación de conceptos de vanguardia en aprendizaje no supervisado y auto-supervisado. (Texto tomado de la fuente).Ítem Desarrollo de una arquitectura de referencia basada en microservicios para Internet de las Cosas(Universidad Nacional de Colombia, 2024-10-22) Obregón Sánchez, David; Cangrejo Aljure, Libia Denisse; Umaña Acosta, Henry Roberto; Herrera Álvarez, David Alberto; ANGeoScInternet de las Cosas (IoT) es un ecosistema en constante crecimiento que conecta el mundo físico y digital a través de internet, y plantea una serie de desafíos únicos en el desarrollo de software, como la heterogeneidad de dispositivos, la naturaleza distribuida, la escalabilidad y la seguridad. En este trabajo se presenta el diseño de una arquitectura de referencia basada en microservicios para entornos IoT, que garantiza los atributos mínimos de calidad de software de dichos sistemas. Mediante una revisión sistemática de la literatura, la identificación de los atributos de calidad de software específicos para IoT, el diseño de una arquitectura de referencia y la implementación de una arquitectura tecnológica a través de una prueba de concepto, se evalúan atributos de calidad específicos usando el enfoque de microservicios en entornos IoT. Se destacan sus principales ventajas frente a enfoques tradicionales, como las arquitecturas monolíticas. Finalmente, se plantean desafíos vigentes en aspectos adicionales a la calidad del software para el enfoque de microservicios. (Texto tomado de la fuente).Ítem Selección del sistema de información CRM más apropiado, en una empresa del sector financiero en Colombia, usando metodologías de análisis multicriterio. Caso de estudio(Universidad Nacional de Colombia, 2024) Barragán Huertas, Julieth Paola; Cortés Aldana, Félix AntonioPropósito: El objetivo del presente estudio consiste en proponer un marco metodológico para la selección óptima de sistemas de Gestión de Relaciones con Clientes (CRM) que se ajuste a las necesidades y requerimientos específicos de una entidad perteneciente al sector financiero en Colombia. Esta propuesta se fundamenta en la revisión íntegra de la literatura pertinente y en la identificación precisa de los requisitos y particularidades de la empresa en cuestión. El modelo propuesto se fundamenta en un enfoque de análisis multicriterio, el cual permite estructurar de manera sistemática los criterios relevantes para la evaluación de las distintas alternativas de CRM disponibles en el mercado actual. Este enfoque garantiza una evaluación integral que abarca tanto aspectos técnicos como operativos, financieros y estratégicos, asegurando así la selección del sistema CRM más idóneo para las necesidades y objetivos específicos de la empresa. Al integrar los hallazgos obtenidos en la revisión de la literatura con las necesidades y expectativas particulares de la entidad financiera en cuestión, el modelo propuesto proporciona una guía sólida y objetiva para la toma de decisiones en materia de selección de sistemas CRM, contribuyendo así a potenciar la eficiencia y la efectividad de las actividades de gestión de relaciones con clientes en el contexto del sector financiero colombiano. Metodología: La metodología empleada en el presente estudio académico se centra en la estructuración y aplicación del análisis multicriterio de toma de decisiones (MCDA) con el objetivo de abordar el dilema de la toma de decisiones. Este enfoque metodológico comprende varias etapas fundamentales, entre las que se incluyen la definición y delimitación del problema, la identificación de las opciones a evaluar, la comprensión de los criterios relevantes para la toma de decisiones y la elaboración de un modelo que refleje las particularidades y las interrelaciones entre estos elementos. La metodología se sustenta en el análisis jerárquico (AHP), el cual se utiliza como herramienta principal para evaluar las opciones disponibles y determinar la mejor alternativa en función de los criterios establecidos previamente. El AHP permite descomponer el problema en una estructura jerárquica, lo que facilita la comparación y la ponderación de los distintos criterios y subcriterios involucrados en la toma de decisiones. Además, este enfoque metodológico proporciona un marco sistemático y transparente para la toma de decisiones, lo que contribuye a minimizar sesgos y maximizar la objetividad en el proceso de evaluación y selección de alternativas. Hallazgos: Utilizando el análisis jerárquico para la toma de decisiones, se han identificado los criterios esenciales para la selección de un sistema CRM (Customer Relationship Management) para una empresa perteneciente al sector financiero en Colombia. Esta identificación se realiza en un entorno caracterizado por cambios normativos y de mercado que demandan una redefinición del enfoque en la gestión de las relaciones con los clientes. El resultado de este análisis es la obtención de un modelo jerárquico que facilita la evaluación de alternativas de CRM, permitiendo la elección del sistema más adecuado para la empresa en cuestión, considerando tanto sus particularidades como las condiciones específicas del mercado. Aplicaciones prácticas: La implementación de la metodología de análisis multicriterio de toma de decisión (MCDA), ha habilitado a la compañía utilizada en este estudio, a elegir de manera eficiente y argumentada, la obtención de un sistema de información CRM, crucial en el contexto del desarrollo de la estrategia de comunicación y gestión organizacional de cara a los clientes. Adicionalmente, esta metodología puede utilizarse como un marco de referencia inicial para la realización o implementación de estudios adicionales, los cuales podrían considerar la utilización de un modelo similar, adaptado a las necesidades de otras empresas colombianas que enfrenten problemáticas análogas. Originalidad y Valor: La principal contribución de este trabajo reside en la identificación de criterios fundamentales para la toma de decisiones en la adquisición de un sistema de información CRM (Customer Relationship Management) en el contexto actual de la empresa de estudio. Se han considerado las particularidades específicas de la compañía, el entorno nacional, la normativa vigente respecto al contacto con los clientes, así como las reformas propuestas por el gobierno actual que podrían incidir en el negocio, los clientes y, en consecuencia, en la estrategia de comunicación a emplear con los consumidores. Los hallazgos obtenidos por la investigadora proporcionan una base sólida para exploraciones posteriores que busquen la aplicación de modelos jerarquizados en la evaluación de opciones de inversiones en IT y la toma de decisiones en empresas similares (Texto tomado de la fuente).Ítem Aplicación de la tecnología Blockchain en un prototipo para la gestión de las denuncias de la Comisaría de Familia de Fusagasugá(Universidad Nacional de Colombia, 2024-09-28) Castañeda Ramírez, Laurent Fernando; Camargo Mendoza, Jorge Eliecer; Unsecurelab Cybersecurity Research GroupEl Blockchain es una tecnología famosa gracias a las criptomonedas, por sus bondades como la validación, sincronización e inmutabilidad de los registros. Esto proporciona confianza entre las partes interesadas. Aunque esta tecnología posee un potencial significativo, su implementación en el sector público ha experimentado un retraso notable. Es normal que muchos municipios gestionen sus procesos con sistemas de información. Sin embargo, la integridad y la confianza en la información pueden ser puestas en duda, lo que puede ocasionar un aumento de los costos, disminuir el bienestar de la comunidad y deteriorar la imagen de la comunidad ante el gobierno local. El escenario de interés es la Comisaría de Familia de Fusagasugá, donde su sistema de información presenta falacias en distintas partes de su actividad. Esto ofrece la oportunidad para la construcción de un prototipo para el registro y seguimiento de las denuncias con tecnología Blockchain. La metodología aplicada es la deductiva, con un enfoque en la investigación cualitativa. Se buscó entender el funcionamiento desde lo general como organización hasta el nivel de sus procesos. Se realizó una panorámica de procesos para identificar aquellos que fueran de interés. Una vez identificados, la metodología BPM, siendo BPMN su producto para determinar la manera de integrar la tecnología Blockchain Se construyó un prototipo usando metodologías de desarrollo de software. Este fue puesto a prueba por algunos miembros de la comisaría con el fin de validar el prototipo. Los resultados obtenidos a través de una encuesta demostraron que se cumplió con el objetivo planteado, donde la información cuenta con validación e integridad. (Texto tomado de la fuente).Ítem A deep learning approach for 3D reconstruction of indoor scenes(Universidad Nacional de Colombia, 2024) Gómez, Diego; Prieto Ortiz, Flavio AugustoLa presente tesis de maestría expone el fundamento, experimentación, resultados y análisis del entrenamiento y evaluación de métodos para la reconstrucción 3D implícita, específicamente Neural Radiance Fields (NeRF), mediante diferentes acercamientos para el conjunto de datos, que refieren a las imágenes originales y a técnicas de aumentación, con el propósito de establecer el impacto de la aumentación de imágenes en el rendimiento de métodos NeRF y seleccionar los acercamientos más viables. Los conjuntos de datos originales fueron manualmente recolectados para seis escenas categorizadas en dos variantes, tres para objetos específicos y tres para vistas amplias, donde un proceso de aumentación con transformaciones de color y geométricas, resultó en 18 conjuntos finales generados con el software COLMAP, el cual calculó las poses de las cámaras y puntos clave de las escenas. Si bien se probó un acercamiento para aumentar imágenes con una red generativa antagónica dual, mediante WGAN-GP para generar nuevas muestras y una SRGAN para incrementar la resolución, el resultado no fue satisfactorio dado las inconsistencias en las vistas de las cámaras y las distorsiones en las escenas. A partir de una revisión de la literatura y teniendo en cuenta las limitaciones de hardware, se seleccionaron cuatro métodos NeRF (i.e. 3D Gaussian Splatting, Instant-NGP, Nerfacto, zip-NeRF) para el entrenamiento y evaluación de los 18 conjuntos de datos, resultando en 72 modelos y un tiempo total de más de 101 horas para ambos procesos. Según las métricas de evaluación y resultados visuales, la aumentación de color mostró un incrementar en los resultados con respecto a las imágenes originales, mientras que las transformaciones geométricas generaron el efecto contrario. Así mismo, mediante un extenso análisis y discusión, se llegó a la selección del acercamiento de aumentación con color y de 3D Gaussian Splatting como el método NeRF. El documento está dividido en seis capítulos, que contienen la introducción, explicación teórica de la reconstrucción 3D y la aumentación de imágenes, procesos de experimentación, resultados, análisis, conclusiones y posibles trabajos futuros (Texto tomado de la fuente).Ítem Efecto de un entorno de aprendizaje de programación de computadores basado en el desarrollo de videojuegos sobre la motivación por aprender de los estudiantes(Universidad Nacional de Colombia, 2024) Peña Vargas, Manuel Alejandro; Restrepo-Calle, Felipe; Ramírez Echeverry, Jhon Jairo; Plas Programming languages And SystemsDebido a la creciente aplicación de la programación de computadores en áreas laborales y del conocimiento, cada vez se incluyen más cursos relacionados con este campo en las carreras universitarias. La complejidad de los contenidos de materias asociadas exige nuevas estrategias y metodologías de enseñanza que resulten cómodas para los estudiantes y los motiven. En este sentido, el uso y la aplicación de videojuegos se ha convertido en una alternativa prometedora. GDBL (Game Development Based Learning) es una estrategia que utiliza la construcción o modificación de videojuegos como técnica de enseñanza. La principal herramienta que utiliza el GDBL se denomina GDF (Game Development Frameworks), y consiste en una serie de entornos, librerías o componentes de desarrollo que permiten desarrollar dichos videojuegos. Esta estrategia se basa en la teoría de aprendizaje constructivista, que se fundamenta en la construcción y refinamiento de modelos mentales basados en la experiencia y sentido de autonomía derivado de la propia motivación por aprender. En este trabajo, se abordará específicamente el modelo SRL (Self-Regulated Learning). Los resultados y la caracterización reportados en esta investigación proporcionan evidencia empírica relacionada con el uso de GDBL en cursos de programación de computadores y su efecto en la motivación de los estudiantes por aprender. Los resultados, tanto positivos como negativos, contribuirán a comprender y consolidar el uso de estrategias GDBL en el ámbito educativo (Texto tomado de la fuente).Ítem Método basado en visión artificial para la identificación del eje aplicado al proceso de inspección de frenos de vehículos livianos en centros de diagnóstico automotor(Universidad Nacional de Colombia, 2024) Mongua López, Luis Alejandro; Pedraza Bonilla, Cesar AugustoEste trabajo de grado explora la aplicación de técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente el proceso de inspección vehicular en los centros de diagnóstico automotor (CDA) en Colombia, específicamente durante la prueba de frenos. El objetivo principal es desarrollar un método que permita identificar el eje y el vehículo al que pertenece durante la inspección, con el fin de prevenir la suplantación de ejes o vehículos. La metodología empleada consta de tres fases: preparación, implementación y documentación. En la fase de preparación se recolectaron videos de inspecciones y se construyeron conjuntos de datos etiquetados manualmente para el entrenamiento y evaluación de los modelos. Durante la fase de implementación, se entrenaron y compararon tres modelos de detección de objetos (DETR-ResNet50, DETR-ResNet101 y YOLOv9) para la detección de ejes, seleccionando el modelo YOLOv9 por su mejor rendimiento. Además, se utilizó un algoritmo de reconocimiento de placas para identificar los vehículos y una red siamesa para los casos en que la placa no era visible. En la fase de documentación, se detalló el desarrollo del proyecto, el experimento realizado y los resultados obtenidos. El experimento consistió en evaluar el método propuesto utilizando imágenes de una semana de operación de un CDA. Los resultados demostraron la efectividad del modelo YOLOv9 para la detección de ejes y del algoritmo de identificación de vehículos, con un alto porcentaje de aciertos y pocos falsos positivos. En conclusión, este trabajo demuestra la viabilidad de aplicar técnicas de visión artificial basadas en aprendizaje profundo para supervisar automáticamente los procesos de inspección vehicular en los CDA, contribuyendo así a mejorar la calidad del servicio y la seguridad vial. Se sugieren trabajos futuros enfocados en expandir los conjuntos de datos, explorar nuevas arquitecturas de redes neuronales y realizar pruebas de campo a mayor escala (Texto tomado de la fuente).Ítem Modelo multimodal para pronóstico de producción de pozos petroleros(Universidad Nacional de Colombia, 2024) Bello Angulo, David Esneyder; León Guzmán, Elizabeth; Bello Angulo, David Esneyder [https://orcid.org/0009-0007-4142-1441]; Midas: Grupo de Investigación en Minería de DatosEl presente trabajo de investigación presenta un aporte en dos áreas de estudio de series de tiempo en el contexto de la producción de pozos petroleros, siendo estas la clasificación para identificar fallas en los pozos, y los pronósticos de producción. El conjunto de datos utilizado corresponde a la producción de pozos petroleros, incluyendo información multimodal como datos numéricos, imágenes y texto para cada punto temporal. En la clasificación de series de tiempo, se aborda la predicción de fallas en el siguiente paso temporal, logrando una exactitud del 61.3% con un modelo multimodal conectado a una capa LSTM. En pronósticos de series de tiempo, los modelos multimodales con capas LSTM destacan, superando a modelos no multimodales y a implementaciones ARIMA en predicciones trimestrales y bi-anuales, presentando un error porcentual absoluto medio de 8% llegando a 2% en casos específicos. Este trabajo contribuye significativamente a los campos de clasificación y predicción de series de tiempo multimodales, proponiendo una arquitectura de encoder multimodal distribuido en el tiempo que puede ser implementada para series de tiempo multimodales de cualquier área de la industria. (Texto tomado de la fuente).Ítem A Deep Learning model for automatic grading of prostate cancer histopathology images(Universidad Nacional de Colombia, 2024) Medina Carrillo, Sebastian Rodrigo; González Osorio, Fabio Augusto; Cruz Roa, Ángel Alfonso; Romero, Eduardo; Tabares Soto, Reinel; MindlabGleason grading is recognized as the standard method for diagnosing prostate cancer. However, it is subject to significant inter-observer variability due to its reliance on subjective visual assessment. Current deep learning approaches for grading often require exhaustive pixel-level annotations and are generally limited to patch-level predictions, which do not incorporate slide-level information. Recently, weakly-supervised techniques have shown promise in generating whole-slide label predictions using pathology report labels, which are more readily available. However, these methods frequently lack visual and quantitative interpretability, reinforcing the black box nature of deep learning models, hindering their clinical adoption. This thesis introduces WiSDoM, a novel weakly-supervised and interpretable approach leveraging attention mechanisms and Kernel Density Matrices for the grading of prostate cancer on whole slides. This method is adaptable to varying levels of supervision. WiSDoM facilitates multi-scale interpretability through several features: detailed heatmaps that provide granular visual insights by highlighting critical morphological features without requiring tissue annotations; example-based phenotypical prototypes that illustrate the internal representation learned by the model, aiding in clinical verification; and visual-quantitative measures of model uncertainty, which enhance the transparency of the model's decision-making process, a crucial factor for clinical use. WiSDoM has been validated on core-needle biopsies from two different institutions, demonstrating robust agreement with the reference standard (quadratically weighted Kappa of 0.93). WiSDoM achieves state-of-the-art inter-observer agreement performance on the PANDA Challenge publicly available dataset while being clinically interpretable.Ítem Representación gráfica para diseño arquitectónico de software con lenguaje de descripción de arquitectura Sarch(Universidad Nacional de Colombia, 2024-06-12) De La Rosa Córdoba, Dayron Giovanni; Vergara Vargas, Jeisson Andrés; De La Rosa Córdoba, Dayron Giovanni; De La Rosa Córdoba, Dayron Giovanni; De La Rosa Córdoba, Dayron Giovanni; Umaña Acosta, Henry Roberto; De La Rosa Córdoba, Dayron Giovanni; Colectivo de Investigación en Ingeniería de Software Colswe; De La Rosa Córdoba, Dayron GiovanniEste trabajo final se enfoca en el análisis, diseño y desarrollo de una herramienta basada en el lenguaje de descripción de arquitectura Sarch, con el fin de facilitar el proceso de represen- tación textual y gráfica de la arquitectura de un sistema de software. Se investigaron a fondo las características y propiedades de la representación textual de arquitecturas utilizando Sarch, comprendiendo su sintaxis y semántica para describir componentes, conectores y relaciones en sistemas de software. Como resultado, se creó una herramienta gráfica que permite a arquitec- tos y desarrolladores diseñar arquitecturas de software utilizando Sarch de manera intuitiva y eficiente. La herramienta brinda un entorno interactivo que facilita la creación y edición de la re- presentación textual de la vista de componentes y conectores, la cual genera una representación gráfica con sus elementos arquitectónicos. Se validó la representación gráfica de Sarch median- te un conjunto de propiedades arquitectónicas , demostrando que es coherente con la sintaxis textual y capaz de expresar adecuadamente la estructura y relaciones entre los elementos. En conjunto, el trabajo presenta una herramienta para la definición y análisis de arquitecturas de software, abriendo la puerta a futuros desarrollos en la graficación de otras vistas de Sarch, per- mitiendo el movimiento de elementos arrastrándolos y la integración con bases de datos para el almacenamiento de los diseños. (Texto tomado de la fuente).Ítem Método basado en aprendizaje automático para la calificación de ensayos cortos en inglés de una muestra de estudiantes de bachillerato(Universidad Nacional de Colombia, 2024) Bofill Barrera, Joan Gabriel; Niño Vásquez, Luis Fernando; León Guzmán, Elizabeth; laboratorio de Investigación en Sistemas Inteligentes LisiEste trabajo aborda el desafío de la calificación automática de ensayos argumentativos en inglés escritos por estudiantes de bachillerato que están aprendiendo el inglés como segunda lengua. El objetivo general es implementar un método automético basado en aprendizaje supervisado que permita resolver esta tarea para 6 indicadores en simultáneo: Cohesión, Sintaxis, Vocabulario, Gramática, Fraseología y Convenciones en escala de 1 a 5. Para lograrlo, se realiza un análisis descriptivo de los datos, se aplican procedimientos de preprocesamiento y se extraen características relevantes; se exploran diferentes estrategias, técnicas de representación y modelos desde algunos clásicos hasta aquellos con mejor desempeño en la actualidad, evaluando en cada iteración su rendimiento, contrastándola con las calificaciones humanas. Luego, se presenta el modelo con menor error que está basado principalmente en DeBERTa al cual se le aplican distintas técnicas para mejorar su desempeño y se combina con un modelo SVR que toma como características los embeddings de los textos concatenados en 10 modelos preentrenados sin fine-tuning. Con esta estrategia, el resultado se acerca bastante a las calificaciones humanas, presentando un RMSE de 0.45 sobre todos los indicadores. (Texto tomado de la fuente).Ítem Platform-independent cloud computing infrastructure definition model for scalable microservices architectures(Universidad Nacional de Colombia, 2024-05-25) Vargas Romero, Camilo Ernesto; Vergara Vargas, Jeisson Andrés; Colectivo de Investigación en Ingeniería de Software ColsweSoftware systems play a fundamental role in modern everyday life, and cloud computing has significantly expanded their reach while simultaneously reducing complexities and costs associated with their development and deployment. In this context, software architecture emerges as an essential component to ensure an optimal structure according to needs, defining innovative styles such as microservices architectures, which consist of a group of small, highly specialized services. When considering the implementation of these systems in the cloud, the challenge arises of defining the appropriate cloud computing infrastructure, especially regarding the configuration of scalability properties, a task often characterized by its complexity and duration. To address this complexity, an extension of the Architecture Description Language (ADL) Sarch has been undertaken, allowing the definition of scalability properties. Additionally, model-to-model transformation rules have been established to facilitate the transition from an architecture model to an infrastructure-as-code schema, specifically configured to address the scalability quality attribute. This innovative approach aims to simplify the task of configuring the necessary infrastructure, accelerating and automating the process to enable a faster and more efficient implementation of advanced microservices architectures in the dynamic environment of cloud computing.Ítem Determinar la variabilidad de la demanda de energía eléctrica que permita evaluar el potencial uso de un esquema tarifario diferencial(Universidad Nacional de Colombia, 2023-12) Duarte Aunta, Javier Eduardo; Rosero Garcia, Javier Alveiro; Oscar German, Duarte VelascoEste estudio introduce una metodología para el análisis de la variabilidad en la demanda eléctrica, con el objetivo de estimar la flexibilidad del consumo energético en Colombia. Esta evaluación es clave para la posible implementación de esquemas tarifarios diferenciados, en particular tarifas Time-of-use (ToU). La metodología comienza con un pre-procesamiento de datos, centrado en la organización y limpieza de registros individuales de consumo. Seguidamente, se realiza un procesamiento y clasificación de los datos mediante técnicas de análisis de variabilidad y clustering. Los clusters representativos son seleccionados para identificar intervalos de tiempo con alta variabilidad en el consumo de energía eléctrica. El paso final consiste en analizar el potencial de flexibilidad energética en estos intervalos, tanto para usuarios con alta variabilidad como para el conjunto total de usuarios estudiados. Esta metodología fue aplicada utilizando datos reales de medidores inteligentes del sistema eléctrico colombiano, logrando identificar con éxito las franjas horarias con potencial para establecer tarifas de ToU. Este trabajo, surge como una iniciativa del grupo de investigación Electrical Machines and Drives de la Universidad Nacional – Sede Bogotá, que aspira a fomentar la implementación de estrategias de respuesta de la demanda que promuevan la sostenibilidad y faciliten la transición hacia un panorama energético resiliente a nivel nacional e internacional. Se espera que los hallazgos aquí presentados contribuyan significativamente en la formulación de esquemas tarifarios que incentiven una modificación consciente en los patrones de consumo de energía eléctrica. (Texto tomado de la fuente).Ítem Diseño y evaluación de un modelo computacional basado en aprendizaje profundo para la predicción del tráfico vial en un segmento de vía de la ciudad de Bogotá(Universidad Nacional de Colombia, 2024-05-07) Preciado Rojas, María Camila; Pedraza Bonilla, Cesar AugustoLa congestión del tráfico en Bogotá se agrava cada vez más, y no es simplemente una percepción de los residentes, ya que la ciudad ha mantenido una posición destacada en los rankings de congestión a nivel mundial. Esto otorga la urgencia de abordar y contribuir de alguna manera a este desafío significativo. Este estudio se enfoca en diversos aspectos, desde la obtención y análisis de datos de velocidad promedio y precipitaciones en un segmento vial de Bogotá, hasta el desarrollo de un modelo computacional destinado a predecir la velocidad promedio. Este enfoque tiene como objetivo ofrecer una perspectiva inicial y valiosa hacia la solución de la problemática del tráfico en la ciudad. En el marco de este estudio, se planteó el diseño de un modelo LSTM utilizando datos reales de alta calidad provenientes de un segmento vial en Bogotá. Esta aproximación no solo condujo a resultados sobresalientes en la predicción de la velocidad promedio, sino que también proporcionó diversas ventajas en comparación con otras investigaciones. (Texto tomado de la fuente).Ítem Machine Learning Operations aplicado al proceso de desarrollo y aprovisionamiento de modelos(Universidad Nacional de Colombia, 2024) Mendez Aguirre, Oscar Alexander; Camargo Mendoza, Jorge Eliécer; Flórez Fernández, Héctor Arturo; UnSecureLabEn la actual era de la ingeniería de software, donde el Machine Learning (ML) desempeña un papel crucial en la innovación tecnológica, la aplicación efectiva de prácticas de desarrollo y operación es esencial. El enfoque de DevSecOps (Development Security Operations) se ha popularizado por su capacidad para integrar la seguridad y la calidad en todas las etapas del ciclo de vida del desarrollo seguro de software. Sin embargo, en el contexto específico del Machine Learning, surge la necesidad de un enfoque especializado que considere las particula- ridades de los modelos y algoritmos utilizados. El Machine Learning Operations (MLOps), a pesar de su relativa novedad, busca establecer un marco para caracterizar el ciclo de vida del desarrollo de ML, desacoplarlo del desarrollo de software y garantizar atributos de calidad como escalabilidad, mantenibilidad y seguridad. También se enfrenta al desafío de gestionar datos de entrenamiento, la seguridad en el proceso de análisis y desarrollo de modelos, y la necesidad de una cultura orientada a la calidad. Este trabajo se centra en investigar cómo la implementación de MLOps puede impactar positivamente en la gestión del ciclo de vida del desarrollo de ML, con el objetivo de contribuir al conocimiento en este campo emergente y promover la adopción de las mejores prácticas en soluciones basadas en ML. (Texto tomado de la fuente).Ítem Prototipo de un Sistema de Energía Transactiva para el aprovechamiento de recursos de energía renovables distribuidos mediante el uso de una tecnología de registro distribuido(Universidad Nacional de Colombia, 2024-04-24) Becerra Barajas, Leyla Rocio; Camargo Mendoza, Jorge Eliécer; Rosero Garcia, Javier Alveiro; Becerra, Leyla Rocío; Becerra Barajas, Leyla Rocío [0009-0006-9490-5821]; UNSecureLab Research groupLos sistemas de energía transactiva se han convertido en mecanismos que favorecen el aprovechamiento de las fuentes de energía renovables al permitir a los nuevos prosumidores comercializar los excedentes de energía dentro de su comunidad. Los sistemas de energía transactiva distribuidos ofrecen beneficios al habilitar el comercio entre pares. Algunos proyectos en curso han implementado este concepto mediante una aplicación particular de las tecnologías de registro distribuido específicamente Blockchain. Sin embargo, su adopción, especialmente en comunidades pequeñas, implica altos costos de implementación y de operación, largos tiempos de aprobación de transacciones, comisiones en cada transacción y alto consumo de energía. Por lo anterior, este trabajo propone explorar una alternativa tecnológica de registro distribuido que permita la implementación de un prototipo de sistema de energía transactiva distribuida más conveniente para su uso en comunidades locales. Para lograrlo, se identifican las principales características de las tecnologías de registro distribuido y se enumeran las TRD más relevantes. Luego, se describen los aspectos de diseño, implementación y pruebas del prototipo de Sistema de Energía Transactiva distribuido, proponiendo su implementación mediante contratos inteligentes y una aplicación descentralizada utilizando dos TRD: Ethereum e IoTA. Además, propone un mecanismo para evaluar y comparar el desempeño términos de latencia de las transacciones de escritura. La evaluación muestra que la latencia para transacciones de escritura en la implementación en IoTA es más baja que en la implementación realizada en la red de Ethereum. (Texto tomado de la fuente).Ítem Modelo de simulación del comportamiento de contagios de varicela en la ciudad de Bogotá basado en sistemas dinámicos y control inteligente(2024-04-18) Flórez Becerra, Gustavo; Niño Vásquez, Luis Fernando; Colonia, Carol Bibiana; laboratorio de Investigación en Sistemas Inteligentes LisiEl modelo matemático SVEIR (Susceptibles, Vacunados, Expuestos, Infectados, Recuperados) propuesto para representar el contagio de varicela en el contexto de la ciudad de Bogotá, incluye la utilización de una función periódica para representar el comportamiento estacional por semana epidemiológica, el cual fue identificado en los casos históricos de varicela individual reportados por el INS de Colombia entre los años 2007 y 2020. Como resultado de los análisis de sensibilidad y las simulaciones realizadas sobre el modelo matemático, se identificó que el parámetro de tasa de vacunación tiene un impacto negativo sobre el número básico de reproducción R0. Se realizó la implementación en ambiente computacional, de un controlador basado en lógica difusa que permita adaptar el valor de cada parámetro en relación con la desviación del comportamiento del modelo respecto a un comportamiento deseado en términos del número de individuos infectados. El sistema de inferencia difusa propuesto permitió identificar que una tasa adaptativa de vacunación cercana al 94 % durante la finalización de cada pico de inferior de contagio (semanas 16 y 38), logra un comportamiento inferior al valor de referencia definido. (Texto tomado de la fuente).Ítem Clasificación de zonas agrícolas en Colombia por medio de imágenes satelitales con redes neuronales profundas(Universidad Nacional de Colombia, 2023) Álvarez Montoya, Sebastián Felipe; González Osorio, Fabio Augusto; Ramos Pollán, Raúl; MindlabLas imágenes satelitales son una fuente valiosa de información sobre la tierra, que nos permiten analizar su superficie y las estructuras creadas por el ser humano, como la cobertura del suelo, la vegetación, la topografía y las áreas urbanas. En las últimas décadas, se han producido avances significativos para mejorar la calidad de estas imágenes, incluyendo el uso de imágenes multiespectrales de alta resolución que brindan una descripción más precisa de los objetos y su entorno. Además, se han desarrollado modelos de aprendizaje profundo utilizando estas imágenes para la clasificación y segmentación de objetos; principalmente en ámbitos urbanos y climáticos, con pocos modelos enfocados en la agricultura y los cultivos. Sin embargo, dado que Colombia es un país con una vasta extensión de tierra dedicada a la agricultura, es importante desarrollar modelos de aprendizaje profundo para clasificar y predecir la distribución de estas áreas, lo que brinda información valiosa tanto al gobierno como a los agricultores. En este estudio se utilizaron imágenes de los satélites Sentinel 2 tomadas en el año 2020, que fueron preprocesadas y georreferenciadas. Luego se determinó la cantidad de área porcentual de zonas agrícolas en cada imagen, que es la variable que permite la etiquetación de las mismas, como Frontera agrícola o No en la tarea de clasificación. Se utilizaron redes neuronales convolucionales profundas, incluyendo MobileNet, ResNet50, Inception v3 y VGG 19, con una entrada de resolución de imagen de 100 x 100. De igual manera, se utilizaron modelos con arquitecturas más simples para hacer una comparación adicional entre estos tipos de modelos; los cuales se dividieron como modelos shallow convolutional y modelos basados en Quantum Kernel Mixtures. Donde se observan mejores resultados utilizando estas arquitecturas más simples para esta tarea de clasificación con este tipo de imágenes. En resumen, este estudio demuestra cómo el uso de modelos de aprendizaje profundo junto con imágenes satelitales de alta resolución puede proporcionar información valiosa para la agricultura, permitiendo una mejor comprensión y planificación de las áreas de cultivo en Colombia. (Texto tomado de la fuente).Ítem Asignación de puntajes en exámenes estandarizados mediante el uso de redes neuronales y técnicas de equiparación psicométricas compatibles: Caso examen Saber 11 en Colombia(Universidad Nacional de Colombia, 2024-01-28) Duplat Durán, Ricardo René; Niño Vásquez, Luis Fernando; laboratorio de Investigación en Sistemas Inteligentes LisiLos exámenes estandarizados son valiosas herramientas para evaluar de manera objetiva tanto las características cognitivas como no cognitivas de una población específica. Para construir escalas de medición que reflejen con precisión los constructos que estos exámenes buscan evaluar, se recurre comúnmente a la Teoría de Respuesta al Ítem (TRI), una técnica estadística. Sin embargo, la TRI presenta limitaciones cuando sus supuestos no se cumplen, comprometiendo la comparabilidad a lo largo del tiempo y entre subpoblaciones. Este trabajo de grado se propone desarrollar una metodología innovadora que utiliza Redes Neuronales Artificiales (RNA), específicamente a través de AutoEncoders (AE), para preservar las ventajas de la TRI y aplicarla incluso cuando sus supuestos no se cumplen, buscando incluso mejorar la calidad de ajuste y pronóstico. La investigación se basa en el análisis del examen Saber 11 aplicado en los años 2018 y 2019, durante los calendarios A y B en el país. Se obtuvieron resultados que en algunos casos superan el rendimiento de un modelo clásico de la TRI, como el modelo logístico de 2 parámetros (2PL). Esta metodología propuesta no solo busca subsanar las limitaciones de la TRI en ciertos contextos, sino que también busca optimizar la precisión en la asignación de puntajes en exámenes estandarizados mediante técnicas de equiparación compatibles con la psicometría. La aplicación de RNA, en particular a través de AE, emerge como una prometedora alternativa que contribuye al avance de la evaluación estandarizada, ofreciendo mayor flexibilidad y robustez en la medición de constructos educativos. (Texto tomado de la fuente).Ítem Development of a software method to assist in the thematic analysis of responses to open ended questions in Spanish-language surveys(Universidad Nacional de Colombia, 2023-12) Cañas Palomino, Luis Alfonso; Restrepo Calle, Felipe; Plas Programming languages And SystemsThematic analysis is fundamental in qualitative research, providing rich insights but often requiring substantial time and expertise. This work addresses some limitations of existing Computer-Assisted Qualitative Data Analysis Software (CAQDAS) and presents a novel method specifically designed to assist in the thematic analysis of multi-label open-ended questions in Spanish-language surveys. The proposed method melds domain expertise with advanced language models to establish preliminary categories. Subsequently, human discernment is combined with similarity measures to streamline the categorization of some responses using these preliminary categories. The process culminates in a robust and scalable automated categorization, utilizing diverse models, language models, and accuracy metrics. The proposed method is composed of three modular phases that can function independently or collaboratively, offering a comprehensive solution for researchers. It can reduce the labor-intensive coding process by leveraging Large Language Models (LLMs) and Natural Language Processing (NLP) techniques. The method's efficacy is evaluated through its application on a dataset from the National University of Colombia, demonstrating promising results across its various modules and pathways. The work opens avenues for further research, particularly in enhancing qualitative analysis methods with the integration of modern tools. (Texto tomado de la fuente)