Maestría en Ingeniería - Automatización Industrial
URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/81654
Examinar
Envíos recientes
Item type: Ítem , Modelamiento promediado no lineal de convertidores de potencia(Universidad Nacional de Colombia, 2025) Giraldo Hernández, David Eduardo; Angulo García, Fabiola; Osorio Londoño, Gustavo Adolfo; Percepción y Control Inteligente (Pci)Esta tesis presenta un modelado promediado de los convertidores flyback y boost bajo dos estrategias de control distintas, además, presenta el desarrollo de un mapa de tiempo discreto del convertidor flyback. En cada uno de estos modelos destaca una formulación alternativa basada en la corriente de valle. A diferencia de los modelos promediados convencionales, esta metodología emplea la corriente exacta de valle como variable de estado, lo que permite detectar con precisión las transiciones entre modos de conducción y capturar de manera fiel el comportamiento dinámico de los convertidores. El uso de la corriente de valle proporciona, además, una reducción significativa en los tiempos de simulación, manteniendo al mismo tiempo una alta precisión en los resultados. Esta ventaja convierte al modelo en una herramienta eficiente para el análisis y diseño de sistemas electrónicos de potencia, donde el equilibrio entre exactitud y desempeño computacional resulta esencial. Los resultados obtenidos demuestran que los modelos promediados propuestos constituyen una herramienta sólida para el estudio y optimización de convertidores de potencia, combinando precisión con bajo esfuerzo computacional y aportando fundamentos útiles tanto para la investigación como para aplicaciones prácticas (Texto tomado de la fuente).Item type: Ítem , CRITAIR : a hybrid methodology for criticality analysis and intelligent recommendations in electrical distribution networks(Universidad Nacional de Colombia, 2025) Pineda Quintero, Santiago; Álvarez Meza , Andrés Marino; Castellanos Dominguez, Cesar Germán; Grupo de Control y Procesamiento Digital de SeñalesModern power systems face increasing levels of complexity and demand, making it a priority to understand the root causes of faults and outages. Such understanding is essential for optimizing reliability indicators such as System Average Interruption Duration Index (SAIDI) and System Average Interruption Frequency Index (SAIFI), thereby enhancing service quality and the overall user experience. However, in Electric Power Companies (EPCs), unexpected outages in Medium-Voltage Level 2 (MV-L2) networks continue to degrade key reliability indicators such as SAIDI and SAIFI, ultimately impacting the end user’s perception of service quality. This ongoing issue is largely due to the lack of a systematic methodology to accurately identify the internal and external variables that most influence these indicators, limiting proactive asset management and hindering the prevention of future failures. This work identifies two key problems that hinder data-driven decision-making aimed at improving reliability in MV-L2 networks. First, there is a lack of analytical models capable of both predicting reliability metrics and explaining the underlying causes of service interruptions. Second, organizations struggle to translate large volumes of historical and regulatory data into clear, actionable recommendations due to the absence of systems that integrate domain knowledge with data-driven insights in an interpretable manner. To address these challenges, we propose CRITAIR (Criticality Analysis and Intelligent Recommendations), a two-stage hybrid and interpretable methodology designed to identify, explain, and recommend actions aimed at improving reliability in medium-voltage networks. In the first stage, a TabNet model is trained using historical outage records enriched with meteorological variables and construction-related metadata, enabling accurate estimation of SAIDI while identifying influential variables at both global and local levels. In the second stage, the extracted feature importance is integrated into an Agentic RAG (Retrieval-Augmented Generation) system, which combines semantic retrieval with text generation using large language models to generate contextualized recommendations based on both structured and unstructured data. Additionally, the system produces interpretable reasoning graphs that explain the decision-making process of the intelligent agent. The results show that the TabNet model achieved a coefficient of determination of R² = 0.88 for the SAIDI indicator, identifying precipitation, wind gusts, cloud cover, minimum current, and conductor gauge as the most relevant variables, explaining 67.3% of the observed variability. The Agentic RAG system achieved a BERTScore of 0.956 for tabular queries, 0.984 for regulatory interpretation, and 0.743 for recommendation generation. Furthermore, the system generates interpretable reasoning graphs that enhance transparency and trust. These results were validated using real-world data from CHEC, demonstrating the applicability of the proposed methodology in operational environments (Texto tomado de la fuente).Item type: Ítem , Regularized lightweight deep learning for semantic image segmentation(Universidad Nacional de Colombia, 2025) Iturriago Salas, Lucas Miguel; Álvarez Meza, Andrés Marino; Iturriago Salas, Lucas Miguel [0002096549]; Iturriago Salas, Lucas Miguel [LJMF630AAAAJ&hl]; Iturriago Salas, Lucas Miguel [0009000310579095]; Grupo de Control y Procesamiento Digital de SeñalesSemantic image segmentation holds immense potential for transformative applications in critical domains such as healthcare and agriculture. However, the practical deployment of deep learning models is often hindered by three fundamental challenges: the high variability of real-world input data, the cost and inconsistency of annotations, and the computational demands of state-of-the-art architectures. While existing methods achieve high accuracy under controlled conditions, they often lack the robustness and efficiency required to overcome these practical hurdles, limiting their generalization to diverse, resource-constrained environments. This thesis proposes a regularized, lightweight deep learning framework designed to maintain high accuracy and robustness in semantic segmentation across diverse datasets, variable imaging conditions, and application domains, while ensuring efficient deployment in resource-constrained environments. The framework is built on a systematic approach that addresses the entire modeling pipeline, from baseline evaluation to final deployment. To achieve this, three main strategies were developed. First, a comprehensive comparative analysis of canonical segmentation architectures on four heterogeneous datasets was conducted to establish robust baselines and identify the limitations of existing models. This revealed that encoder-decoder architectures like U-Net offer superior generalization but struggle with specific challenges like class imbalance and fine-detail preservation. Second, to tackle annotation noise and disagreement, a novel multi-annotator learning framework, AnnotHarmony, was proposed, centered on a new loss function (TGCESSPS). This approach successfully learns from noisy, sparse, and crowdsourced labels by modeling annotator reliability at the pixel level, outperforming traditional aggregation methods in preserving clinically relevant details. Third, the most effective models were optimized and evaluated for their generalization capacity and computational efficiency. This culminated in the successful deployment of lightweight models on edge devices, including a Raspberry Pi for automated agricultural monitoring and a mobile application for real-time clinical support, demonstrating a practical balance between performance and efficiency. In conclusion, this work bridges the gap between theoretical research and practical application by delivering a holistic framework for developing robust, resilient, and efficient semantic segmentation systems. The methodologies presented advance the state of the art by enabling reliable model training with imperfect data and facilitating the deployment of computer vision solutions in real-world, resource-limited settings, thereby increasing their potential impact in critical fields (Texto tomado de la fuente).Item type: Ítem , Predicción de la tasa de desempleo en Colombia a través de machine learning interpretable(Universidad Nacional de Colombia, 2025) Manrique Cabezas , Diego Alejandro; Castellanos Domínguez, Germán; Álvarez Meza, Andrés Marino; Grupo de Control y Procesamiento Digital de SeñalesEl estudio del desempleo y su predicción precisa revisten una importancia crítica para la formulación de políticas públicas efectivas. La tasa de desempleo no solo refleja el estado del mercado laboral, sino que también tiene implicaciones profundas en el crecimiento económico, la distribución del ingreso y la estabilidad social. En economías emergentes como la colombiana, caracterizadas por alta informalidad, disparidades regionales y sensibilidad a los ciclos económicos, comprender las dinámicas del desempleo resulta fundamental para promover un desarrollo sostenible y equitativo. Esta tesis aborda tres problemáticas centrales que dificultan el análisis riguroso del desempleo en Colombia. En primer lugar, la ausencia de bases de datos estructuradas que integren atributos monetarios y socioeconómicos limita la capacidad de modelar el fenómeno con precisión. En segundo lugar, la naturaleza no lineal y no estacionaria de las series temporales asociadas al desempleo exige codificaciones más sofisticadas para capturar patrones complejos. En tercer lugar, se requiere identificar características relevantes que reflejen patrones locales y que, además de ser interpretables, posean capacidad predictiva. En respuesta a estos desafíos, este trabajo propone un marco explicable de aprendizaje automático para la predicción de la tasa de desempleo en Colombia, estructurado en tres etapas: primero, la construcción de un conjunto de datos con información monetaria y socioeconómica, reconociendo las dificultades que impone la naturaleza no estacionaria y no lineal de los datos económicos; segundo, la identificación y análisis de patrones mediante UMAP y Local Biplot, que permiten reducir la dimensionalidad, agrupar observaciones y visualizar la contribución de las variables a través de transformaciones afines locales; y tercero, el modelado predictivo con Procesos Gaussianos, acompañado de un análisis de relevancia supervisado y no-supervisado basado en kernels para determinar la importancia relativa de cada variable. Este enfoque híbrido busca integrar precisión, capacidad de representación y explicabilidad, ofreciendo un aporte tanto a la investigación académica como al diseño de políticas públicas para el país. Los resultados obtenidos en este trabajo evidencian mejoras significativas en la identificación de patrones, la visualización de relaciones entre variables y la precisión de las predicciones, en comparación con métodos tradicionales; introduciendo un marco híbrido explicable para pronosticar la tasa de desempleo en Colombia, combinando el UL-Biplot (UMAP Local Biplot) con una regresión de Proceso Gaussiano (GP). Por su parte, el componente no supervisado reveló estructuras latentes y clústeres asociados a shocks políticos y eventos económicos críticos, destacando la importancia de variables como la participación laboral, los salarios reales y la actividad económica. Paralelamente, el modelo GP superó a enfoques tradicionales (ARIMA, Lasso, ElasticNet, SVR) en precisión y estabilidad, ofreciendo interpretabilidad mediante análisis de relevancia basado en kernels. De este modo, este marco no solo mejora la capacidad predictiva frente a escenarios no lineales e inciertos, sino que también aporta valor para la política pública al anticipar riesgos laborales, mapear patrones económicos y facilitar intervenciones específicas basadas en evidencia. Como trabajo futuro, se propone ampliar los datos con indicadores regionales, explorar modelos probabilísticos de aprendizaje profundo e integrar variables económicas, sociopolíticas y cualitativas para fortalecer la generalización y la utilidad del modelo en la toma de decisiones (Texto tomado de la fuente).Item type: Ítem , An explainable Kernel-driven approach for reliable supervised learning(Universidad Nacional de Colombia, 2025) Lugo Rojas, Juan Camilo; Álvarez Meza, Andrés Marino; Lugo Rojas, Juan Camilo [0002054445]; Lugo Rojas, Juan Camilo [WE7a9rAAAAAJ]; Lugo Rojas, Juan Camilo [0009000299456421]; Grupo de Control y Procesamiento Digital de SeñalesKernel methods provide a principled and mathematically rigorous framework for machine learning, offering strong generalization guarantees and natural mechanisms for uncertainty quantification. Despite these advantages, their adoption in modern large-scale and heterogeneous scenarios has been hindered by computational limitations, sensitivity to noisy or inconsistent supervision, and difficulties in extending them to structured or non-Euclidean data. Addressing these challenges is crucial to preserve the theoretical strengths of kernel methods while making them viable for contemporary applications in artificial intelligence. The main problem tackled in this thesis is the limited practicality of kernel methods in real-world machine learning tasks, where three factors are especially restrictive: the computational cost of scaling to large datasets, the fragility of kernel-based models under noisy or multi-annotator supervision, and the difficulty of interpreting or applying them in settings where structure and reliability are central. This thesis addresses these issues through three complementary research directions: scalability, robustness, and interpretability. First, we introduce CRFFDT-Net, a scalable architecture based on Convolutional Random Fourier Features, which achieves competitive accuracy for Automatic Modulation Classification while significantly reducing computational cost. Second, we propose the MAR-CCGP framework, a robust Gaussian process model that captures inter-annotator correlations and input-dependent noise, enabling reliable regression under heterogeneous and noisy supervision in both semi-synthetic and real sensory datasets. Third, we extend interpretability in kernel-based learning by analyzing GradCAM++ maps for deep architectures in signal classification and by deriving localized trustworthiness measures for multi-annotator regression, thus providing new perspectives on model reasoning and annotator reliability. Overall, this thesis demonstrates that kernel methods, when enhanced with scalable approximations, robust probabilistic formulations, and principled interpretability tools, remain a powerful paradigm for machine learning in modern contexts. The proposed contributions bridge theoretical elegance and practical applicability, offering efficient, reliable, and interpretable solutions. These results open promising directions for future research, including advanced random feature variants, richer Gaussian process formulations, and new interpretability frameworks that connect kernel-based representations with deep architectures in increasingly complex domains (Texto tomado de la fuente).Item type: Ítem , Evaluación de las técnicas de medición de potencia y energía reactiva en sistemas con generación distribuida(Universidad Nacional de Colombia, 2025) Chamorro Infante, Juan José; Osorio Londoño, Gustavo Adolfo; Chamorro Infante, Juan José [0002054445]; Chamorro Infante, Juan José [WE7a9rAAAAAJ]; Chamorro Infante, Juan José [0009000299456421]; Bolaños Navarrete, Mario Andres; Castaño Ortegon, Manuela; Pisso Ramirez, Gustavo Andres; Percepción y Control Inteligente (Pci); Pelaez, HamiltonLa creciente integración de generación distribuida ha transformado el comportamiento de los sistemas eléctricos, introduciendo nuevos desafíos en la medición energética y en la estabilidad operativa de la red. En particular, la inyección de potencia por parte de auto generadores en redes monofásicas y trifásicas puede alterar el flujo de potencia activa y reactiva, generando desbalances y afectando la precisión de los registros energéticos. Este trabajo de investigación analiza el impacto de la generación distribuida sobre la medición de potencia y energía reactiva, considerando diferentes configuraciones de carga (balanceadas y desbalanceadas) y tipos de conexión (estrella y delta). Se abordan comparaciones entre métodos de cálculo de potencia aparente (vectorial, aritmético y efectivo) y se evalúan las implicaciones del factor de potencia en la eficiencia del sistema. A través de mediciones experimentales, se evidencian los errores introducidos por la dinámica de carga y se propone una interpretación más precisa de los registros energéticos en presencia de generación distribuida. Los resultados permiten avanzar en estrategias de gestión energética más confiables, en el diseño de esquemas de compensación reactiva y en la mejora de los sistemas de medición en redes eléctricas modernas. Esta investigación también ofrece insumos técnicos para futuras regulaciones que consideren el comportamiento real de los sistemas con auto generadores (Texto tomado de la fuente).Item type: Ítem , Automatic modulation classification for software defined radios : a deep learning approach(Universidad Nacional de Colombia, 2025) Mosquera Trujillo, Carlos Enrique; Álvarez Meza, Andrés Marino; Collazos Huertas, Diego Fabián; Mosquera Trujillo, Carlos Enrique [0001997126]; Mosquera Trujillo, Carlos Enrique [0009000857193516]; Mosquera Trujillo, Carlos Enrique [0000000303089576]; Mosquera Trujillo, Carlos Enrique [0000000204343444]; Grupo de Control y Procesamiento Digital de SeñalesThe exponential growth of wireless communications, driven by technologies such as 5G, 6G, and the Internet of Things (IoT), has led to unprecedented radio spectrum congestion. In this environment, Automatic Modulation Classification (AMC) has emerged as a critical technology for intelligent and adaptive spectrum management. However, the practical implementation of Deep Learning (DL) models, which dominate the state of the art, is hindered by three fundamental challenges: their high computational complexity, their lack of robustness to dynamic channel conditions, and their "black-box" nature, which limits their reliability in critical applications. This document presents a comprehensive solution to these challenges: an AMC pipeline based on a novel lightweight neural network architecture, named ComplexMobileNet-AMC. To address robustness, the pipeline incorporates an adaptive pre-processing stage based on Random Fourier Features (RFF) for signal reconstruction and a modulation-aware, stochastic data augmentation strategy. For efficiency, the model architecture combines complex-valued convolutions, depthwise separable blocks, and self-attention mechanisms to minimize computational load without sacrificing accuracy. Finally, for interpretability, an "interpretable-by-design" approach is adopted, using the model’s internal attention weights to generate physics-grounded explanations in the time, phase, and frequency domains. Experimental results demonstrate that the proposed model is not only competitive with stateof-the-art architectures in terms of accuracy but significantly surpasses them in efficiency. In deployments on edge hardware such as Software-Defined Radios (SDR) and devices like the NVIDIA Jetson Nano, the model is between 2 and 6 times faster than reference models. The interpretability analysis confirms that the model learns to identify physically relevant features, such as the symbol rate of digital modulations. The entire system is validated in a functional over-the-air (OTA) transmission and reception prototype with a real-time monitoring GUI. This holistic approach positions the proposed solution as a robust, efficient, and transparent methodology for the practical deployment of AMC in next-generation communication systems.Item type: Ítem , Medical image segmentation in a multiple labelers context : application to the study of histopathology(Universidad Nacional de Colombia, 2025) Lotero Londoño, Brandon; Álvarez Meza, Andrés Marino; Castellanos Domínguez, Germán; Lotero Londoño, Brandon [0001836907]; Lotero Londono, Brandon [H2E8Kd8AAAAJ]; Lotero Londoño, Brandon [0009000844326383]; Lotero Londoño, Brandon [Brandon-Lotero]; Grupo de Control y Procesamiento Digital de SeñalesBreast cancer remains one of the deadliest diseases affecting women worldwide, making accurate diagnosis and treatment planning crucial for improving patient outcomes. Semantic segmentation of histopathology images plays a vital role in this process, as it enables precise identification and analysis of tissue structures. However, the current approaches face significant challenges in real-world scenarios where multiple annotators with varying expertise and reliability contribute to the labeling process. This crowdsourcing paradigm, while cost-effective, introduces inconsistencies that can compromise the quality of the segmentation results. This thesis addresses two fundamental challenges in medical image segmentation: the inherent uncertainty in multiple annotator scenarios and the need for robustsegmentation models that can handle varying image quality and annotator expertise. These challenges arise from the complex nature of histopathology images, where tissue structures can be ambiguous, and the varying levels of expertise among annotators lead to inconsistent labeling patterns. Additionally, the high cost and time requirements for expert annotations create a need for efficient solutions that can work with crowdsourced data. To address these challenges, this thesis proposes a comprehensive approach that combines novel loss functions with robust deep learning architectures to handle multiple annotator scenarios effectively. The first objective introduces a novel loss function that implicitly infers optimal segmentation while assessing labeler reliability without requiring explicit performance inputs. This approach differs from conventional methods by eliminating the need for direct supervision of labeler performance, instead using an intermediate reliability map that enables the model to prioritize information from reliable labelers while disregarding noisy labels. The mathematical foundation of this approach lies in the probabilistic modeling of annotator reliability across the input space. The second objective focuses on the development of a robust segmentation architecture that combines the strengths of U-shaped deep learning models with the proposed reliability-aware loss function. This combination enables the model to learn both the segmentation task and the reliability patterns simultaneously, leading to more accurate and consistent results. The architecture’s key innovation lies in its ability to adapt to varying image quality and annotator expertise levels without requiring explicit performance metrics. The third objective involves validating the proposed approach through extensive experimentation on both synthetic datasets and real-world histopathology images. The evaluation demonstrates superior performance compared to state-of-the-art approaches in terms of segmentation accuracy and uncertainty quantification. The results show that the proposed method can effectively handle inconsistent annotations while maintaining high segmentation accuracy, making it particularly valuable for clinical applications. The research makes significant contributions to the field by providing a robust solution for handling inconsistent annotations in medical image segmentation, particularly valuable in histopathology where expert annotations are expensive and time-consuming to obtain. The proposed approach shows promising results in reducing annotation costs while maintaining high segmentation accuracy, making it particularly relevant for clinical applications where precise segmentation of tissue structures is crucial for diagnosis and treatment planning. This work opens new research directions in the areas of crowdsourced medical image analysis, uncertainty quantification in deep learning, and the development of more efficient annotation protocols for medical imaging (Texto tomado de la fuente).Item type: Ítem , Desarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquina(Universidad Nacional de Colombia, 2024) Guarín Martínez, Daniel Felipe; Gómez Mendoza, Juan Bernardo; Álvarez Meza, Andrés Marino; Percepción y Control Inteligente (Pci); Grupo de Control y Procesamiento Digital de SeñalesLa personalización de contenido en videojuegos a partir de las emociones del jugador es un área de gran interés para crear experiencias más inmersivas y adaptativas. Sin embargo, su aplicación se enfrenta a desafíos fundamentales: la dificultad para sincronizar los datos del juego con las respuestas emocionales, la alta variabilidad en la forma en que cada individuo expresa sus emociones y la complejidad de establecer una correlación robusta entre ambos. Esta tesis aborda estos problemas mediante un enfoque metodológico de dos fases. Primero, se desarrolló un pipeline para procesar y sincronizar datos multimodales del dataset público Toadstool, que contiene game-data de Super Mario Bros y vídeos faciales de los jugadores. Un análisis cuantitativo mediante Correlación Canónica (CCA) y t-SNE reveló que no existe una correlación lineal universal entre las emociones y los eventos del juego, demostrando que las respuestas emocionales son fuertemente sujeto-dependientes. A partir de este hallazgo, la segunda fase se centró en la creación de un sistema de Generación Procedimental de Contenido (PCG) personalizado. Se desarrolló un modelo para un único sujeto (el más expresivo del dataset), asumiendo que para un individuo específico sí puede existir una relación más simple. Este pipeline utiliza un Autoencoder Variacional (VAE) para codificar la estructura de los niveles y un Análisis de Componentes Principales (PCA) que actúa como un ”traductor” lineal, mapeando el espacio latente de las expresiones faciales del jugador al espacio latente de los niveles. Los resultados fueron validados comparando los niveles generados por el pipeline con los niveles originales correspondientes a cada expresión facial de entrada. La evaluación cualitativa mostró una notable similitud visual y estructural. Cuantitativamente, el modelo alcanzó un Coeficiente de Dice promedio de 0.78, confirmando una alta fidelidad estructural. Se concluye que es factible generar contenido de juego coherente condicionado a las expresiones faciales de un jugador específico. La novedad de esta propuesta radica en demostrar la viabilidad de un enfoque sujeto-dependiente, que elude el problema de la variabilidad intersujeto y establece una base sólida para futuros sistemas de videojuegos verdaderamente adaptativos (Texto tomado de la fuente).Item type: Ítem , Multimodal explainability using class activation maps and canonical correlation analysis for EEG-based motor imagery classification enhancement(Universidad Nacional de Colombia, 2025-01-10) Loaiza Arias, Marcos; Alvarez Meza, Andres Marino; Castellanos Dominguez, Cesar German; Loaiza Arias, Marcos [0001836881]; Loaiza Arias, Marcos [7UcdYLQAAAAJ]; Loaiza Arias, Marcos [0000000337575089]; Grupo de Control y Procesamiento Digital de SeñalesBrain-Computer Interfaces (BCIs) are essential in advancing medical diagnosis and treatment by providing non-invasive tools to assess neurological states. Among these, Motor Imagery (MI), where patients mentally simulate motor tasks without physical movement, has proven to be an effective paradigm for diagnosing and monitoring neurological conditions. Electroencephalography (EEG) is widely used for MI data collection due to its high temporal resolution, cost-effectiveness, and portability. However, EEG signals can be noisy from several sources, including physiological artifacts and electromagnetic interference. They can also vary from person to person, which makes it harder to extract features and understand the signals. Additionally, this variability, influenced by genetic and cognitive factors, presents challenges for developing subject-independent solutions. To address these limitations, this work presents a Multimodal and Explainable Deep Learning (MEDL) approach for MI-EEG classification and physiological interpretability. Our approach involves: i) evaluating different deep learning (DL) models for subject-dependent MI-EEG discrimination; ii) employing Class Activation Mapping (CAM) to visualize relevant MI-EEG features; and iii) utilizing a Questionnaire-MI Performance Canonical Correlation Analysis (QMIP-CCA) to provide multidomain interpretability. On the GIGAScience MI dataset, experiments show that shallow neural networks are good at classifying MI-EEG data, while the CAM-based method finds spatio-frequency patterns. Moreover, the QMIP-CCA framework successfully correlates physiological data with MI-EEG performance, offering an enhanced, interpretable solution for BCIs (Texto tomado de la fuente).Item type: Ítem , Diseño de un modelo computacional para la gestión inteligente de la información en los transformadores de potencia a partir de fuentes del Internet de la Energía (IoE)(Universidad Nacional de Colombia, 2024) Tabares Galvis, Yoiner; Carvajal Quintero, Sandra Ximena; Environmental Energy and Education Policy E3PEste proyecto investigativo presenta un prototipo computacional diseñado para obtener valor, optimizar la vida útil de los activos en especial de los transformadores de potencia, mediante la integración de datos y procesos en un ecosistema de Internet de la Energía (IoE). La integración de conceptos relacionados con la gestión de activos en los transformadores de potencia de las redes de distribución en Colombia requiere una metodología estructurada. Se propone metodología híbrida que combina el enfoque de pensamiento de diseño, con énfasis en el cumplimiento de la norma de Gestión de Activos (International Organization for Standardization, 2014) con tecnologías de vanguardia como Internet de las Energía y estándar como CRISP-DM. El prototipo busca caracterizar, comprender el comportamiento y facilitar la interacción del transformador de potencia como activo físico productivo de la red eléctrica, mejorar su gestión y seguridad. El dispositivo Coresense ubicado en activos de la Central Hidroeléctrica de Caldas de acuerdo con la criticidad permite a través de sensores recolectar datos en tiempo real sobre variables como temperatura de aceite, el hidrogeno y la humedad de los transformadores de potencia. La plataforma tecnológica actúa como un ecosistema para procesar y almacenar estos datos. El análisis de la información genera indicadores que ayudan en la gestión y mantenimiento preventivo, prolongando la vida útil de los activos. El análisis y visualización de datos en tiempo real permite optimizar la distribución de la energía, ya que se lograría tomar decisiones sobre posibles reemplazos de equipos o solamente necesidades de mantenimiento de los activos, a partir de medir el desempeño y comparar con los estándares internacionales (EIMAC, 2024) y según el activo estudiado, determinar escenarios de operación que permitan mejorar la eficiencia de la red, y de esta manera impactar en la reducción de los costos de mantenimiento, reparación e interrupciones en el servicio, tal como lo plantea debe ser realizada la operación de las redes de distribución según la regulación colombiana (Comisión de Regulación de Energía y Gas, 2018) Para lograr la visualización de información en la gestión de activos de transformadores de potencia, se requiere implementar un panel interactivo que presenta de manera clara las asociaciones entre variables y los comportamientos tempranos del equipo. Este panel se propone que integre gráficos y análisis de datos, facilitando la identificación de patrones y anomalías que podrían señalar problemas inminentes. Lo anterior es la base para comenzar con la implementación de un prototipo computacional que ofrezca una solución tecnológica, fundamentando un ecosistema basado en el concepto IoE, para gestionar la seguridad, confiabilidad y vida útil de los activos en una red de distribución eléctrica (Iberdrola, 2024) (Texto tomado de la fuente).Item type: Ítem , EEG-based pain detection using gaussian functional connectivity and shallow deep learning with preserved interpretability(Universidad Nacional de Colombia, 2024) Buitrago Osorio, Santiago; Álvarez Meza, Andrés Marino; Castellanos Domínguez, César Germán; Buitrago Osorio, Santiago [0009000924124570]; Grupo de Control y Procesamiento Digital de SeñalesThis thesis presents an innovative approach for EEG-based pain classification, addressing the persistent challenge of intra and inter-subject variability. Leveraging Gaussian Functional Connectivity and shallow deep learning models, the study introduces a kernel-based functional connectivity method for single-trial pain classification. The proposed model optimizes spatio- temporal-frequency patterns through a cross-spectral distribution estimator, utilizing the universal approximation properties of the Gaussian kernel to improve feature extraction. This approach is designed to enhance interpretability, making it particularly suitable for brain-machine interface applications. The research also explores multi-modal analysis, incorporating demographic stratification techniques based on factors such as gender, age, and training performance. These strategies significantly improve the model’s generalization ability, yielding competitive performance metrics such as accuracy and AUC scores, while maintaining a high level of transparency in the decision-making process. By integrating frequency band filtering and advanced techniques like Grad-CAM++, the study provides deeper insights into the neural correlates of pain, bridging the gap between model performance and interpretability. Through extensive validation using EEG databases, the results demonstrate that the proposed methods outperform state-of-the-art models like EEGNet, offering superior classification accuracy across diverse subject groups. The findings of this research contribute to both the development of more effective pain assessment methodologies and the advancement of transparent deep learning models in clinical neurotechnology (Texto tomado de la fuente).Item type: Ítem , Determinación del potencial energético solar en La Dorada Caldas(Universidad Nacional de Colombia, 2024) Buitrago Paternina, Diego; Toro García, Nicolás; Ruíz Mendoza, Belizza Janet; Buitrago Paternina, Diego [https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000056353]; Buitrago Paternina, Diego [https://orcid.org/0000000212702128]; Grupo de Investigación en Recursos Energéticos Gire; Gipem Grupo de Investigación en Potencia, Energía y MercadosLa energía solar es una fuente de energía renovable y limpia que se utiliza cada vez más para satisfacer la demanda energética mundial. Sin embargo, la cantidad de energía solar disponible en un lugar específico depende en gran medida de las variables meteorológicas, como la cantidad de luz solar, la nubosidad y la temperatura. El conocimiento de las variables meteorológicas es fundamental para evaluar el potencial de la energía solar y predecir la evolución de la irradiación en una serie temporal. Para lograr esto, se requiere una evaluación cuantitativa y cualitativa más precisa utilizando diversas técnicas, incluyendo modelos basados en el brillo solar, modelos basados en temperatura, nubosidad y otros parámetros meteorológicos. Con el fin de adaptarse adecuadamente al cambio climático, es importante destacar que los registros proporcionados por el IDEAM para las variables meteorológicas a menudo presentan errores, datos atípicos y faltantes. Como resultado, es necesario llevar a cabo un proceso riguroso de control de calidad para garantizar la fiabilidad de los datos obtenidos de la estación meteorológica. En este sentido, se llevó a cabo un proceso de imputación para el llenado de los datos faltantes en la serie temporal, utilizando técnicas estadísticas apropiadas y de interpolación. Este proceso permitió obtener una serie temporal más completa y precisa, lo que a su vez facilitó el cálculo de la insolación solar con un promedio anual de 5831 Wh/m2year, y el cálculo de los modelos empíricos basados en temperatura con un promedio anual de 5683 Wh/m2year. El fenómeno ENSO se reconoce como un factor importante que afecta la precisión de los modelos empíricos utilizados para estimar el potencial de energía solar. Dado que los datos de irradiación solar pueden ser menos consistentes que los datos de temperatura, es crucial realizar una validación cuidadosa del impacto del ENSO en los cálculos anuales. Para garantizar la calidad de los datos, se recomienda mantener los instrumentos de medición en buenas condiciones, instalar estaciones meteorológicas auxiliares, utilizar técnicas de interpolación y estadísticas para completar los datos faltantes adquiridos en la serie temporal. El autor propone estas soluciones para mejorar la confiabilidad del sistema de almacenamiento de datos y mejorar la precisión del cálculo. Se utilizaron varios métodos estadísticos para evaluar la precisión de los resultados en los modelos empíricos de temperatura seleccionados para el cálculo de la insolación solar, incluyendo el coeficiente de determinación (𝑅2), el error cuadrático medio (RMSE), el error de sesgo medio (MBE) y el error absoluto medio de sesgo (MABE). Los resultados indicaron que todos los métodos empíricos tenían un ajuste similar según el 𝑅2, pero los métodos de Chen et al., Hunt et al. y Mahmood and Hubbard fueron los mejores para llenar los datos faltantes en términos de MABE. Sin embargo, el error porcentual medio (MPE) arrojó un valor negativo, lo que indica una sobreestimación de los resultados de insolación solar para el año de calibración y se eligen los métodos empíricos de Chen et al., Hunt et al., para el cálculo de la insolación solar en la serie temporal completa (Texto tomado de la fuente).Item type: Ítem , Physics-informed neural networks-based optimization for gas-powered energy systems(Universidad Nacional de Colombia, 2024) Pérez Rosero, Diego Armando; Álvarez Meza, Andrés Marino; Castellanos Domínguez, César Germán; Pérez Rosero, Diego Armando [https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001779699]; Pérez Rosero, Diego Armando [https://scholar.google.com/citations?user=IF9Bxe0AAAAJ&hl=es&oi=ao]; Pérez Rosero, Diego Armando [0000-0001-9258-7088]; Grupo de Control y Procesamiento Digital de SeñalesLa transición global hacia un paradigma energético sostenible destaca tanto la persistencia de los combustibles fósiles como el auge de las fuentes de energía renovable. En este contexto, la adopción de tecnologías basadas en turbinas de gas surge como una opción viable que minimiza el impacto ambiental al reducir las emisiones y los costos operativos. Aunque se espera que la demanda de combustibles fósiles para la generación de electricidad aumente hasta 2030, paralelamente a este evento, se prevé una inversión considerable en energía renovable, especialmente en los sectores solar y eólico. América Latina, con una notable capacidad hidroeléctrica de 340,332 MW, está a la vanguardia de los esfuerzos de mitigación de emisiones de carbono. Sin embargo, la región enfrenta desafíos, incluida la dependencia de combustibles importados y la fragilidad de su infraestructura energética. En Colombia, la variabilidad climática impulsa la diversificación energética. La Comisión de Regulación de Energía y Gas (CREG) tiene como objetivo optimizar el transporte de gas, consciente de la limitación temporal de las reservas actuales, estimadas en solo siete años. El modelo lineal utilizado tradicionalmente por CREG, aunque efectivo para ciertos propósitos, no considera factores críticos como las variaciones de presión y el papel de las estaciones de compresión, revelando la necesidad de un modelo de optimización no lineal (NOPT). Sin embargo, los desafíos de NOPT incluyen la gestión de datos variables y mediciones ruidosas, lo que puede llevar a soluciones erróneas o subóptimas. Este documento presenta un nuevo enfoque: la Red Neuronal Informada por la Física Regularizada (RPINN), diseñada para abordar tanto tareas de optimización supervisada como no supervisada. RPINN combina funciones de activación personalizadas y penalizaciones de regularización dentro de una arquitectura de red neuronal artificial (ANN), lo que le permite manejar la variabilidad de los datos y entradas inexactas. Incorpora principios físicos en el diseño de la red, calculando variables de optimización a partir de los pesos de la red y las características aprendidas. Además, emplea técnicas de diferenciación automática para optimizar la escalabilidad del sistema y reducir el tiempo de cálculo mediante la retropropagación por lotes. Los resultados experimentales demuestran que RPINNes competitivo con los solucionadores de última generación para tareas de optimización supervisada y no supervisada, mostrando robustez frente a mediciones ruidosas. Este avance lo posiciona como una solución prometedora para entornos con información fluctuante, como se evidencia en los modelos de mezcla uniforme y sistemas alimentados por gas. La base ANN de RPINN no solo asegura flexibilidad y escalabilidad, sino que también destaca su potencial como una metodología robusta y efectiva en comparación con la tradicional (Texto tomado de la fuente)Item type: Ítem , Desarrollo de un módulo de sincronismo para un sistema MDF-GIS de detección, localización y monitoreo de descargas atmosféricas en tiempo real(Universidad Nacional de Colombia, 2022) Sánchez Cruz, Yerly Adalberto; DIAZ CADAVID, LUIS FERNANDO; Gtt Grupo de Investigación en Telemática y TelecomunicacionesLas descargas eléctricas atmosféricas comúnmente conocidas como “rayos”, constituyen un fenómeno natural que ha estado presente sobre el planeta tierra desde sus inicios hace 3 billones de años, siendo las zonas tropicales y subtropicales donde la actividad de rayos es más común. Se estima que, en cualquier instante dado, hay alrededor de 1.800 tormentas eléctricas que se están formando sobre la superficie de la tierra y que la intensidad media de descarga de un rayo se encuentra alrededor de los 20.000 amperios. El rayo es una descarga eléctrica de origen atmosférico que en la mayoría de los casos se da entre nube - tierra (rayo negativo), y es causada por el fuerte campo eléctrico que existe en la carga positiva P situada debajo de la nube y la carga negativa N de la base de la nube. Una vez que la nube de tormenta se ha cargado hasta el punto en el que el campo eléctrico excede la rigidez dieléctrica local de la atmósfera, se da inicio a una descarga eléctrica atmosférica o rayo. Teniendo en cuenta la importancia del fenómeno descrito, se presenta el siguiente trabajo de tesis donde se expone el desarrollo de un módulo de sincronismo para un sistema MDF -GIS de detección, localización y monitoreo de descargas atmosféricas en tiempo real, dando continuidad a las investigaciones realizadas anteriormente dentro del grupo de investigación GTT (Grupo de investigación en telemática y telecomunicaciones) con respecto al estudio de descargas eléctricas atmosféricas tomando como base la teoría de las radiocomunicaciones (Texto tomado de la fuente)Item type: Ítem , A machine learning framework to support multi-channel time series classification in BCI systems with preserved interpretability(Universidad Nacional de Colombia, 2023) Tobón Henao, Mateo; Alvarez Meza, Andres Marino; Castellanos Dominguez, Cesar German; Tobón Henao, Mateo [0000-0002-8454-371X]; Grupo de Control y Procesamiento Digital de SeñalesBrain-Computer Interfaces (BCIs) based on Electroencephalography (EEG) have gained significant attention as a practical approach for human-technology interaction. Motor imagery (MI) paradigms, wherein users mentally simulate motor tasks without physical movement, are widely employed in BCI development. However, constructing EEG-based BCI systems faces challenges due to the low Signal-to-Noise Ratio (SNR), non-stationarity, and nonlinearity of EEG signals, as well as the inter- and intra-subject variability that hinders the extraction of discriminant features. Additionally, poor motor skills among subjects lead to difficulties in practicing MI tasks under low SNR scenarios. To address these challenges, this thesis proposes two novel methodologies for EEG-based MI classification. Firstly, a subject-dependent preprocessing approach, termed Subject-dependent Artifact Removal (SD-AR), is presented. This approach employs Surface Laplacian Filtering and Independent Component Analysis algorithms to selectively remove signal artifacts based on the subjects' MI performance. The study also investigates power- and phase-based functional connectivity measures to extract relevant and interpretable patterns and identify subjects with suboptimal performance. The SD-AR methodology significantly improves MI classification performance in subjects with poor motor skills by effectively mitigating electrooculography and volume-conduction EEG artifacts. Secondly, a deep learning methodology, named kernel-based regularized EEGNet (KREEGNet), is introduced for EEG-based MI classification. KREEGNet is built on the foundation of centered kernel alignment and Gaussian functional connectivity, addressing the challenge of intrasubject variability and lack of spatial interpretability within end-to-end frameworks. The novel architecture of KREEGNet includes an additional kernel-based layer for regularized Gaussian functional connectivity estimation using CKA. Experimental results from binary and multiclass MI classification databases demonstrate the superiority of KREEGNet over baseline EEGNet and other state-of-the-art methods. The model's interpretability is further explored at individual and group levels, utilizing classification performance measures and pruned functional connectivities. In conclusion, the proposed methodologies in this thesis contribute to enhancing the reliability, interpretability, and classification performance of EEG-based MI paradigms in BCI systems. The SD-AR approach effectively tackles artifacts and enhances the quality of EEG data, particularly for subjects with poor motor skills. On the other hand, KREEGNet demonstrates remarkable performance improvements and provides spatial interpretability, making it a promising alternative for interpretable end-to-end EEG-BCI based on deep learning. These advancements pave the way for more effective and practical BCI applications in real-world scenarios (Texto tomado de la fuente)Item type: Ítem , Diseño de plataforma y programación para el cálculo de los ángulos de alineación de dirección y balanceo de neumáticos en vehículos(Universidad Nacional de Colombia, 2023) Torres Gonzalez, Joan Esteban; Gómez-Mendoza, Juan Bernardo; Torres, Joan Esteban [1053866770]; Torres Gonzalez, Joan Esteban [000900019875303X]; Percepción y Control Inteligente (Pci)Los alineadores de dirección y balanceo son uno de los dispositivos más usados en la industria automotriz para prevenir, corregir y mejorar la estabilidad del vehículo. Los automóviles modernos generalmente tienen alineaciones tanto para las ruedas delanteras como para las ruedas traseras y consisten en tres mediciones: Dedo del pie (Toe), Camber y Caster. Estas alineaciones de las ruedas cambiarán gradualmente durante el uso, por lo que podrían causar problemas si no se realiza una alineación adecuada y al momento justo. Entre los principales problemas se tienen la inconsistencia del balanceo en la rueda delantera durante la marcha, vibración del volante, disminución de la estabilidad direccional, desgaste rápido de los neumáticos, etc. El desgaste de los neumáticos es parte de los factores de costo de transporte global que deben tenerse en cuenta en los cálculos económicos, también tiene un impacto en el consumo de energía y el medio ambiente. Por lo tanto, debe llevarse a cabo un examen y ajuste de las alineaciones de las ruedas para restaurar la marcha del vehículo. Se construye un mecanismo mecatrónico compacto con el fin de simplificar los procesos de alineación actuales utilizando métodos de mensuración recurrentes, comprendiendo los comportamientos físicos y matemáticos de dichas variables y la programación del software del instrumento para el desarrollo de la tarea. El proyecto relaciona el análisis y validación de dispositivos con tecnología de muestreo como las unidades de medición inercial o IMU, de las cuales se incorporan los acelerómetros, giroscopios y magnetómetros para capturar información suficiente y precisa para calcular los ángulos correspondientes y llevar a cabo el proceso de alineación y balanceo de los automóviles. Se diseñó un prototipo con un tornamesas para las primeras pruebas de calibración con el IMU en uno de los ejes, luego se creó el algoritmo de programación en Arduino para capturar las medidas y realizar los cálculos requeridos de los ángulos correspondientes y por último, se hizo las pruebas de campo con un alineador de luz estructurada con el objetivo de comparar los resultados y demostrar la veracidad del dispositivo. En la parte final, se realiza un boceto de una plataforma Stewart de 6 grados de libertad para comprobaciones y pruebas futuras del proyecto (Texto tomado de la fuente)Item type: Ítem , Adquisición y procesamiento de imágenes multiespectrales enfocado en la reproducción y corrección de color en entornos de iluminación controlados(Universidad Nacional de Colombia, 2023) Giraldo Duque, Maria Alejandra; Montes Castrillón, Nubia Liliana; Tamayo Monsalve, Manuel Alejandro; Giraldo Duque, Maria Alejandra [0001824872]; Giraldo Duque, Maria Alejandra [ 0000-0001-6327-201X]; Percepción y Control Inteligente (Pci)Esta tesis presenta la validación del funcionamiento y calibración de una nueva versión de un sistema imágenes multiespectrales que utiliza un sensor de cámara de amplio espectro (400-1000nm), y tecnología de iluminación basada en LED de ancho de banda estrecha dentro del espectro visible (410,650nm). Esta versión consta de una cámara monocromática de amplio espectro que se adaptó a varios lentes para realizar diferentes tomas y pruebas. Cuenta con un entorno de iluminación controlado con forma de caja octagonal oscura y cerrada. Dentro de ella se encuentran cuatro módulos, cada uno de ellos con 8 tríos de LEDs de alta potencia con ancho de banda estrecho en diversas longitudes de onda, que incluyen 7 dentro del espectro visible y 1 en el infrarrojo cercano que toma el rango de 410-850nm. El propósito de esta tesis es presentar un sistema multiespectral para adquirir la información intrínseca del color de las imágenes en un entorno de iluminación controlado como sistema de medida de color. Para ello, es necesario caracterizar y calibrar el sistema; y adecuar la configuración de los parámetros del sensor/lente. Además, se presentan las comparaciones respectivas de los sistemas para medir su precisión y exactitud. Como resultado del proceso de captura, se generan 8 imágenes multiespectrales que contienen información correspondiente a cada una de las longitudes de onda disponibles en cada sistema. Con el fin de evitar problemas de saturación, contraste, etc; se realiza la calibración y el estudio de repetibilidad del sistema. Además, se realiza la optimización en el software del sistema para corregir errores y ajustar el color respecto a la referencia según el CIE (Comission Internationale de l´Eclairage). Para ello, se aplican técnicas de regresión lineal, no lineal y una red neuronal. La capacidad del sistema para reproducir color a partir de imágenes espectrales genera como resultado una distancia de color de 23,74 Delta E y 40,45 Delta E cuando se utiliza la primera versión, la Corona Multiespectral y la segunda, el Domo Multiespectral, respectivamente. Utilizando el mejor entre los método probados para la corrección de color (Red neuronal) los errores disminuyen hasta 3,31 Delta E y 2,22 Delta E cuando se utiliza la primera versión y la segunda, respectivamente (Texto tomado de la fuente)Item type: Ítem , A deep learning approach for image-based semantic segmentation with preserved interpretability(Universidad Nacional de Colombia, 2023) Aguirre Arango, Juan Carlos; Álvarez-Meza, Andrés Marino; Castellanos-Domínguez, Germán; Aguirre Arango, Juan Carlos [0000000307027401]; Grupo de Control y Procesamiento Digital de SeñalesSemantic segmentation is pivotal in various industries, showcasing its significant impact across numerous applications. Semantic segmentation offers invaluable insights that drive advancements in fields such as autonomous driving, surveillance, robotics, and augmented reality by enabling precise identification and labeling of objects within an image. Accurate segmentation of objects allows autonomous vehicles to navigate complex environments, surveillance systems to detect and track specific objects, robots to manipulate objects efficiently, and augmented reality applications to seamlessly blend virtual objects with the real world. However, in the medical industry, the importance of semantic segmentation has become truly profound. Medical imaging techniques, such as computerized tomography scans and magnetic resonance imaging, generate vast amounts of data that require meticulous annotation for analysis. Manual annotation is a time-consuming and resource-intensive process, leading to diagnosis and treatment planning delays. Semantic segmentation techniques have the potential to automate this process, facilitating faster and more accurate analysis of medical images, thereby enhancing patient care and reducing the burden on healthcare professionals. Moreover, in medical applications, the need for interpretability is critical. Understanding and interpreting the segmentation results is vital for clinicians to make informed decisions. Interpretable semantic segmentation techniques provide transparency and insights into the segmentation process, ensuring that medical professionals can trust and validate the results for accurate diagnosis and treatment. Medical image analysis faces several challenges, with one of the primary obstacles being the limited availability of datasets specifically tailored for training segmentation models. These models require large and diverse datasets to learn the intricate patterns and features of medical images accurately. However, due to the sensitive nature of medical data and the need for expert annotations, obtaining such datasets can be challenging. Another significant challenge arises from the high variability in the region of interest (ROI) within medical imaging. The ROI can differ significantly from one patient to another due to variations in anatomy, pathology, and imaging parameters. This variability leads to differences in shape, size, and texture, making it difficult for segmentation models to delineate and analyze the regions of interest accurately. Consequently, ensuring consistent and reliable segmentation results across diverse medical images remains a critical challenge. Furthermore, there is a pressing need for systematic and quantitative evaluations of interpretability in deep learning-based segmentation models. Without such evaluations, trusting and relying on these models for clinical decision-making becomes challenging. Medical practitioners must comprehensively understand how and why these models arrive at their conclusions to incorporate them into their practice confidently. The absence of standardized evaluation methods impedes progress in building interpretable and trustworthy medical image analysis systems. This work addresses challenges in medical image segmentation. Our contributions include optimizing Random Fourier Features for spatial data through gradient descent named CRFFg, enhancing shallow encoder-decoder models for semantic segmentation, and proposing quantitative measures for interpretability. CRFFg takes advantage of the generalization properties of kernel methods and enhances data efficiency for spatial data derived from convolutions, mitigating low sample size and overfitting. To address shape, size, and texture variability in semantic segmentation across patients and imaging protocols, we incorporate a CRFFg layer into the skip connection of the encoder-decoder models. This improves the representation of low-level features from the encoder and their fusion in the decoder, specifically targeting the challenges of ROI variability. Interpretability is crucial in medical semantic segmentation, but deep learning models present challenges. To enhance interpretability, we propose quantitative measures: CAM-based Cumulative Relevance assesses the location of relevance in specific regions of interest, Mask-based Cumulative Relevance evaluates sensibility across multiple regions of interest, and CAM-Dice measures the homogeneity of relevance in interest regions. These measures provide objective and comprehensive evaluations, surpassing visual inspection and qualitative analysis. The proposed work has been tested in a medical image application where the mentioned problems occur, specifically in the segmentation of feet for monitoring the effectiveness of analgesia in the obstetric environment. This is achieved by monitoring changes in temperature at the soles of the feet. The proposed methodology demonstrates comparable performance with standard methods while also enhancing interpretability. It is important to note that this project is being developed in conjunction with SES Hospital Universitario de Caldas, under the name "Sistema prototipo de visión por computador utilizando aprendizaje profundo como soporte al monitoreo de zonas urbanas desde unidades aéreas no tripuladas" (Hermes Code 55261). The project is funded by Universidad Nacional de Colombia. In our future research, we have identified several promising avenues that can advance our work. By analyzing the spectral representation of the CRFFg layer, we aim to uncover hidden patterns and gain a deeper understanding of the subject. Additionally, incorporating Bayesian approximation techniques will enable us to enhance our decision-making and optimization strategies. We also plan to employ regularization techniques based on the proposed measures, which will effectively address overfitting issues and improve the model's performance by focusing on the desired behavior of the discriminative regions. By pursuing these paths, we aim to enhance our approach's overall effectiveness and reliability significantly, thereby pushing the boundaries of knowledge in this field (Texto tomado de la fuente)Item type: Ítem , Brain Music : Sistema compositivo, gráfico y sonoro creado a partir del comportamiento frecuencial de las señales cerebrales(Universidad Nacional de Colombia, 2023) Pérez Nastar, Hernán Darío; Castellanos-Dominguez, German; Alvarez-Meza, Andres; Grupo de Control y Procesamiento Digital de SeñalesEsta tesis de maestría presenta una metodología de aprendizaje profundo multimodal innovadora que fusiona un modelo de clasificación de emociones con un generador musical, con el propósito de crear música a partir de señales de electroencefalografía, profundizando así en la interconexión entre emociones y música. Los resultados alcanzan tres objetivos específicos: Primero, ya que el rendimiento de los sistemas interfaz cerebro-computadora varía considerablemente entre diferentes sujetos, se introduce un enfoque basado en la transferencia de conocimiento entre sujetos para mejorar el rendimiento de individuos con dificultades en sistemas de interfaz cerebro-computadora basados en el paradigma de imaginación motora. Este enfoque combina datos de EEG etiquetados con datos estructurados, como cuestionarios psicológicos, mediante un método de "Kernel Matching CKA". Utilizamos una red neuronal profunda (Deep&Wide) para la clasificación de la imaginación motora. Los resultados destacan su potencial para mejorar las habilidades motoras en interfaces cerebro-computadora. Segundo, proponemos una técnica innovadora llamada "Labeled Correlation Alignment"(LCA) para sonificar respuestas neurales a estímulos representados en datos no estructurados, como música afectiva. Esto genera características musicales basadas en la actividad cerebral inducida por las emociones. LCA aborda la variabilidad entre sujetos y dentro de sujetos mediante el análisis de correlación, lo que permite la creación de envolventes acústicos y la distinción entre diferente información sonora. Esto convierte a LCA en una herramienta prometedora para interpretar la actividad neuronal y su reacción a estímulos auditivos. Finalmente, en otro capítulo, desarrollamos una metodología de aprendizaje profundo de extremo a extremo para generar contenido musical MIDI (datos simbólicos) a partir de señales de actividad cerebral inducidas por música con etiquetas afectivas. Esta metodología abarca el preprocesamiento de datos, el entrenamiento de modelos de extracción de características y un proceso de emparejamiento de características mediante Deep Centered Kernel Alignment, lo que permite la generación de música a partir de señales EEG. En conjunto, estos logros representan avances significativos en la comprensión de la relación entre emociones y música, así como en la aplicación de la inteligencia artificial en la generación musical a partir de señales cerebrales. Ofrecen nuevas perspectivas y herramientas para la creación musical y la investigación en neurociencia emocional. Para llevar a cabo nuestros experimentos, utilizamos bases de datos públicas como GigaScience, Affective Music Listening y Deap Dataset (Texto tomado de la fuente)

