Maestría en Ingeniería - Automatización Industrial

URI permanente para esta colecciónhttps://repositorio.unal.edu.co/handle/unal/81654

Examinar

Envíos recientes

Mostrando 1 - 20 de 67
  • Item type: Ítem ,
    Desarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquina
    (Universidad Nacional de Colombia, 2024) Guarín Martínez, Daniel Felipe; Gómez Mendoza, Juan Bernardo; Álvarez Meza, Andrés Marino; Percepción y Control Inteligente (Pci); Grupo de Control y Procesamiento Digital de Señales
    La personalización de contenido en videojuegos a partir de las emociones del jugador es un área de gran interés para crear experiencias más inmersivas y adaptativas. Sin embargo, su aplicación se enfrenta a desafíos fundamentales: la dificultad para sincronizar los datos del juego con las respuestas emocionales, la alta variabilidad en la forma en que cada individuo expresa sus emociones y la complejidad de establecer una correlación robusta entre ambos. Esta tesis aborda estos problemas mediante un enfoque metodológico de dos fases. Primero, se desarrolló un pipeline para procesar y sincronizar datos multimodales del dataset público Toadstool, que contiene game-data de Super Mario Bros y vídeos faciales de los jugadores. Un análisis cuantitativo mediante Correlación Canónica (CCA) y t-SNE reveló que no existe una correlación lineal universal entre las emociones y los eventos del juego, demostrando que las respuestas emocionales son fuertemente sujeto-dependientes. A partir de este hallazgo, la segunda fase se centró en la creación de un sistema de Generación Procedimental de Contenido (PCG) personalizado. Se desarrolló un modelo para un único sujeto (el más expresivo del dataset), asumiendo que para un individuo específico sí puede existir una relación más simple. Este pipeline utiliza un Autoencoder Variacional (VAE) para codificar la estructura de los niveles y un Análisis de Componentes Principales (PCA) que actúa como un ”traductor” lineal, mapeando el espacio latente de las expresiones faciales del jugador al espacio latente de los niveles. Los resultados fueron validados comparando los niveles generados por el pipeline con los niveles originales correspondientes a cada expresión facial de entrada. La evaluación cualitativa mostró una notable similitud visual y estructural. Cuantitativamente, el modelo alcanzó un Coeficiente de Dice promedio de 0.78, confirmando una alta fidelidad estructural. Se concluye que es factible generar contenido de juego coherente condicionado a las expresiones faciales de un jugador específico. La novedad de esta propuesta radica en demostrar la viabilidad de un enfoque sujeto-dependiente, que elude el problema de la variabilidad intersujeto y establece una base sólida para futuros sistemas de videojuegos verdaderamente adaptativos (Texto tomado de la fuente).
  • Item type: Ítem ,
    Multimodal explainability using class activation maps and canonical correlation analysis for EEG-based motor imagery classification enhancement
    (Universidad Nacional de Colombia, 2025-01-10) Loaiza Arias, Marcos; Alvarez Meza, Andres Marino; Castellanos Dominguez, Cesar German; Loaiza Arias, Marcos [0001836881]; Loaiza Arias, Marcos [7UcdYLQAAAAJ]; Loaiza Arias, Marcos [0000000337575089]; Grupo de Control y Procesamiento Digital de Señales
    Brain-Computer Interfaces (BCIs) are essential in advancing medical diagnosis and treatment by providing non-invasive tools to assess neurological states. Among these, Motor Imagery (MI), where patients mentally simulate motor tasks without physical movement, has proven to be an effective paradigm for diagnosing and monitoring neurological conditions. Electroencephalography (EEG) is widely used for MI data collection due to its high temporal resolution, cost-effectiveness, and portability. However, EEG signals can be noisy from several sources, including physiological artifacts and electromagnetic interference. They can also vary from person to person, which makes it harder to extract features and understand the signals. Additionally, this variability, influenced by genetic and cognitive factors, presents challenges for developing subject-independent solutions. To address these limitations, this work presents a Multimodal and Explainable Deep Learning (MEDL) approach for MI-EEG classification and physiological interpretability. Our approach involves: i) evaluating different deep learning (DL) models for subject-dependent MI-EEG discrimination; ii) employing Class Activation Mapping (CAM) to visualize relevant MI-EEG features; and iii) utilizing a Questionnaire-MI Performance Canonical Correlation Analysis (QMIP-CCA) to provide multidomain interpretability. On the GIGAScience MI dataset, experiments show that shallow neural networks are good at classifying MI-EEG data, while the CAM-based method finds spatio-frequency patterns. Moreover, the QMIP-CCA framework successfully correlates physiological data with MI-EEG performance, offering an enhanced, interpretable solution for BCIs (Texto tomado de la fuente).
  • Item type: Ítem ,
    Diseño de un modelo computacional para la gestión inteligente de la información en los transformadores de potencia a partir de fuentes del Internet de la Energía (IoE)
    (Universidad Nacional de Colombia, 2024) Tabares Galvis, Yoiner; Carvajal Quintero, Sandra Ximena; Environmental Energy and Education Policy E3P
    Este proyecto investigativo presenta un prototipo computacional diseñado para obtener valor, optimizar la vida útil de los activos en especial de los transformadores de potencia, mediante la integración de datos y procesos en un ecosistema de Internet de la Energía (IoE). La integración de conceptos relacionados con la gestión de activos en los transformadores de potencia de las redes de distribución en Colombia requiere una metodología estructurada. Se propone metodología híbrida que combina el enfoque de pensamiento de diseño, con énfasis en el cumplimiento de la norma de Gestión de Activos (International Organization for Standardization, 2014) con tecnologías de vanguardia como Internet de las Energía y estándar como CRISP-DM. El prototipo busca caracterizar, comprender el comportamiento y facilitar la interacción del transformador de potencia como activo físico productivo de la red eléctrica, mejorar su gestión y seguridad. El dispositivo Coresense ubicado en activos de la Central Hidroeléctrica de Caldas de acuerdo con la criticidad permite a través de sensores recolectar datos en tiempo real sobre variables como temperatura de aceite, el hidrogeno y la humedad de los transformadores de potencia. La plataforma tecnológica actúa como un ecosistema para procesar y almacenar estos datos. El análisis de la información genera indicadores que ayudan en la gestión y mantenimiento preventivo, prolongando la vida útil de los activos. El análisis y visualización de datos en tiempo real permite optimizar la distribución de la energía, ya que se lograría tomar decisiones sobre posibles reemplazos de equipos o solamente necesidades de mantenimiento de los activos, a partir de medir el desempeño y comparar con los estándares internacionales (EIMAC, 2024) y según el activo estudiado, determinar escenarios de operación que permitan mejorar la eficiencia de la red, y de esta manera impactar en la reducción de los costos de mantenimiento, reparación e interrupciones en el servicio, tal como lo plantea debe ser realizada la operación de las redes de distribución según la regulación colombiana (Comisión de Regulación de Energía y Gas, 2018) Para lograr la visualización de información en la gestión de activos de transformadores de potencia, se requiere implementar un panel interactivo que presenta de manera clara las asociaciones entre variables y los comportamientos tempranos del equipo. Este panel se propone que integre gráficos y análisis de datos, facilitando la identificación de patrones y anomalías que podrían señalar problemas inminentes. Lo anterior es la base para comenzar con la implementación de un prototipo computacional que ofrezca una solución tecnológica, fundamentando un ecosistema basado en el concepto IoE, para gestionar la seguridad, confiabilidad y vida útil de los activos en una red de distribución eléctrica (Iberdrola, 2024) (Texto tomado de la fuente).
  • Item type: Ítem ,
    EEG-based pain detection using gaussian functional connectivity and shallow deep learning with preserved interpretability
    (Universidad Nacional de Colombia, 2024) Buitrago Osorio, Santiago; Álvarez Meza, Andrés Marino; Castellanos Domínguez, César Germán; Buitrago Osorio, Santiago [0009000924124570]; Grupo de Control y Procesamiento Digital de Señales
    This thesis presents an innovative approach for EEG-based pain classification, addressing the persistent challenge of intra and inter-subject variability. Leveraging Gaussian Functional Connectivity and shallow deep learning models, the study introduces a kernel-based functional connectivity method for single-trial pain classification. The proposed model optimizes spatio- temporal-frequency patterns through a cross-spectral distribution estimator, utilizing the universal approximation properties of the Gaussian kernel to improve feature extraction. This approach is designed to enhance interpretability, making it particularly suitable for brain-machine interface applications. The research also explores multi-modal analysis, incorporating demographic stratification techniques based on factors such as gender, age, and training performance. These strategies significantly improve the model’s generalization ability, yielding competitive performance metrics such as accuracy and AUC scores, while maintaining a high level of transparency in the decision-making process. By integrating frequency band filtering and advanced techniques like Grad-CAM++, the study provides deeper insights into the neural correlates of pain, bridging the gap between model performance and interpretability. Through extensive validation using EEG databases, the results demonstrate that the proposed methods outperform state-of-the-art models like EEGNet, offering superior classification accuracy across diverse subject groups. The findings of this research contribute to both the development of more effective pain assessment methodologies and the advancement of transparent deep learning models in clinical neurotechnology (Texto tomado de la fuente).
  • Item type: Ítem ,
    Determinación del potencial energético solar en La Dorada Caldas
    (Universidad Nacional de Colombia, 2024) Buitrago Paternina, Diego; Toro García, Nicolás; Ruíz Mendoza, Belizza Janet; Buitrago Paternina, Diego [https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000056353]; Buitrago Paternina, Diego [https://orcid.org/0000000212702128]; Grupo de Investigación en Recursos Energéticos Gire; Gipem ­ Grupo de Investigación en Potencia, Energía y Mercados
    La energía solar es una fuente de energía renovable y limpia que se utiliza cada vez más para satisfacer la demanda energética mundial. Sin embargo, la cantidad de energía solar disponible en un lugar específico depende en gran medida de las variables meteorológicas, como la cantidad de luz solar, la nubosidad y la temperatura. El conocimiento de las variables meteorológicas es fundamental para evaluar el potencial de la energía solar y predecir la evolución de la irradiación en una serie temporal. Para lograr esto, se requiere una evaluación cuantitativa y cualitativa más precisa utilizando diversas técnicas, incluyendo modelos basados en el brillo solar, modelos basados en temperatura, nubosidad y otros parámetros meteorológicos. Con el fin de adaptarse adecuadamente al cambio climático, es importante destacar que los registros proporcionados por el IDEAM para las variables meteorológicas a menudo presentan errores, datos atípicos y faltantes. Como resultado, es necesario llevar a cabo un proceso riguroso de control de calidad para garantizar la fiabilidad de los datos obtenidos de la estación meteorológica. En este sentido, se llevó a cabo un proceso de imputación para el llenado de los datos faltantes en la serie temporal, utilizando técnicas estadísticas apropiadas y de interpolación. Este proceso permitió obtener una serie temporal más completa y precisa, lo que a su vez facilitó el cálculo de la insolación solar con un promedio anual de 5831 Wh/m2year, y el cálculo de los modelos empíricos basados en temperatura con un promedio anual de 5683 Wh/m2year. El fenómeno ENSO se reconoce como un factor importante que afecta la precisión de los modelos empíricos utilizados para estimar el potencial de energía solar. Dado que los datos de irradiación solar pueden ser menos consistentes que los datos de temperatura, es crucial realizar una validación cuidadosa del impacto del ENSO en los cálculos anuales. Para garantizar la calidad de los datos, se recomienda mantener los instrumentos de medición en buenas condiciones, instalar estaciones meteorológicas auxiliares, utilizar técnicas de interpolación y estadísticas para completar los datos faltantes adquiridos en la serie temporal. El autor propone estas soluciones para mejorar la confiabilidad del sistema de almacenamiento de datos y mejorar la precisión del cálculo. Se utilizaron varios métodos estadísticos para evaluar la precisión de los resultados en los modelos empíricos de temperatura seleccionados para el cálculo de la insolación solar, incluyendo el coeficiente de determinación (𝑅2), el error cuadrático medio (RMSE), el error de sesgo medio (MBE) y el error absoluto medio de sesgo (MABE). Los resultados indicaron que todos los métodos empíricos tenían un ajuste similar según el 𝑅2, pero los métodos de Chen et al., Hunt et al. y Mahmood and Hubbard fueron los mejores para llenar los datos faltantes en términos de MABE. Sin embargo, el error porcentual medio (MPE) arrojó un valor negativo, lo que indica una sobreestimación de los resultados de insolación solar para el año de calibración y se eligen los métodos empíricos de Chen et al., Hunt et al., para el cálculo de la insolación solar en la serie temporal completa (Texto tomado de la fuente).
  • Item type: Ítem ,
    Physics-informed neural networks-based optimization for gas-powered energy systems
    (Universidad Nacional de Colombia, 2024) Pérez Rosero, Diego Armando; Álvarez Meza, Andrés Marino; Castellanos Domínguez, César Germán; Pérez Rosero, Diego Armando [https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001779699]; Pérez Rosero, Diego Armando [https://scholar.google.com/citations?user=IF9Bxe0AAAAJ&hl=es&oi=ao]; Pérez Rosero, Diego Armando [0000-0001-9258-7088]; Grupo de Control y Procesamiento Digital de Señales
    La transición global hacia un paradigma energético sostenible destaca tanto la persistencia de los combustibles fósiles como el auge de las fuentes de energía renovable. En este contexto, la adopción de tecnologías basadas en turbinas de gas surge como una opción viable que minimiza el impacto ambiental al reducir las emisiones y los costos operativos. Aunque se espera que la demanda de combustibles fósiles para la generación de electricidad aumente hasta 2030, paralelamente a este evento, se prevé una inversión considerable en energía renovable, especialmente en los sectores solar y eólico. América Latina, con una notable capacidad hidroeléctrica de 340,332 MW, está a la vanguardia de los esfuerzos de mitigación de emisiones de carbono. Sin embargo, la región enfrenta desafíos, incluida la dependencia de combustibles importados y la fragilidad de su infraestructura energética. En Colombia, la variabilidad climática impulsa la diversificación energética. La Comisión de Regulación de Energía y Gas (CREG) tiene como objetivo optimizar el transporte de gas, consciente de la limitación temporal de las reservas actuales, estimadas en solo siete años. El modelo lineal utilizado tradicionalmente por CREG, aunque efectivo para ciertos propósitos, no considera factores críticos como las variaciones de presión y el papel de las estaciones de compresión, revelando la necesidad de un modelo de optimización no lineal (NOPT). Sin embargo, los desafíos de NOPT incluyen la gestión de datos variables y mediciones ruidosas, lo que puede llevar a soluciones erróneas o subóptimas. Este documento presenta un nuevo enfoque: la Red Neuronal Informada por la Física Regularizada (RPINN), diseñada para abordar tanto tareas de optimización supervisada como no supervisada. RPINN combina funciones de activación personalizadas y penalizaciones de regularización dentro de una arquitectura de red neuronal artificial (ANN), lo que le permite manejar la variabilidad de los datos y entradas inexactas. Incorpora principios físicos en el diseño de la red, calculando variables de optimización a partir de los pesos de la red y las características aprendidas. Además, emplea técnicas de diferenciación automática para optimizar la escalabilidad del sistema y reducir el tiempo de cálculo mediante la retropropagación por lotes. Los resultados experimentales demuestran que RPINNes competitivo con los solucionadores de última generación para tareas de optimización supervisada y no supervisada, mostrando robustez frente a mediciones ruidosas. Este avance lo posiciona como una solución prometedora para entornos con información fluctuante, como se evidencia en los modelos de mezcla uniforme y sistemas alimentados por gas. La base ANN de RPINN no solo asegura flexibilidad y escalabilidad, sino que también destaca su potencial como una metodología robusta y efectiva en comparación con la tradicional (Texto tomado de la fuente)
  • Item type: Ítem ,
    Desarrollo de un módulo de sincronismo para un sistema MDF-GIS de detección, localización y monitoreo de descargas atmosféricas en tiempo real
    (Universidad Nacional de Colombia, 2022) Sánchez Cruz, Yerly Adalberto; DIAZ CADAVID, LUIS FERNANDO; Gtt ­ Grupo de Investigación en Telemática y Telecomunicaciones
    Las descargas eléctricas atmosféricas comúnmente conocidas como “rayos”, constituyen un fenómeno natural que ha estado presente sobre el planeta tierra desde sus inicios hace 3 billones de años, siendo las zonas tropicales y subtropicales donde la actividad de rayos es más común. Se estima que, en cualquier instante dado, hay alrededor de 1.800 tormentas eléctricas que se están formando sobre la superficie de la tierra y que la intensidad media de descarga de un rayo se encuentra alrededor de los 20.000 amperios. El rayo es una descarga eléctrica de origen atmosférico que en la mayoría de los casos se da entre nube - tierra (rayo negativo), y es causada por el fuerte campo eléctrico que existe en la carga positiva P situada debajo de la nube y la carga negativa N de la base de la nube. Una vez que la nube de tormenta se ha cargado hasta el punto en el que el campo eléctrico excede la rigidez dieléctrica local de la atmósfera, se da inicio a una descarga eléctrica atmosférica o rayo. Teniendo en cuenta la importancia del fenómeno descrito, se presenta el siguiente trabajo de tesis donde se expone el desarrollo de un módulo de sincronismo para un sistema MDF -GIS de detección, localización y monitoreo de descargas atmosféricas en tiempo real, dando continuidad a las investigaciones realizadas anteriormente dentro del grupo de investigación GTT (Grupo de investigación en telemática y telecomunicaciones) con respecto al estudio de descargas eléctricas atmosféricas tomando como base la teoría de las radiocomunicaciones (Texto tomado de la fuente)
  • Item type: Ítem ,
    A machine learning framework to support multi-channel time series classification in BCI systems with preserved interpretability
    (Universidad Nacional de Colombia, 2023) Tobón Henao, Mateo; Alvarez Meza, Andres Marino; Castellanos Dominguez, Cesar German; Tobón Henao, Mateo [0000-0002-8454-371X]; Grupo de Control y Procesamiento Digital de Señales
    Brain-Computer Interfaces (BCIs) based on Electroencephalography (EEG) have gained significant attention as a practical approach for human-technology interaction. Motor imagery (MI) paradigms, wherein users mentally simulate motor tasks without physical movement, are widely employed in BCI development. However, constructing EEG-based BCI systems faces challenges due to the low Signal-to-Noise Ratio (SNR), non-stationarity, and nonlinearity of EEG signals, as well as the inter- and intra-subject variability that hinders the extraction of discriminant features. Additionally, poor motor skills among subjects lead to difficulties in practicing MI tasks under low SNR scenarios. To address these challenges, this thesis proposes two novel methodologies for EEG-based MI classification. Firstly, a subject-dependent preprocessing approach, termed Subject-dependent Artifact Removal (SD-AR), is presented. This approach employs Surface Laplacian Filtering and Independent Component Analysis algorithms to selectively remove signal artifacts based on the subjects' MI performance. The study also investigates power- and phase-based functional connectivity measures to extract relevant and interpretable patterns and identify subjects with suboptimal performance. The SD-AR methodology significantly improves MI classification performance in subjects with poor motor skills by effectively mitigating electrooculography and volume-conduction EEG artifacts. Secondly, a deep learning methodology, named kernel-based regularized EEGNet (KREEGNet), is introduced for EEG-based MI classification. KREEGNet is built on the foundation of centered kernel alignment and Gaussian functional connectivity, addressing the challenge of intrasubject variability and lack of spatial interpretability within end-to-end frameworks. The novel architecture of KREEGNet includes an additional kernel-based layer for regularized Gaussian functional connectivity estimation using CKA. Experimental results from binary and multiclass MI classification databases demonstrate the superiority of KREEGNet over baseline EEGNet and other state-of-the-art methods. The model's interpretability is further explored at individual and group levels, utilizing classification performance measures and pruned functional connectivities. In conclusion, the proposed methodologies in this thesis contribute to enhancing the reliability, interpretability, and classification performance of EEG-based MI paradigms in BCI systems. The SD-AR approach effectively tackles artifacts and enhances the quality of EEG data, particularly for subjects with poor motor skills. On the other hand, KREEGNet demonstrates remarkable performance improvements and provides spatial interpretability, making it a promising alternative for interpretable end-to-end EEG-BCI based on deep learning. These advancements pave the way for more effective and practical BCI applications in real-world scenarios (Texto tomado de la fuente)
  • Item type: Ítem ,
    Diseño de plataforma y programación para el cálculo de los ángulos de alineación de dirección y balanceo de neumáticos en vehículos
    (Universidad Nacional de Colombia, 2023) Torres Gonzalez, Joan Esteban; Gómez-Mendoza, Juan Bernardo; Torres, Joan Esteban [1053866770]; Torres Gonzalez, Joan Esteban [000900019875303X]; Percepción y Control Inteligente (Pci)
    Los alineadores de dirección y balanceo son uno de los dispositivos más usados en la industria automotriz para prevenir, corregir y mejorar la estabilidad del vehículo. Los automóviles modernos generalmente tienen alineaciones tanto para las ruedas delanteras como para las ruedas traseras y consisten en tres mediciones: Dedo del pie (Toe), Camber y Caster. Estas alineaciones de las ruedas cambiarán gradualmente durante el uso, por lo que podrían causar problemas si no se realiza una alineación adecuada y al momento justo. Entre los principales problemas se tienen la inconsistencia del balanceo en la rueda delantera durante la marcha, vibración del volante, disminución de la estabilidad direccional, desgaste rápido de los neumáticos, etc. El desgaste de los neumáticos es parte de los factores de costo de transporte global que deben tenerse en cuenta en los cálculos económicos, también tiene un impacto en el consumo de energía y el medio ambiente. Por lo tanto, debe llevarse a cabo un examen y ajuste de las alineaciones de las ruedas para restaurar la marcha del vehículo. Se construye un mecanismo mecatrónico compacto con el fin de simplificar los procesos de alineación actuales utilizando métodos de mensuración recurrentes, comprendiendo los comportamientos físicos y matemáticos de dichas variables y la programación del software del instrumento para el desarrollo de la tarea. El proyecto relaciona el análisis y validación de dispositivos con tecnología de muestreo como las unidades de medición inercial o IMU, de las cuales se incorporan los acelerómetros, giroscopios y magnetómetros para capturar información suficiente y precisa para calcular los ángulos correspondientes y llevar a cabo el proceso de alineación y balanceo de los automóviles. Se diseñó un prototipo con un tornamesas para las primeras pruebas de calibración con el IMU en uno de los ejes, luego se creó el algoritmo de programación en Arduino para capturar las medidas y realizar los cálculos requeridos de los ángulos correspondientes y por último, se hizo las pruebas de campo con un alineador de luz estructurada con el objetivo de comparar los resultados y demostrar la veracidad del dispositivo. En la parte final, se realiza un boceto de una plataforma Stewart de 6 grados de libertad para comprobaciones y pruebas futuras del proyecto (Texto tomado de la fuente)
  • Item type: Ítem ,
    Adquisición y procesamiento de imágenes multiespectrales enfocado en la reproducción y corrección de color en entornos de iluminación controlados
    (Universidad Nacional de Colombia, 2023) Giraldo Duque, Maria Alejandra; Montes Castrillón, Nubia Liliana; Tamayo Monsalve, Manuel Alejandro; Giraldo Duque, Maria Alejandra [0001824872]; Giraldo Duque, Maria Alejandra [ 0000-0001-6327-201X]; Percepción y Control Inteligente (Pci)
    Esta tesis presenta la validación del funcionamiento y calibración de una nueva versión de un sistema imágenes multiespectrales que utiliza un sensor de cámara de amplio espectro (400-1000nm), y tecnología de iluminación basada en LED de ancho de banda estrecha dentro del espectro visible (410,650nm). Esta versión consta de una cámara monocromática de amplio espectro que se adaptó a varios lentes para realizar diferentes tomas y pruebas. Cuenta con un entorno de iluminación controlado con forma de caja octagonal oscura y cerrada. Dentro de ella se encuentran cuatro módulos, cada uno de ellos con 8 tríos de LEDs de alta potencia con ancho de banda estrecho en diversas longitudes de onda, que incluyen 7 dentro del espectro visible y 1 en el infrarrojo cercano que toma el rango de 410-850nm. El propósito de esta tesis es presentar un sistema multiespectral para adquirir la información intrínseca del color de las imágenes en un entorno de iluminación controlado como sistema de medida de color. Para ello, es necesario caracterizar y calibrar el sistema; y adecuar la configuración de los parámetros del sensor/lente. Además, se presentan las comparaciones respectivas de los sistemas para medir su precisión y exactitud. Como resultado del proceso de captura, se generan 8 imágenes multiespectrales que contienen información correspondiente a cada una de las longitudes de onda disponibles en cada sistema. Con el fin de evitar problemas de saturación, contraste, etc; se realiza la calibración y el estudio de repetibilidad del sistema. Además, se realiza la optimización en el software del sistema para corregir errores y ajustar el color respecto a la referencia según el CIE (Comission Internationale de l´Eclairage). Para ello, se aplican técnicas de regresión lineal, no lineal y una red neuronal. La capacidad del sistema para reproducir color a partir de imágenes espectrales genera como resultado una distancia de color de 23,74 Delta E y 40,45 Delta E cuando se utiliza la primera versión, la Corona Multiespectral y la segunda, el Domo Multiespectral, respectivamente. Utilizando el mejor entre los método probados para la corrección de color (Red neuronal) los errores disminuyen hasta 3,31 Delta E y 2,22 Delta E cuando se utiliza la primera versión y la segunda, respectivamente (Texto tomado de la fuente)
  • Item type: Ítem ,
    A deep learning approach for image-based semantic segmentation with preserved interpretability
    (Universidad Nacional de Colombia, 2023) Aguirre Arango, Juan Carlos; Álvarez-Meza, Andrés Marino; Castellanos-Domínguez, Germán; Aguirre Arango, Juan Carlos [0000000307027401]; Grupo de Control y Procesamiento Digital de Señales
    Semantic segmentation is pivotal in various industries, showcasing its significant impact across numerous applications. Semantic segmentation offers invaluable insights that drive advancements in fields such as autonomous driving, surveillance, robotics, and augmented reality by enabling precise identification and labeling of objects within an image. Accurate segmentation of objects allows autonomous vehicles to navigate complex environments, surveillance systems to detect and track specific objects, robots to manipulate objects efficiently, and augmented reality applications to seamlessly blend virtual objects with the real world. However, in the medical industry, the importance of semantic segmentation has become truly profound. Medical imaging techniques, such as computerized tomography scans and magnetic resonance imaging, generate vast amounts of data that require meticulous annotation for analysis. Manual annotation is a time-consuming and resource-intensive process, leading to diagnosis and treatment planning delays. Semantic segmentation techniques have the potential to automate this process, facilitating faster and more accurate analysis of medical images, thereby enhancing patient care and reducing the burden on healthcare professionals. Moreover, in medical applications, the need for interpretability is critical. Understanding and interpreting the segmentation results is vital for clinicians to make informed decisions. Interpretable semantic segmentation techniques provide transparency and insights into the segmentation process, ensuring that medical professionals can trust and validate the results for accurate diagnosis and treatment. Medical image analysis faces several challenges, with one of the primary obstacles being the limited availability of datasets specifically tailored for training segmentation models. These models require large and diverse datasets to learn the intricate patterns and features of medical images accurately. However, due to the sensitive nature of medical data and the need for expert annotations, obtaining such datasets can be challenging. Another significant challenge arises from the high variability in the region of interest (ROI) within medical imaging. The ROI can differ significantly from one patient to another due to variations in anatomy, pathology, and imaging parameters. This variability leads to differences in shape, size, and texture, making it difficult for segmentation models to delineate and analyze the regions of interest accurately. Consequently, ensuring consistent and reliable segmentation results across diverse medical images remains a critical challenge. Furthermore, there is a pressing need for systematic and quantitative evaluations of interpretability in deep learning-based segmentation models. Without such evaluations, trusting and relying on these models for clinical decision-making becomes challenging. Medical practitioners must comprehensively understand how and why these models arrive at their conclusions to incorporate them into their practice confidently. The absence of standardized evaluation methods impedes progress in building interpretable and trustworthy medical image analysis systems. This work addresses challenges in medical image segmentation. Our contributions include optimizing Random Fourier Features for spatial data through gradient descent named CRFFg, enhancing shallow encoder-decoder models for semantic segmentation, and proposing quantitative measures for interpretability. CRFFg takes advantage of the generalization properties of kernel methods and enhances data efficiency for spatial data derived from convolutions, mitigating low sample size and overfitting. To address shape, size, and texture variability in semantic segmentation across patients and imaging protocols, we incorporate a CRFFg layer into the skip connection of the encoder-decoder models. This improves the representation of low-level features from the encoder and their fusion in the decoder, specifically targeting the challenges of ROI variability. Interpretability is crucial in medical semantic segmentation, but deep learning models present challenges. To enhance interpretability, we propose quantitative measures: CAM-based Cumulative Relevance assesses the location of relevance in specific regions of interest, Mask-based Cumulative Relevance evaluates sensibility across multiple regions of interest, and CAM-Dice measures the homogeneity of relevance in interest regions. These measures provide objective and comprehensive evaluations, surpassing visual inspection and qualitative analysis. The proposed work has been tested in a medical image application where the mentioned problems occur, specifically in the segmentation of feet for monitoring the effectiveness of analgesia in the obstetric environment. This is achieved by monitoring changes in temperature at the soles of the feet. The proposed methodology demonstrates comparable performance with standard methods while also enhancing interpretability. It is important to note that this project is being developed in conjunction with SES Hospital Universitario de Caldas, under the name "Sistema prototipo de visión por computador utilizando aprendizaje profundo como soporte al monitoreo de zonas urbanas desde unidades aéreas no tripuladas" (Hermes Code 55261). The project is funded by Universidad Nacional de Colombia. In our future research, we have identified several promising avenues that can advance our work. By analyzing the spectral representation of the CRFFg layer, we aim to uncover hidden patterns and gain a deeper understanding of the subject. Additionally, incorporating Bayesian approximation techniques will enable us to enhance our decision-making and optimization strategies. We also plan to employ regularization techniques based on the proposed measures, which will effectively address overfitting issues and improve the model's performance by focusing on the desired behavior of the discriminative regions. By pursuing these paths, we aim to enhance our approach's overall effectiveness and reliability significantly, thereby pushing the boundaries of knowledge in this field (Texto tomado de la fuente)
  • Item type: Ítem ,
    Brain Music : Sistema compositivo, gráfico y sonoro creado a partir del comportamiento frecuencial de las señales cerebrales
    (Universidad Nacional de Colombia, 2023) Pérez Nastar, Hernán Darío; Castellanos-Dominguez, German; Alvarez-Meza, Andres; Grupo de Control y Procesamiento Digital de Señales
    Esta tesis de maestría presenta una metodología de aprendizaje profundo multimodal innovadora que fusiona un modelo de clasificación de emociones con un generador musical, con el propósito de crear música a partir de señales de electroencefalografía, profundizando así en la interconexión entre emociones y música. Los resultados alcanzan tres objetivos específicos: Primero, ya que el rendimiento de los sistemas interfaz cerebro-computadora varía considerablemente entre diferentes sujetos, se introduce un enfoque basado en la transferencia de conocimiento entre sujetos para mejorar el rendimiento de individuos con dificultades en sistemas de interfaz cerebro-computadora basados en el paradigma de imaginación motora. Este enfoque combina datos de EEG etiquetados con datos estructurados, como cuestionarios psicológicos, mediante un método de "Kernel Matching CKA". Utilizamos una red neuronal profunda (Deep&Wide) para la clasificación de la imaginación motora. Los resultados destacan su potencial para mejorar las habilidades motoras en interfaces cerebro-computadora. Segundo, proponemos una técnica innovadora llamada "Labeled Correlation Alignment"(LCA) para sonificar respuestas neurales a estímulos representados en datos no estructurados, como música afectiva. Esto genera características musicales basadas en la actividad cerebral inducida por las emociones. LCA aborda la variabilidad entre sujetos y dentro de sujetos mediante el análisis de correlación, lo que permite la creación de envolventes acústicos y la distinción entre diferente información sonora. Esto convierte a LCA en una herramienta prometedora para interpretar la actividad neuronal y su reacción a estímulos auditivos. Finalmente, en otro capítulo, desarrollamos una metodología de aprendizaje profundo de extremo a extremo para generar contenido musical MIDI (datos simbólicos) a partir de señales de actividad cerebral inducidas por música con etiquetas afectivas. Esta metodología abarca el preprocesamiento de datos, el entrenamiento de modelos de extracción de características y un proceso de emparejamiento de características mediante Deep Centered Kernel Alignment, lo que permite la generación de música a partir de señales EEG. En conjunto, estos logros representan avances significativos en la comprensión de la relación entre emociones y música, así como en la aplicación de la inteligencia artificial en la generación musical a partir de señales cerebrales. Ofrecen nuevas perspectivas y herramientas para la creación musical y la investigación en neurociencia emocional. Para llevar a cabo nuestros experimentos, utilizamos bases de datos públicas como GigaScience, Affective Music Listening y Deap Dataset (Texto tomado de la fuente)
  • Item type: Ítem ,
    Estrategia de procesamiento de señales EEG en sistemas BCI utilizando aprendizaje profundo y medidas de conectividad
    (Universidad Nacional de Colombia, 2023) Gomez Rivera, Yessica Alejandra; Álvarez Meza, Andrés Marino; Castellanos Domínguez, César Germán; Gomez Rivera, Yessica Alejandra [0000000259214295]; Grupo de Control y Procesamiento Digital de Señales
    Las Interfaces Cerebro Computadora (BCI) basadas en Electroencefalografía (EEG) crean una conexión directa entre el cerebro humano y una computadora. Los paradigmas de Imaginación Motora (MI) permiten que los usuarios controlen el movimiento de un agente en el mundo físico o virtual al detectar y decodificar patrones cerebrales asociados con movimientos reales e imaginados. Estas interfaces poseen un amplio potencial de aplicaciones clínicas y no clínicas. A pesar de ello, desarrollar sistemas BCI basados en EEG conlleva ciertos desafíos debido a problemas como la baja relación señal-ruido (SNR), la no estacionariedad y no linealidad de las señales EEG que causa la variabilidad intersujeto dificultando la identificación de características distintivas. Además, las capacidades limitadas de los sujetos para llevar a cabo tareas de MI en condiciones de baja SNR generan dificultades adicionales en la implementación de estos sistemas. Con el fin de abordar estos desafíos, en este trabajo de tesis, se presenta dos nuevas metodologías para el procesamiento de señales EEG. La primera de ellas consiste en i) una metodología para el procesamiento de señales de EEG para la clasificación de tareas de MI en alta y baja densidad de canales, con la representación y clasificación de señales de EEG basada en imágenes para reducir el efecto de la variabilidad intersujeto y mejorar la interpretabilidad espacio-frecuencia en modelos de Aprendizaje Profundo (DL). Además, se presenta un protocolo de adquisición de datos para un sistema BCI-MI basado en EEG, que es de bajo costo, portátil y diseñado para abordar las restricciones inherentes en la captura de la actividad neuronal con electrodos en el cuero cabelludo. Se utiliza un marco de DL para mejorar la precisión y exactitud de las BCIs-MI, al mismo tiempo, ii) se introduce un novedoso sistema de bajo costo y pocos canales que permite la clasificación de tareas de MI en tiempo real, superando desafíos computacionales. Este sistema garantiza que los bloques de datos EEG estén disponibles para el usuario en un tiempo menor a su duración. Esta innovación ofrece perspectivas prometedoras para mejorar la accesibilidad y eficacia de las interfaces cerebro-computadora en aplicaciones prácticas. Para concluir las metodologías propuestas en esta tesis contribuyen a mejorar la variabilidad intersujeto, la interpretabilidad espacio-frecuencia en modelos DL y el rendimiento de clasificación de los paradigmas de MI en sistemas BCI basados en EEG. La representación de EEG basada en imágenes permite obtener interpretabilidad espacio-frecuencia al combinar la representación espacial de los pares de canales EEG para construir un mapa topográfico (topoplot) en diferentes bandas de frecuencia. Esto codifica relaciones no lineales relevantes mediante similitud basada en la distribución Gaussiana, lo que a su vez mejora la precisión y exactitud de las BCI. Además, se complementa con análisis por grupo, Mapas de Activación de Clase (CAMS) e Incrustación Estocástica de Vecinos con Distribución t (t-SNE), para brindar una mayor interpretación de los resultados de la clasificación. El procesamiento de señales de EEG para la clasificación de tareas de MI, tanto en alta como baja densidad de canales, aborda eficientemente los efectos de la variabilidad y los artefactos en la señal, así como la baja SNR. Este enfoque se dirige especialmente a los sujetos que no logran obtener un control suficiente sobre el BCI. Por otro lado, la adquisición y procesamiento de señales de EEG en tiempo real nos permite realizar todas las etapas de un sistema de bucle cerrado utilizando métodos de ML y lograr resultados competitivos en nuestra base de datos adquirida mediante un sistema BCI distribuido, económico, portátil y con poca cantidad de canales. Al compararlo con bases de datos públicas, podemos afirmar que somos capaces de enfrentar los desafíos relacionados con la variabilidad, interpretabilidad y tiempo real en sistemas BCI. Sin embargo, persisten desafíos por abordar para para mejorar el rendimiento y exactitud de las BCI. En particular tenemos previsto para investigaciones futuras, i) realizar pruebas utilizando una variedad más amplia de bases de datos públicas de MI; ii) seguir explorando en técnicas de extracción de características, iii) explorar arquitecturas de vanguardia, como por ejemplo los modelos basados en Transformer, como el EEG-transformer; iv) aumentar la densidad de canales para la adquisición de nuestras bases de datos (Texto tomado de la fuente)
  • Item type: Ítem ,
    Diseño y construcción de un banco de pruebas con iluminación multiespectral para el estudio del estado de maduración en aguacates
    (Universidad Nacional de Colombia, 2023) Patiño Martínez, Víctor Alejandro; Gómez-Mendoza, Juan Bernardo; Osorio Londoño, Gustavo Adolfo; Percepción y Control Inteligente - PCI
    La exportación de aguacates en Colombia ha aumentado en los últimos años. Una de las etapas clave del proceso de producción es conocer el grado de madurez del aguacate que se va a cosechar. Existe una correlación entre la materia seca de un aguacate y su esta- do de maduración. Sin embargo, la estimación de la materia seca por medios físicos es un proceso que consume mucho tiempo y conlleva grandes pérdidas. Existen varios estudios sobre la relación entre imágenes multiespectrales de aguacates y su materia seca. Esta tesis presenta los detalles sobre el diseño y la construcción de un sistema de imágenes multiespec- trales basado en Leds. El diseño se dividió en tres partes principales: mecánica, hardware electrónico y firmware. Una vez probado el sistema, se tomaron imágenes de 14 aguacates para obtener una primera aproximación a la estimación de la materia seca, utilizando técni- cas de uso común en reconocimiento de patrones como LDA, distancia de Mahalanobis y mapas auto-organizativos. Nuestros mejores resultados se obtuvieron utilizando la distancia de Mahalanobis, que da un error relativo máximo del 14,77 % (Texto tomado de la fuente)
  • Item type: Ítem ,
    Feature representation frameworks for decoding brain motor imagery patterns
    (Universidad Nacional de Colombia, 2023) Zapata Castaño, Frank Yesid; Castellanos Domínguez, César Germán; Velásquez Martínez, Luisa Fernanda; https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000138411; https://scholar.google.com/citations?user=oNUg-cIAAAAJ&hl=es&authuser=1; Zapata Castaño, Frank Yesid [0000-0003-2214-3355]; https://www.researchgate.net/profile/F-Zapata-Castano; Grupo de Control y Procesamiento Digital de Señales
    The EEG recording records the electrical activity of the brain and measures activity with electrodes on the scalp; This record is the most widely used in the clinical and research fields due to its low cost and high temporal resolution. Due to the good temporal reso lution, Brain-Computer Interfaces (BCI) have been used frequently as a tool to decode brain activity and convert it into commands or instructions that other devices can under stand. The most well-known BCI systems are based on the Motor Imagery(MI) paradigm that corresponds to the imagination of a motor action without execution. That takes ad vantage of the synchronization dynamics of the brain. Event-Related Desynchronization and Synchronization show the channel-wise temporal dynamics related to motor activity. However, ERD/S it shows the temporal dynamics of the MI task, which presents per chan nel as the average energy relative to a segment to identify the onset of an MI intention, demands the application of a large bank of narrowband filters to find dynamic changes, and the assumption of temporal alignment ignores the between-trial temporal variations of neuronal activity. In this work, we present a signal filtering analysis based on the extraction of spatial, spectral, and temporal features that decode brain dynamics in the MI paradigm, such as the estimation of Supervised Temporal Patterns (STP) resulting from the solution of a problem. of generalized eigenvalues, taking into account temporal variations in brain ac tivity. In addition, the signal filtering analysis detects the temporal dynamics, in another case the result of Functional Connectivity (wPLI) is presented to see the spatial relation ship, through frequency and time, as happens with the detailed analysis presented by the ERD/S that is also related to MI tasks in response induced within each trial. Finally, with the extraction of the spatial, frequency, and temporal pattern, the group analysis is carried out, which allows recognition of the common activity, about the neuronal response in the presence of a stimulus, helping in the process of recognizing relevant information. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Diseño de cargador Off-Board para conexión domiciliaria de vehículos eléctricos a nivel nacional y control del fenómeno de burbujeo en inversores electrónicos de potencia
    (Universidad Nacional de Colombia, 2021) Abella Ángel, Anderson Fabian; Angulo García, Fabiola; Morcillo Bastidas, José Daniel; Percepción y Control Inteligente (Pci)
    En esta tesis de maestría se realizan 2 estudios, en el primero de ellos se plantea el diseño de un cargador off-board para vehículos eléctricos afianzado al nivel eléctrico residencial de 120 V en Colombia. Este permite realizar la carga de la batería de alta tensión del vehículo con corriente directa, logrando de esta manera un tiempo de carga menor y una potencia de carga más alta estando desde casa. Para desarrollar esta propuesta se realiza una metodología que va desde el diseño de la inductancia, hasta la selección del capacitor y demás dispositivos de la electrónica de potencia. Los resultados permiten destacar el cumplimiento de los requerimientos internacionales para este tipo de aplicaciones, como lo son: factor de potencia, eficiencia del cargador y distorsión armónica total de la corriente de entrada, sin considerar la inductancia de la red eléctrica y considerándola. El segundo estudio está relacionado con un fenómeno conocido como burbujeo, el cual ha afectado a los convertidores de potencia en general; no obstante, se presenta una estrategia de control que elimina el fenómeno y no requiere un cambio físico del sistema, comprobada en varios inversores de potencia monofásicos, aislados y de puente completo, la cual funciona aumentando la frecuencia de conmutación a un nivel establecido por medio de análisis de señales temporales. En medio de las pruebas se detecta un comportamiento oscilatorio en los diagramas de bifurcaciones donde se varía la frecuencia de conmutación, relacionado con el punto de muestreo establecido en cada sistema y el periodo de la señal de referencia. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Análisis de sistemas de detección e identificación de personas en ambiente de laboratorio utilizando radar y RFID
    (Universidad Nacional de Colombia, 2020) Orjuela Rodríguez, Sebastián; García Álvarez, Julio César; Orjuela Rodríguez, Sebastián [0000-0002-0163-3825]; Propagación Electromagnética Aplicada (Propela)
    En este trabajo de tesis se presenta un análisis de sistemas de identificación, localización y seguimiento de personas. Con el fin de medir el flujo de usuarios en las salas de trabajo del laboratorio de Electricidad y Electrónica de la Universidad Nacional de Colombia - Sede Manizales de forma automatizada. El sistema propuesto consta de tres partes fundamentales: (1) un sistema de radar de onda continua modulado en frecuencia (FM-CW) con arquitectura MISO que opera a una frecuencia de entre 60 y 64 GHz el cual se encarga de la identificación de personas; (2) un Sistema de RFID de UHF con frecuencia de operación de entre 902 y 928 MHz que lee tarjetas RFID de tipo microstrip que se encarga del conteo de usuarios y (3) un algoritmo de IA basado en Lógica Difusa que se encargara´ de relacionar la información recibida del radar y el RFID y con la cual tomaran decisiones que le permitan al Laboratorio hacer una medición real del flujo de usuarios en sus salas y facilitará la presentación de estos al momento de realizar informes de gestión. (Texto tomado de la fuente)
  • Item type: Ítem ,
    EEG-based BCI monitoring framework: Real-time acquisition and visualization from audiovisual stimulation paradigms
    (Universidad Nacional de Colombia, 2022) Cardona Alvarez, Yeison Nolberto; Castellanos Domínguez, César Germán; Álvarez Meza, Andrés Marino; Cardona Alvarez, Yeison Nolberto [0000128391]; Cardona Alvarez, Yeison Nolberto [0000-0002-0425-8880]; Signal processing and recognition group (SPRG)
    The widespread use of neurophysiological signals to develop brain-computer interface (BCI) systems has certainly varied clinical and nonclinical applications. Main implementations in medical issues include: rehabilitation, cognitive state analysis, diagnostics, assistive devices for communication, locomotion and movement. By other hand, there is a bunch of researches that approaches the BCI systems to healthy people in fields like: neuroergonomics, smart homes, neuromarketing and advertising, games, education, entertainment and even security and validation. Not all EEG acquisition systems are capable to use in BCIs systems. Even if the clinic devices are highly accurate, these implementations have a limited, or nonexistent, real-time data flow access; because they mainly use is about diagnostic and offline analysis. Recently, and because of the cheapening prototyping development, there is in the market a set of low-cost embedded systems for electroencephalography (EEG) acquisition, i.e., OpenBCI, InteraXon, Muse, NeuroSky MindWave and Emotiv. All these options usually include a high or low-level software development kit (SDK), that could be open-source or proprietary and will come with a different grade of flexibility (rigid or customizable electrode placement, multiple sampling rates, transmission protocols, wireless, etc). Many of these devices have shown capabilities to handle BCI tasks, but they need a context-specific development to boost their base benefits. Acquiring brain signals is only one task for a BCI system, also it is necessary to carry out a lot of data processing and controlled experiments, concerning this have been specialized software for developers and researchers purpose i.e., BCI2000, Neurobehavioral Systems Presentation, Psychology Software Tools, Inc. ePrime and PsychoPy. All these systems offer greater ease of use through experimenter interfaces, but they can be costly, require high-level programming and technical skills, and usually do not support dedicated data acquisition. For this reason, the acquisition involves the implementation of third party software and drivers; consequently, losing interesting hardware features in favor to support as many devices as possible. To implement a BCI system is an interdisciplinary activity that requires a set of specific and outstanding knowledges about communication systems, signals acquisition, instrumentation, clinical protocols, experiments validation, software development, among others. Besides, in order to perform a real-world experiment, the user must calibrate the specific set of acquisition system, stimuli delivery and data processing stages. Current software approaches try to converge multiple technologies and methodologies to provide general purpose BCI systems. The most popular is the BCI200, which comes with default paradigms but their interface has been pointed out to be not very intuitive and its operation is difficult to understand, although, it is possible to add new paradigms, this include software contributions using their own libraries and do not through a built-int development interface. Other software widely used is the OpenVIBE this one includes a graphical drag-and-drop interface to perform data analysis with an extensive set of pre-defined algorithms. Its synchronous acquisition system is known for not only occasionally frozen the computer but also for adding delays to the streaming of the signals. All these systems handle with an extensive set of compatible devices which may be good at first glance but make that some specific hardware features are not available for compatibility reasons. On the side of the open source hardware, we can find that OpenBCI a flexible option, but with some important lacks. The most important relies on the communication between the computer and the board is not always stable and their graphical user interface (GUI) does not provide the possibility of acquiring data under wich a particular BCI paradigm. Otherwise, their hardware base and SDK features gives to this board a huge potential to implement a complete BCI system comparable with medical grade equipment. With all these factors in mind, we aim to develop a standalone BCI system with the OpenBCI Cyton board that handles the signal acquisition and the stimuli deliver in the same interface, to reduce the needed infrastructure to perform neurophysiological experiments. Alongside a distributed platform to improve the performance, increase the scalability, and reduce the jitter. This software, BCI-Framework, provides the user with a built-in development environment enhanced with a custom API for data interactions, montage context, and markers generation. This environment is full compatible with any Python module and is focused in the generation of real-time visualizations, data analysis and network-based stimuli delivery for the remote presentation of audiovisual cues. This approach converges almost all needed components for BCI researches into a single standalone implementation. In a nutshell, the introduced EEG-based BCI framework comprises the following benefits: i) A portable and cheap acquisition system (hardware) founded on the well-known OpenBCI devices. ii) This approach includes a wireless, e.g., Wi-Fi, communication protocol to couple the EEG data acquisition and event markers synchronization from audiovisual stimulation paradigms. iii) A distributed system is enhanced within this BCI framework to carry out real-time data acquisition and visualization while favoring the inclusion of conventional or user-designed EEG data processing libraries over a Python language environment. In addition, a latency-based quality assessment method is carried out. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Dispositivo de asistencia a la rehabilitación musculo-esquelética de rodilla
    (Universidad Nacional de Colombia, 2022) García Arias, Luís Felipe; Duque Méndez, Néstor Darío; Gaia Grupo de Ambientes Inteligentes Adaptativos
    La respuesta de los músculos en el movimiento durante actividades de la vida diaria y algunas de sus características ---fuerza, agilidad y resistencia--- pueden verse afectadas luego de una lesión, enfermedad o cirugía. Esas alteraciones no tienen tratamiento médico y la rehabilitación es la única opción para devolver la funcionalidad en las extremidades. El profesional de la salud debe establecer un plan de rehabilitación teniendo en cuenta las dimensiones biológica, social y psicológica del paciente, de acuerdo con la ICF. Como parte del plan, debe ser cuantificado frecuentemente el impacto de la terapia en la funcionalidad, determinando progreso o retroceso. Aunque la APTA establece la necesidad de medir la evolución del paciente, la evolución se establece por observación directa del profesional de la salud usualmente, considerando rangos y velocidad de movimiento y dolor percibido. Sin embargo, algunas sesiones se realizan en casa, lo que dificulta el seguimiento del paciente y cuantificar el impacto del plan de rehabilitación. Esta situación se acentúa cuando el paciente no tiene acceso directo a profesionales de la salud debido al lugar donde vive. En este trabajo se desarrolla un dispositivo para asistir la rehabilitación de rodilla. Para tal fin, se desarrolla un sistema de medida inercial y un módulo para la medición de las señales de electromiografía. Aunque en la literatura especializada se pueden encontrar desarrollos que buscan asistir la terapia física, algunos requieren de equipos especializados y no pueden ser usados en casa. Por otro lado, los desarrollos propuestos para ser aplicados en ese entorno carecen de módulos para la evolución del desempeño muscular. Esta medida es valiosa para los terapeutas para establecer cambios en el plan de rehabilitación. Como resultados se presenta el desarrollo de un dispositivo con una baja relación costo-efectividad. Entre los resultados se encuentra el desarrollo de un soporte con el que se busca mejorar la repetibilidad en la ubicación de los electrodos. Entre los trabajos futuros se encuentra la incorporación del dispositivo en un sistema de asistencia y la optimización del firmware para aprovechar las características de los componentes electrónicos. En ese contexto, se incluye el desarrollo de estrategias para informar al paciente y al profesional de la salud sobre el desempeño en las sesiones de terapia. Otros trabajos podrían incluir algoritmos que permitan identificar si el paciente realiza algún tipo de compensación con otras estructuras corporales mientras realiza los ejercicios. (Texto tomado de la fuente)
  • Item type: Ítem ,
    Aplicación de técnicas de preprocesamiento y segmentación de imágenes para el apoyo diagnóstico en la detección de cáncer de próstata
    (Universidad Nacional de Colombia, 2022) Vargas López, Julián David; Gómez-Mendoza, Juan Bernardo; Soft and Hard Applied Computing (SHAC)
    El aprendizaje profundo ha tenido un impacto notable en el análisis de imágenes médicas. Desde clasificar tejidos hasta localizar áreas anormales en una región, herramientas como las redes neuronales convolucionales (CNNs) y sus múltiples arquitecturas han mostrado resultados prometedores en esta área de la medicina. En patología digital, estos modelos neuronales se están convirtiendo cada vez más en una herramienta vital en el apoyo diagnostico y pronóstico para los patólogos. Actualmente, múltiples instituciones médicas utilizan CNNs en sus laboratorios para optimizar el tiempo de búsqueda de regiones anormales en imágenes médicas digitales - como lo son las muestras de biopsias -, generando automáticamente información relevante en el diagnóstico y pronóstico de un paciente. Su aplicabilidad se ha logrado en gran medida gracias a la existencia de habilitadores tecnológicos, como hardware especializado (p.e., procesadores gráficos o GPUs), que permiten manipular y procesar grandes cantidades de datos de manera simultánea. Sin embargo, las GPUs no puede procesar las imágenes en algunos casos debido a su tamaño. Las imágenes histopatológicas son un ejemplo de este tipo de imágenes, donde el tamaño de las imágenes puede ser del orden de hasta 25.000 x 30.000 píxeles. Se han diseñado estrategias que permiten manipular este tipo de imágenes, desde optimizar la forma de entrenar las CNNs hasta dividir la imagen en parches con un tamaño manejable. Sin embargo, analizar la biopsia, elegir las áreas de interés y crear las etiquetas correspondientes, son procesos que se realizan de forma manual y resultan dispendiosos para el especialista. Por lo tanto, es necesario desarrollar nuevas estrategias para apoyar al patólogo en estas tareas. En este documento, se plantean tres metodologías que permiten apoyar al patólogo en el análisis de imágenes histopatológicas de tejido prostático. El primer diseño emplea transformaciones de color que proporcionan información adicional sobre la imagen. Se mostró cómo estas técnicas mejoran y resaltan las estructuras presentes en el tejido (se logra una mejor definición de los núcleos, aumenta el contraste en el estroma y las células epiteliales, etc.). Estas transformaciones de color tienen la ventaja de que su implementación no genera un costo computacional considerable, permitiendo manipular la imagen de forma rápida, incluso en ordenadores que no posean un hardware especializado. El segundo diseño analiza el proceso de segmentación de una imagen con redes neuronales convolucionales. Se expuso el problema que se genera cuando se trata de clasificar estas imágenes dividiéndola en pequeños parches, en donde el tiempo de segmentación por imagen puede llegar a las 24 horas o más. En consecuencia, se diseña una estrategia para mitigar este problema empleando un porcentaje de pixeles de la imagen para segmentarla. Esta técnica permite disminuir el tiempo de segmentación a solo 5 minutos por imagen. Además, se logró demostrar experimentalmente, que la información que se pierde a medida que se disminuye el porcentaje de pixeles es muy pequeña (cerca del 5%), en comparación con el proceso en donde se emplean todos los pixeles de la imagen. Finalmente, nuestro tercer diseño consiste en crear una metodología que permite localizar las áreas sospechosas en imágenes de cáncer de próstata utilizando redes neuronales convolucionales. Empleando los resultados de la etapa anterior, se diseña una red neuronal convolucional que posee una cantidad pequeña de parámetros de entrenamiento (cerca de 50 mil). Esta red realiza dos tareas distintas: segmentar el estroma y segmentar el tejido sospechoso. Uniendo estos dos resultados y descartando los pixeles que pertenecieran al estroma segmentado, se logra localizar zonas sospechosas en imágenes de tejido prostático. Adicionalmente esta red se diseño pensando en el costo computacional que generan algunas redes en el estado del arte, y en el sobredimensionamiento del problema que puede surgir al emplear dichas redes. (Texto tomado de la fuente)