Software de comunicación ocular basado en vocal eyes para pacientes con esclerosis lateral amiotrófica

Miniatura

Autores

Tovar Díaz, Dorian Abad

Director

Niño Vásquez, Luis Fernando

Tipo de contenido

Trabajo de grado - Maestría

Idioma del documento

Español

Fecha de publicación

2023

Título de la revista

ISSN de la revista

Título del volumen

Documentos PDF

Resumen

Los pacientes con esclerosis lateral amiotrófica (ELA) se enfrentan a problemas de comunicación debido a la pérdida de las capacidades del habla y la escritura. Los sistemas de comunicación ocular han surgido como una posible solución, pero su uso presenta retos y limitaciones para el usuario, como el uso de dispositivos de captura muy complejos y costosos. El objetivo de este trabajo es desarrollar un prototipo de software basado en técnicas de visión por computador para mejorar la comunicación de los pacientes con ELA mediante el seguimiento y la clasificación de sus movimientos oculares. Se utiliza la videooculografía para capturar las características oculares, mientras que para la clasificación de los movimientos se seleccionó el modelo de red neuronal convolucional Inception V3. Este modelo se entrenó con un conjunto de imágenes sintéticas generadas con la herramienta UnityEyes. El sistema de comunicación Vocal Eyes se utiliza para traducir los movimientos oculares en el mensaje del paciente. El prototipo logra una precisión del 99 % en la transmisión de cada mensaje, con una tasa de acierto del 99.3 % en los movimientos realizados. Sin embargo, se observan dificultades en la clasificación de los movimientos oculares de la mirada inferior. Este resultado representa un avance significativo en la mejora de la comunicación ocular para pacientes con ELA, respalda la viabilidad de la comunicación ocular de bajo costo y ofrece oportunidades para futuras investigaciones y mejoras en el sistema. (Texto tomado de la fuente)
ilustraciones, diagramas, fotografías

Abstract

Patients with amyotrophic lateral sclerosis (ALS) face communication challenges due to the loss of speech and writing ability. Eye communication systems have emerged as a potential solution, but their use still presents challenges and limitations, such as the use of highly complex and costly capture devices. The aim of this work is to develop a software prototype based on computer vision techniques to improve the communication of ALS patients by monitoring and classifying their eye movements. Video-oculography is used to capture ocular features, while the convolutional neural network model Inception V3 was selected for movement classification. This model was trained with a set of synthetic images generated by the UnityEyes tool. The Vocal Eyes communication system is used to translate the eye movements into the patient’s message. The prototype achieves 99 % accuracy in the transmission of each message, with a 99.3 % success rate in the movements made. However, difficulties are observed in the classification of lower gaze eye movements. This result represents significant progress in improving eye communication for ALS patients, supports the feasibility of low-cost eye communication, and provides opportunity for further research and system improvements.

Descripción Física/Lógica/Digital

Palabras clave

Citación