Diseño de un método de captación de movimientos para el registro, análisis y transmisión de datos a plataformas de rehabilitación robóticas, en un entorno virtual

authorProfile.cvlachttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001636188spa
dc.contributor.advisorMéndez Moreno, Luis Miguel
dc.contributor.advisorGarzón Alvarado, Diego Alexander
dc.contributor.authorPimentel Gutierrez, Carolina
dc.contributor.cvlacPimentel Gutierrez, Carolina [Carolina Pimentel]spa
dc.contributor.googlescholarPimentel Gutierrez, Carolina [Carolina Pimentel-Gutierrez]spa
dc.contributor.orcidPimentel Gutierrez, Carolina [0000-0001-5302-2199]spa
dc.contributor.researchgatePimentel Gutierrez, Carolina [Carolina-Pimentel-Gutierrez]spa
dc.date.accessioned2023-11-27T15:18:29Z
dc.date.available2023-11-27T15:18:29Z
dc.date.issued2023
dc.descriptionilustraciones, diagramas, fotografíasspa
dc.description.abstractEsta investigación muestra el desarrollo de un sistema de teleoperación en tiempo real de un robot NAO (visualizado en un entorno virtual) a través de un sistema de captura de movimiento inercial conocido comercialmente como Perception Neuron. Para alcanzar este objetivo, los datos de movimiento capturados se transmiten desde Axis Neuron (software propio de Perception Neuron) instalado en Windows, hasta el Sistema Operativo Robótico (ROS), utilizando el protocolo de comunicación TCP/IP. Se evidenció una latencia poco significativa (<100ms) así como la transmisión de datos continua a una distancia de máx. 10 m entre el hardware y el software del sistema MoCap. En ROS, se reciben los datos capturados, y una vez tratados, se transfieren al modelo virtual del robot NAO visualizado en 3D con la herramienta Rviz de ROS. Para determinar la posición y orientación del efector final en los brazos se utiliza cinemática inversa numérica por el algoritmo de LMS, mientras que para la imitación de los movimientos de la cadena cinemática de la cabeza y de las piernas se realizó una relación uno-a-uno entre las articulaciones del operador y del robot. El robot NAO se puede clasificar como un Robot de Asistencia Social (En inglés, Socially Assistive Robot [SAR]), un campo de estudio reciente que se interesa por el uso de esta y otras plataformas robóticas en terapias de rehabilitación. Los resultados son prometedores para avanzar en la implementación y fortalecimiento de este sistema con un propósito terapéutico.spa
dc.description.abstractThis research shows the development of a real-time teleoperation system for a NAO robot (visualized in a virtual environment) through an inertial motion capture system known commercially as Perception Neuron. To achieve this goal, the captured movement data is transmitted from Axis Neuron (Perception Neuron's own software) installed on Windows, to the Robotic Operating System (ROS), using the TCP/IP communication protocol. Insignificant latency (<100ms) was evidenced as well as continuous data transmission at a distance of max. 10 m between the hardware and the software of the MoCap System. In ROS, the captured data is received, and once processed, it is transferred to the virtual model of the NAO robot visualized in 3D with the RViz tool of ROS. To determine the position and orientation of the end effector in the arms, inverse kinematics by LMS algorithm is used, while for the imitation of the movements of the kinematic chain of the head and legs, a one-to-one coupling between the operator's joints was performed. and the robot. The NAO robot can be classified as a Socially Assistive Robot (SAR), a recent field of study that is interested in the use of this and other robotic platforms in rehabilitation therapies. The results are promising to advance in the implementation and strengthening of this system with a therapeutic purpose.eng
dc.description.degreelevelMaestríaspa
dc.description.degreenameMagíster en Ingeniería - Ingeniería Mecánicaspa
dc.description.researchareaIngeniería de Diseño y Biomecánicaspa
dc.description.sponsorshipUniversidad Nacional de Colombiaspa
dc.format.extent125 páginasspa
dc.format.mimetypeapplication/pdfspa
dc.identifier.instnameUniversidad Nacional de Colombiaspa
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombiaspa
dc.identifier.repourlhttps://repositorio.unal.edu.co/spa
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/84970
dc.language.isospaspa
dc.publisherUniversidad Nacional de Colombiaspa
dc.publisher.branchUniversidad Nacional de Colombia - Sede Bogotáspa
dc.publisher.facultyFacultad de Ingenieríaspa
dc.publisher.placeBogotá, Colombiaspa
dc.publisher.programBogotá - Ingeniería - Maestría en Ingeniería - Ingeniería Mecánicaspa
dc.relation.referencesL. Wing-Yue Geoffrey , M. Sharaf y N. Goldie, «Human-Robot Interaction for Rehabilitation Robots,» de Robotic Assistive Technologies: Principles and Practice, Boca Raton, CRC Press, Taylor & Francis Group, 2017, pp. 26-27, 40.spa
dc.relation.referencesL. H. Thomas, B. French, J. Coupe, N. McMahon, L. Connell, J. Harrison, C. J. Sutton, S. Tishkovskaya y C. L. Watkins, «Repetitive task training for improving functional ability after stroke (Review ),» Stroke, vol. 48, no 4, pp. 102-103, 2017.spa
dc.relation.referencesJ. W. Burke, M. D. J. McNeill, D. K. Charles, P. J. Morrow, J. H. Crosbie y S. M. McDonough , «Optimising engagement for stroke rehabilitation using serious games,» The Visual Computer, vol. 25, no 12, pp. 1085-1099, 2009.spa
dc.relation.referencesA. Jaume-i-Capó, P. Martínez-Bueso, B. Moyà-Alcover y J. Varona, «Interactive rehabilitation system for improvement of balance therapies in people with cerebral palsy,» IEEE Trans Neural Syst Rehabil Eng., vol. 22, no 2, pp. 419-427, 2014spa
dc.relation.referencesA. Gil-Agudo, I. Dimbwadyo-Terrer, B. Peñasco-Martín, A. de los Reyes-Guzmán, A. Bernal-Sahún y A. Berbel-García, «Experiencia clínica de la aplicación del sistema de realidad TOyRA en la neuro-rehabilitación de pacientes con lesión medular,» Rehabilitación, vol. 46, no 1, pp. 41-48, 2012.spa
dc.relation.referencesP. Wang, . L. Li, M. Yan, F. Ru y Y. Ju , «Repetitive control for the periodic walking training in a gait rehabilitation robot,» Artificial Life and Robotics, vol. 20, no 2, pp. 159- 165, 2015.spa
dc.relation.referencesE. Martinez-Martin, M. Cazorla y S. Orts-Escolano, «Machine Learning Techniques for Assistive Robotics,» MDPI: electronics, vol. 9, no 5, p. 821, 2020.spa
dc.relation.referencesC. Bodine, L. Sliker, M. Marquez, C. Clark, B. Burne y J. Sandstrum, «Social Assistive Robots for Children with Complex Disabilities,» de Robotic Assitive Tecnologies: Principles and Practice, Boca Raton, CRC Press, Taylor & Francis Group, 2017, pp. 263, 295.spa
dc.relation.referencesR. Baker, «Gait analysis methods in rehabilitation,» Journal of NeuroEngineering and Rehabilitation, vol. 3, no 4, pp. 1-7, 2006.spa
dc.relation.referencesR. B. Davis III, S. Õunpuu, D. Tyburski y J. R. Gage, «A gait analysis data collection and reduction technique,» Human Movement Science, vol. 10, no 5, pp. 575-487, 1991.spa
dc.relation.referencesL. L. Gómez Echeverry, A. M. Jaramillo Henao, M. A. Ruiz Molina, S. . M. Velásquez Restrepo, C. A. Páramo Velásquez y G. J. Silva Bolívar, «Human motion capture and analysis systems: a systematic review,» PROSPECTIVA Vol. 16 - No. 2, pp. 24-34, 2018.spa
dc.relation.referencesP. Kopniak, «Motion capture using multiple Kinect controllers,» Przeglad. Elektrotechniczny, vol. 91, no 8, pp. 26-29, 2015.spa
dc.relation.referencesB. Gabbasov, I. Danilov, I. Afanasyev y E. Magid, «Toward a human- like biped robot gait: Biomechanical analysis of human locomo- tion recorded by Kinect-based Motion Capture system. 2015 - 10th International Symposium on Mechatronics and its Applications.,» 10th International Symposium on Mechatronics and its Applications (ISMA), pp. 8-13, 2015.spa
dc.relation.referencesS. Elbeleidy, T. Mott y T. Williams, «Practical, Ethical, and Overlooked: Teleoperated Socially Assistive Robots in the Quest for Autonomy,» 17th ACM/IEEE International Conference on Human-Robot Interaction (HRI), 2022.spa
dc.relation.referencesJ. Koenemann, F. Burget y M. Bennewitz, «Real-time Imitation of Human Whole-Body Motions by Humanoids,» IEEE International Conference on Robotics and Automation (ICRA), 2014.spa
dc.relation.referencesG. Emre Cemal, C. YuJung y K. ChangHwan , «Imitation of Human Upper-Body Motions by Humanoid Robots,» 16th International Conference on Ubiquitous Robots (UR), p. 24, 2019.spa
dc.relation.referencesB. M. Lütjens, «Real-Time Teleoperation of Industrial Robots with the Motion Capture System Perception Neuron,» Technische Universität München, Munich, 2017.spa
dc.relation.referencesJ. C. Pulido, C. Suárez-Mejías, J. C. González, A. Dueñas Ruiz, P. Ferrand Ferri, M. E. Martínez Sahuquillo, C. Echevarría Ruiz De Vargas, P. Infante-Cossio y C. L. Parra Calderón, «A Socially Assistive Robotic Platform for Upper-Limb Rehabilitation: A Longitudinal Study With Pediatric Patients,» IEEE Robotics & Automation Magazine, vol. 26, no 2, pp. 24-39, 2019.spa
dc.relation.referencesC. Girard, D. Calderón de León, A. Arafat Lemus, V. Ferman y J. Fajardo, «A Motion Mapping System for Humanoids that Provides Immersive Teleprescence Experiences,» 6th International Conference on Mechatronics and Robotics Engineering (ICMRE), 2020.spa
dc.relation.referencesJ. C. Cerón, M. S. Haque Sunny , B. Brahmi, L. M. Mendez, R. Fareh, H. U. Ahmed y M. H. Rahman, «A Novel Multi-Modal Teleoperation of a Humanoid Assistive Robot with Real-Time Motion Mimic,» Micromachines, vol. 14 , no 2, p. 461, 2023.spa
dc.relation.referencesC. Stanton, A. Bogdanovych y E. Ratanasena, «Teleoperation of a humanoid robot using full-body motion capture, example movements, and machine learning,» Proceedings of Australasian Conference on Robotics and Automation, 3-5 Dec 2012, 2012.spa
dc.relation.referencesI. Rodriguez, A. Astigarraga, E. Jauregi, E. Ruiz y E. Lazcano, «Humanizing NAO robot teleoperation using ROS,» 14th IEEE-RAS International Conference on Humanoid Robots (Humanoids), 2014.spa
dc.relation.referencesM. J. Matarić, J. Eriksson, D. J. Feil-Seifer y C. J. Winstein, «Socially assistive robotics for post-stroke rehabilitation,» Journal of NeuroEngineering and Rehabilitation, Bio Med Central, vol. 4, no 5, pp. 1-9, 2007.spa
dc.relation.referencesS. Matiz y A. De La Barrera, Interviewees, Grabación del Webinar- Robot NAO como colaborador terapéutico educativo y social. [Entrevista]. 17 abril 2023.spa
dc.relation.referencesHospital Militar, «Laboratorio de Innovación INNLAB,» 03 febrero 2022. [En línea]. Available: https://www.hospitalmilitar.gov.co/index.php?idcategoria=70789. [Último acceso: 19 junio 2023].spa
dc.relation.referencesO. J. Perdomo Charry, H. Bernal, Á. D. Orjuela, S. Cadavid Espinha, O. Müller, K. Aguia Rojas y L. M. Leal Villamizar, «'Robins' enseña el español a niños y niñas sordos,» Revista Divilgación Científica. Ciencia y Tecnología, no 6, pp. pp. 01-06, 2022.spa
dc.relation.referencesK. Darvish, L. Penco, J. Ramos, R. Cisneros, J. Pratt, E. Yoshida, S. Ivaldi y D. Pucci, «Teleoperation of Humanoid Robots: A Survey,» IEEE Transactions on Robotics, pp. 1-22, 2023.spa
dc.relation.referencesDANE, «Discapacidad,» Noviembre 2020. [En línea]. Available: https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y- poblacion/discapacidad. [Último acceso: 27 julio 2023].spa
dc.relation.referencesWorld Health Organization, «Rehabilitation 2030 Initiative,» World Health Organization, [En línea]. Available: https://www.who.int/initiatives/rehabilitation-2030. [Último acceso: 27 julio 2023].spa
dc.relation.referencesJ. Valčík, «Similarity Models for Human Motion Data,» Masaryk University, Brno, 2016.spa
dc.relation.referencesD. Bravo, C. Rengifo y W. Agredo, «Comparison of two Motion Capture Systems by means of joint Trajectories of human gait,» Revista mexicana de ingeniería biomédica, vol. 37, no 2, p. 55, 2016.spa
dc.relation.referencesNoitom Limited, Axis Neuron User Guide, Miami, 2020.spa
dc.relation.referencesNoitom Limited, Axis Neuron User Manual V3.8.1.5, 2023.spa
dc.relation.referencesUniversity of Wisconsin-Madison, «Biovision BVH,» University of Wisconsin-Madison, 2023. [En línea]. Available: https://research.cs.wisc.edu/graphics/Courses/cs-838- 1999/Jeff/BVH.html. [Último acceso: 19 junio 2023].spa
dc.relation.referencesR. Sers, S. Forrester, . E. Moss, S. Ward, J. Ma y M. Zecca, «Validity of the Perception Neuron inertial motion capture system for upper body motion analysis,» Measurement, vol. 149, no 1, p. 9, 2019.spa
dc.relation.referencesD. Bauer, Rehabilitación : enfoque integral : principios prácticos, Barcelona: Masson Salvat Medicina, Ediciones científicas y técnicas S.A.S., 1992.spa
dc.relation.referencesC. Pimentel, F. E. Pinchao , L. C. Rodriguez y R. A. Espinosa, «Ludic technology for the rehabilitation of upper limb in young people,» Visión Electrónica, pp. 215-225, 2018.spa
dc.relation.referencesMinsalud, «Política Pública Nacional de Discapacidad e Inclusión 2013-2022,» Julio 2020. [En línea]. Available: https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/politica- publica-discapacidad-2013-2022.pdf. [Último acceso: 17 junio 2023].spa
dc.relation.referencesM. M. Matheus y A. Ríos Rincón, «Technology in Rehabilitation: A Conceptual Approach,» Rev. Cienc. Salud. Bogotá (Colombia), vol. 4, no 1, pp. 98-108, 2006.spa
dc.relation.referencesJ. Reswick, «What is Rehabilitation Engineering?,» Ann. Rev. Rehabilitation , vol. 2, 1982.spa
dc.relation.referencesJ. A. Acevedo Londoño, E. Caicedo Bravo y J. F. Castillo García, «Application of robotics rehabilitation technologies in children with upper limb disabilities,» Revista de la Universidad Industrial de Santander. Salud, vol. 49, núm. 1, pp. 103-114, 2017.spa
dc.relation.referencesA. M. Norjasween, F. A. khtar Hanapiah, R. A. Abdul Rahman y H. Yussof, «Emergence of Socially Assistive Robotics in Rehabilitation for Children with Cerebral Palsy: A Review,» International Journal of Advanced Robotic Systems, pp. 1-7, 2016.spa
dc.relation.referencesP. Encarnação, «Fundamentals of Robotic Assistive Technologies,» de Robotic Assistive Technologies: Principles and Practice, Boca Raton, CRC Press, 2019, pp. 1- 25.spa
dc.relation.referencesS. Fojtu, M. Havlena y T. Pajdla, «Nao Robot Localization and Navigation Using Fusion of Odometry and Visual Sensor Data,» Center for Machine Perception, Department of Cybernetics, FEE, CTU in Prague, vol. 121, nº 35, 2012.spa
dc.relation.referencesRevista de Robots, «ROBOT NAO PARA EMPRESA Y EDUCACIÓN,» Revista de Robots, 8 junio 2023. [En línea]. Available: https://revistaderobots.com/robots-y-robotica/robot-nao-caracteristicas-y-precio/?cn-reloaded=1. [Último acceso: 2023 junio 24].spa
dc.relation.referencesROS wiki, «ROS.org,» 18 agosto 2021. [En línea]. Available: http://wiki.ros.org/es/ROS/Introduccion#:~:text=ROS%20es%20una%20estructura%20distribuida,ser%20intercambiados%2C%20compartidos%20y%20distribuidos.. [Último acceso: 2023 junio 24].spa
dc.relation.referencesJ. I. L. Aya y D. F. Romero Ibañez, «Simulación de un robot hexápodo con ros y gazebo,» Universidad Jorge Tadeo Lozano, Bogotá, 2020.spa
dc.relation.referencesROS wiki, «ROS.org,» ROS wiki, 10 febrero 2021. [En línea]. Available: http://wiki.ros.org/es/ROS/Conceptos. [Último acceso: 24 junio 2023].spa
dc.relation.referencesT. Foote, «tf: The transform library,» IEEE Conference on Technologies for Practical Robot Applications (TePRA), pp. 1-6, 2013.spa
dc.relation.referencesROS wiki, «ROS.org,» ROS wiki, 02 octubre 2017. [En línea]. Available: http://wiki.ros.org/tf. [Último acceso: 2023 junio 24].spa
dc.relation.referencesB. Lutjens, «perc-neuron-ros-ur10,» 2019. [En línea]. Available: https://github.com/blutjens/perc_neuron_ros_ur10. [Último acceso: 19 Noviembre 2021].spa
dc.relation.referencesOpen Robotics, «Open Robotics,» 2019. [En línea]. Available: http://wiki.ros.org/nao. [Último acceso: 16 Febrero 2022].spa
dc.relation.referencesNoitom Limited, «Perception Neuron,» Noitom Limited, 2023. [En línea]. Available: https://neuronmocap.com/pages/perception-neuron-studio-system. [Último acceso: 19 Junio 2023].spa
dc.relation.referencesNoitom Limited, «Perception Neuron,» Noitom Limited, 2023. [En línea]. Available: https://neuronmocap.com/pages/mocap-api. [Último acceso: 17 Junio 2023].spa
dc.relation.referencesP. Corke, «Kinematics,» Git Hub, 23 Enero 2021. [En línea]. Available: https://github.com/petercorke/robotics-toolbox-python/wiki/Kinematics. [Último acceso: 2023 noviembre 07].spa
dc.relation.referencesP. Corke, «Robot.ikine_LM,» Git Hub, [En línea]. Available: https://petercorke.github.io/robotics-toolbox-python/IK/stubs/roboticstoolbox.robot.Robot.Robot.ikine_LM.html. [Último acceso: 2023 noviembre 06].spa
dc.relation.referencesAldebaran, «NAO Joints,» Aldebaran, [En línea]. Available: http://doc.aldebaran.com/2-4/family/robots/joints_robot.html. [Último acceso: 28 julio 2023].spa
dc.relation.referencesM. Turp, J. C. González y F. Fernández, «Developing a Robot-Guided Interactive Simon Game for Physical and Cognitive Training,» International Journal of Humanoid Robotics, vol. 16, nº 01, pp. 1-25, 2019.spa
dc.relation.referencesI. Almetwally y M. Mallem, «Real-time Tele-operation and Tele-walking of Humanoid Robot Nao using Kinect Depth Camera,» 10th IEEE international conference on networking, sensing and control (icnsc), pp. 1-4, 2013.spa
dc.relation.referencesC. Gu, W. Lin, X. He, Z. Lei y M. Zhang, «IMU-based motion capture system for rehabilitation applications: A systematic review,» Biomimetic Intelligence and Robotics, vol. 3, nº 2, pp. 1-13, 2023.spa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccessspa
dc.rights.licenseAtribución-NoComercial 4.0 Internacionalspa
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/spa
dc.subject.lembTecnología
dc.subject.lembTecnology
dc.subject.lembCiencia y tecnología
dc.subject.proposalCaptura de movimientospa
dc.subject.proposalPerception Neuroneng
dc.subject.proposalRobot de Asistencia Socialspa
dc.subject.proposalRobot humanoidespa
dc.subject.proposalRobot NAOspa
dc.subject.proposalTeleoperaciónspa
dc.subject.proposalROSeng
dc.subject.proposalMotion captureeng
dc.subject.proposalSocially Assistive Roboticseng
dc.subject.proposalHumanoid roboteng
dc.subject.proposalNAO roboteng
dc.subject.proposalTeleoperationeng
dc.titleDiseño de un método de captación de movimientos para el registro, análisis y transmisión de datos a plataformas de rehabilitación robóticas, en un entorno virtualspa
dc.title.translatedDevelopment of a motion capture method for the recording, analysis and transmission of data to robotic rehabilitation platforms in a virtual environment.eng
dc.typeTrabajo de grado - Maestríaspa
dc.type.coarhttp://purl.org/coar/resource_type/c_bdccspa
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aaspa
dc.type.contentTextspa
dc.type.driverinfo:eu-repo/semantics/masterThesisspa
dc.type.redcolhttp://purl.org/redcol/resource_type/TMspa
dc.type.versioninfo:eu-repo/semantics/acceptedVersionspa
dcterms.audience.professionaldevelopmentEstudiantesspa
dcterms.audience.professionaldevelopmentInvestigadoresspa
dcterms.audience.professionaldevelopmentMaestrosspa
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2spa
oaire.awardtitleDiseño de un método de captación de movimientos para el registro, análisis y transmisión de datos a plataformas de rehabilitación robóticas, en un entorno virtualspa

Archivos

Bloque original

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
1082129301.2023.pdf
Tamaño:
4.92 MB
Formato:
Adobe Portable Document Format
Descripción:
Tesis de Maestría en Ingeniería - Ingeniería Mecánica

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
5.74 KB
Formato:
Item-specific license agreed upon to submission
Descripción: