Mostrar el registro sencillo del documento

dc.rights.licenseAtribución-NoComercial 4.0 Internacional
dc.contributor.advisorMéndez Moreno, Luis Miguel
dc.contributor.advisorGarzón Alvarado, Diego Alexander
dc.contributor.authorPimentel Gutierrez, Carolina
dc.date.accessioned2023-11-27T15:18:29Z
dc.date.available2023-11-27T15:18:29Z
dc.date.issued2023
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/84970
dc.descriptionilustraciones, diagramas, fotografías
dc.description.abstractEsta investigación muestra el desarrollo de un sistema de teleoperación en tiempo real de un robot NAO (visualizado en un entorno virtual) a través de un sistema de captura de movimiento inercial conocido comercialmente como Perception Neuron. Para alcanzar este objetivo, los datos de movimiento capturados se transmiten desde Axis Neuron (software propio de Perception Neuron) instalado en Windows, hasta el Sistema Operativo Robótico (ROS), utilizando el protocolo de comunicación TCP/IP. Se evidenció una latencia poco significativa (<100ms) así como la transmisión de datos continua a una distancia de máx. 10 m entre el hardware y el software del sistema MoCap. En ROS, se reciben los datos capturados, y una vez tratados, se transfieren al modelo virtual del robot NAO visualizado en 3D con la herramienta Rviz de ROS. Para determinar la posición y orientación del efector final en los brazos se utiliza cinemática inversa numérica por el algoritmo de LMS, mientras que para la imitación de los movimientos de la cadena cinemática de la cabeza y de las piernas se realizó una relación uno-a-uno entre las articulaciones del operador y del robot. El robot NAO se puede clasificar como un Robot de Asistencia Social (En inglés, Socially Assistive Robot [SAR]), un campo de estudio reciente que se interesa por el uso de esta y otras plataformas robóticas en terapias de rehabilitación. Los resultados son prometedores para avanzar en la implementación y fortalecimiento de este sistema con un propósito terapéutico.
dc.description.abstractThis research shows the development of a real-time teleoperation system for a NAO robot (visualized in a virtual environment) through an inertial motion capture system known commercially as Perception Neuron. To achieve this goal, the captured movement data is transmitted from Axis Neuron (Perception Neuron's own software) installed on Windows, to the Robotic Operating System (ROS), using the TCP/IP communication protocol. Insignificant latency (<100ms) was evidenced as well as continuous data transmission at a distance of max. 10 m between the hardware and the software of the MoCap System. In ROS, the captured data is received, and once processed, it is transferred to the virtual model of the NAO robot visualized in 3D with the RViz tool of ROS. To determine the position and orientation of the end effector in the arms, inverse kinematics by LMS algorithm is used, while for the imitation of the movements of the kinematic chain of the head and legs, a one-to-one coupling between the operator's joints was performed. and the robot. The NAO robot can be classified as a Socially Assistive Robot (SAR), a recent field of study that is interested in the use of this and other robotic platforms in rehabilitation therapies. The results are promising to advance in the implementation and strengthening of this system with a therapeutic purpose.
dc.description.sponsorshipUniversidad Nacional de Colombia
dc.format.extent125 páginas
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/
dc.titleDiseño de un método de captación de movimientos para el registro, análisis y transmisión de datos a plataformas de rehabilitación robóticas, en un entorno virtual
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.publisher.programBogotá - Ingeniería - Maestría en Ingeniería - Ingeniería Mecánica
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Ingeniería - Ingeniería Mecánica
dc.description.researchareaIngeniería de Diseño y Biomecánica
dc.identifier.instnameUniversidad Nacional de Colombia
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombia
dc.identifier.repourlhttps://repositorio.unal.edu.co/
dc.publisher.facultyFacultad de Ingeniería
dc.publisher.placeBogotá, Colombia
dc.publisher.branchUniversidad Nacional de Colombia - Sede Bogotá
dc.relation.referencesL. Wing-Yue Geoffrey , M. Sharaf y N. Goldie, «Human-Robot Interaction for Rehabilitation Robots,» de Robotic Assistive Technologies: Principles and Practice, Boca Raton, CRC Press, Taylor & Francis Group, 2017, pp. 26-27, 40.
dc.relation.referencesL. H. Thomas, B. French, J. Coupe, N. McMahon, L. Connell, J. Harrison, C. J. Sutton, S. Tishkovskaya y C. L. Watkins, «Repetitive task training for improving functional ability after stroke (Review ),» Stroke, vol. 48, no 4, pp. 102-103, 2017.
dc.relation.referencesJ. W. Burke, M. D. J. McNeill, D. K. Charles, P. J. Morrow, J. H. Crosbie y S. M. McDonough , «Optimising engagement for stroke rehabilitation using serious games,» The Visual Computer, vol. 25, no 12, pp. 1085-1099, 2009.
dc.relation.referencesA. Jaume-i-Capó, P. Martínez-Bueso, B. Moyà-Alcover y J. Varona, «Interactive rehabilitation system for improvement of balance therapies in people with cerebral palsy,» IEEE Trans Neural Syst Rehabil Eng., vol. 22, no 2, pp. 419-427, 2014
dc.relation.referencesA. Gil-Agudo, I. Dimbwadyo-Terrer, B. Peñasco-Martín, A. de los Reyes-Guzmán, A. Bernal-Sahún y A. Berbel-García, «Experiencia clínica de la aplicación del sistema de realidad TOyRA en la neuro-rehabilitación de pacientes con lesión medular,» Rehabilitación, vol. 46, no 1, pp. 41-48, 2012.
dc.relation.referencesP. Wang, . L. Li, M. Yan, F. Ru y Y. Ju , «Repetitive control for the periodic walking training in a gait rehabilitation robot,» Artificial Life and Robotics, vol. 20, no 2, pp. 159- 165, 2015.
dc.relation.referencesE. Martinez-Martin, M. Cazorla y S. Orts-Escolano, «Machine Learning Techniques for Assistive Robotics,» MDPI: electronics, vol. 9, no 5, p. 821, 2020.
dc.relation.referencesC. Bodine, L. Sliker, M. Marquez, C. Clark, B. Burne y J. Sandstrum, «Social Assistive Robots for Children with Complex Disabilities,» de Robotic Assitive Tecnologies: Principles and Practice, Boca Raton, CRC Press, Taylor & Francis Group, 2017, pp. 263, 295.
dc.relation.referencesR. Baker, «Gait analysis methods in rehabilitation,» Journal of NeuroEngineering and Rehabilitation, vol. 3, no 4, pp. 1-7, 2006.
dc.relation.referencesR. B. Davis III, S. Õunpuu, D. Tyburski y J. R. Gage, «A gait analysis data collection and reduction technique,» Human Movement Science, vol. 10, no 5, pp. 575-487, 1991.
dc.relation.referencesL. L. Gómez Echeverry, A. M. Jaramillo Henao, M. A. Ruiz Molina, S. . M. Velásquez Restrepo, C. A. Páramo Velásquez y G. J. Silva Bolívar, «Human motion capture and analysis systems: a systematic review,» PROSPECTIVA Vol. 16 - No. 2, pp. 24-34, 2018.
dc.relation.referencesP. Kopniak, «Motion capture using multiple Kinect controllers,» Przeglad. Elektrotechniczny, vol. 91, no 8, pp. 26-29, 2015.
dc.relation.referencesB. Gabbasov, I. Danilov, I. Afanasyev y E. Magid, «Toward a human- like biped robot gait: Biomechanical analysis of human locomo- tion recorded by Kinect-based Motion Capture system. 2015 - 10th International Symposium on Mechatronics and its Applications.,» 10th International Symposium on Mechatronics and its Applications (ISMA), pp. 8-13, 2015.
dc.relation.referencesS. Elbeleidy, T. Mott y T. Williams, «Practical, Ethical, and Overlooked: Teleoperated Socially Assistive Robots in the Quest for Autonomy,» 17th ACM/IEEE International Conference on Human-Robot Interaction (HRI), 2022.
dc.relation.referencesJ. Koenemann, F. Burget y M. Bennewitz, «Real-time Imitation of Human Whole-Body Motions by Humanoids,» IEEE International Conference on Robotics and Automation (ICRA), 2014.
dc.relation.referencesG. Emre Cemal, C. YuJung y K. ChangHwan , «Imitation of Human Upper-Body Motions by Humanoid Robots,» 16th International Conference on Ubiquitous Robots (UR), p. 24, 2019.
dc.relation.referencesB. M. Lütjens, «Real-Time Teleoperation of Industrial Robots with the Motion Capture System Perception Neuron,» Technische Universität München, Munich, 2017.
dc.relation.referencesJ. C. Pulido, C. Suárez-Mejías, J. C. González, A. Dueñas Ruiz, P. Ferrand Ferri, M. E. Martínez Sahuquillo, C. Echevarría Ruiz De Vargas, P. Infante-Cossio y C. L. Parra Calderón, «A Socially Assistive Robotic Platform for Upper-Limb Rehabilitation: A Longitudinal Study With Pediatric Patients,» IEEE Robotics & Automation Magazine, vol. 26, no 2, pp. 24-39, 2019.
dc.relation.referencesC. Girard, D. Calderón de León, A. Arafat Lemus, V. Ferman y J. Fajardo, «A Motion Mapping System for Humanoids that Provides Immersive Teleprescence Experiences,» 6th International Conference on Mechatronics and Robotics Engineering (ICMRE), 2020.
dc.relation.referencesJ. C. Cerón, M. S. Haque Sunny , B. Brahmi, L. M. Mendez, R. Fareh, H. U. Ahmed y M. H. Rahman, «A Novel Multi-Modal Teleoperation of a Humanoid Assistive Robot with Real-Time Motion Mimic,» Micromachines, vol. 14 , no 2, p. 461, 2023.
dc.relation.referencesC. Stanton, A. Bogdanovych y E. Ratanasena, «Teleoperation of a humanoid robot using full-body motion capture, example movements, and machine learning,» Proceedings of Australasian Conference on Robotics and Automation, 3-5 Dec 2012, 2012.
dc.relation.referencesI. Rodriguez, A. Astigarraga, E. Jauregi, E. Ruiz y E. Lazcano, «Humanizing NAO robot teleoperation using ROS,» 14th IEEE-RAS International Conference on Humanoid Robots (Humanoids), 2014.
dc.relation.referencesM. J. Matarić, J. Eriksson, D. J. Feil-Seifer y C. J. Winstein, «Socially assistive robotics for post-stroke rehabilitation,» Journal of NeuroEngineering and Rehabilitation, Bio Med Central, vol. 4, no 5, pp. 1-9, 2007.
dc.relation.referencesS. Matiz y A. De La Barrera, Interviewees, Grabación del Webinar- Robot NAO como colaborador terapéutico educativo y social. [Entrevista]. 17 abril 2023.
dc.relation.referencesHospital Militar, «Laboratorio de Innovación INNLAB,» 03 febrero 2022. [En línea]. Available: https://www.hospitalmilitar.gov.co/index.php?idcategoria=70789. [Último acceso: 19 junio 2023].
dc.relation.referencesO. J. Perdomo Charry, H. Bernal, Á. D. Orjuela, S. Cadavid Espinha, O. Müller, K. Aguia Rojas y L. M. Leal Villamizar, «'Robins' enseña el español a niños y niñas sordos,» Revista Divilgación Científica. Ciencia y Tecnología, no 6, pp. pp. 01-06, 2022.
dc.relation.referencesK. Darvish, L. Penco, J. Ramos, R. Cisneros, J. Pratt, E. Yoshida, S. Ivaldi y D. Pucci, «Teleoperation of Humanoid Robots: A Survey,» IEEE Transactions on Robotics, pp. 1-22, 2023.
dc.relation.referencesDANE, «Discapacidad,» Noviembre 2020. [En línea]. Available: https://www.dane.gov.co/index.php/estadisticas-por-tema/demografia-y- poblacion/discapacidad. [Último acceso: 27 julio 2023].
dc.relation.referencesWorld Health Organization, «Rehabilitation 2030 Initiative,» World Health Organization, [En línea]. Available: https://www.who.int/initiatives/rehabilitation-2030. [Último acceso: 27 julio 2023].
dc.relation.referencesJ. Valčík, «Similarity Models for Human Motion Data,» Masaryk University, Brno, 2016.
dc.relation.referencesD. Bravo, C. Rengifo y W. Agredo, «Comparison of two Motion Capture Systems by means of joint Trajectories of human gait,» Revista mexicana de ingeniería biomédica, vol. 37, no 2, p. 55, 2016.
dc.relation.referencesNoitom Limited, Axis Neuron User Guide, Miami, 2020.
dc.relation.referencesNoitom Limited, Axis Neuron User Manual V3.8.1.5, 2023.
dc.relation.referencesUniversity of Wisconsin-Madison, «Biovision BVH,» University of Wisconsin-Madison, 2023. [En línea]. Available: https://research.cs.wisc.edu/graphics/Courses/cs-838- 1999/Jeff/BVH.html. [Último acceso: 19 junio 2023].
dc.relation.referencesR. Sers, S. Forrester, . E. Moss, S. Ward, J. Ma y M. Zecca, «Validity of the Perception Neuron inertial motion capture system for upper body motion analysis,» Measurement, vol. 149, no 1, p. 9, 2019.
dc.relation.referencesD. Bauer, Rehabilitación : enfoque integral : principios prácticos, Barcelona: Masson Salvat Medicina, Ediciones científicas y técnicas S.A.S., 1992.
dc.relation.referencesC. Pimentel, F. E. Pinchao , L. C. Rodriguez y R. A. Espinosa, «Ludic technology for the rehabilitation of upper limb in young people,» Visión Electrónica, pp. 215-225, 2018.
dc.relation.referencesMinsalud, «Política Pública Nacional de Discapacidad e Inclusión 2013-2022,» Julio 2020. [En línea]. Available: https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/politica- publica-discapacidad-2013-2022.pdf. [Último acceso: 17 junio 2023].
dc.relation.referencesM. M. Matheus y A. Ríos Rincón, «Technology in Rehabilitation: A Conceptual Approach,» Rev. Cienc. Salud. Bogotá (Colombia), vol. 4, no 1, pp. 98-108, 2006.
dc.relation.referencesJ. Reswick, «What is Rehabilitation Engineering?,» Ann. Rev. Rehabilitation , vol. 2, 1982.
dc.relation.referencesJ. A. Acevedo Londoño, E. Caicedo Bravo y J. F. Castillo García, «Application of robotics rehabilitation technologies in children with upper limb disabilities,» Revista de la Universidad Industrial de Santander. Salud, vol. 49, núm. 1, pp. 103-114, 2017.
dc.relation.referencesA. M. Norjasween, F. A. khtar Hanapiah, R. A. Abdul Rahman y H. Yussof, «Emergence of Socially Assistive Robotics in Rehabilitation for Children with Cerebral Palsy: A Review,» International Journal of Advanced Robotic Systems, pp. 1-7, 2016.
dc.relation.referencesP. Encarnação, «Fundamentals of Robotic Assistive Technologies,» de Robotic Assistive Technologies: Principles and Practice, Boca Raton, CRC Press, 2019, pp. 1- 25.
dc.relation.referencesS. Fojtu, M. Havlena y T. Pajdla, «Nao Robot Localization and Navigation Using Fusion of Odometry and Visual Sensor Data,» Center for Machine Perception, Department of Cybernetics, FEE, CTU in Prague, vol. 121, nº 35, 2012.
dc.relation.referencesRevista de Robots, «ROBOT NAO PARA EMPRESA Y EDUCACIÓN,» Revista de Robots, 8 junio 2023. [En línea]. Available: https://revistaderobots.com/robots-y-robotica/robot-nao-caracteristicas-y-precio/?cn-reloaded=1. [Último acceso: 2023 junio 24].
dc.relation.referencesROS wiki, «ROS.org,» 18 agosto 2021. [En línea]. Available: http://wiki.ros.org/es/ROS/Introduccion#:~:text=ROS%20es%20una%20estructura%20distribuida,ser%20intercambiados%2C%20compartidos%20y%20distribuidos.. [Último acceso: 2023 junio 24].
dc.relation.referencesJ. I. L. Aya y D. F. Romero Ibañez, «Simulación de un robot hexápodo con ros y gazebo,» Universidad Jorge Tadeo Lozano, Bogotá, 2020.
dc.relation.referencesROS wiki, «ROS.org,» ROS wiki, 10 febrero 2021. [En línea]. Available: http://wiki.ros.org/es/ROS/Conceptos. [Último acceso: 24 junio 2023].
dc.relation.referencesT. Foote, «tf: The transform library,» IEEE Conference on Technologies for Practical Robot Applications (TePRA), pp. 1-6, 2013.
dc.relation.referencesROS wiki, «ROS.org,» ROS wiki, 02 octubre 2017. [En línea]. Available: http://wiki.ros.org/tf. [Último acceso: 2023 junio 24].
dc.relation.referencesB. Lutjens, «perc-neuron-ros-ur10,» 2019. [En línea]. Available: https://github.com/blutjens/perc_neuron_ros_ur10. [Último acceso: 19 Noviembre 2021].
dc.relation.referencesOpen Robotics, «Open Robotics,» 2019. [En línea]. Available: http://wiki.ros.org/nao. [Último acceso: 16 Febrero 2022].
dc.relation.referencesNoitom Limited, «Perception Neuron,» Noitom Limited, 2023. [En línea]. Available: https://neuronmocap.com/pages/perception-neuron-studio-system. [Último acceso: 19 Junio 2023].
dc.relation.referencesNoitom Limited, «Perception Neuron,» Noitom Limited, 2023. [En línea]. Available: https://neuronmocap.com/pages/mocap-api. [Último acceso: 17 Junio 2023].
dc.relation.referencesP. Corke, «Kinematics,» Git Hub, 23 Enero 2021. [En línea]. Available: https://github.com/petercorke/robotics-toolbox-python/wiki/Kinematics. [Último acceso: 2023 noviembre 07].
dc.relation.referencesP. Corke, «Robot.ikine_LM,» Git Hub, [En línea]. Available: https://petercorke.github.io/robotics-toolbox-python/IK/stubs/roboticstoolbox.robot.Robot.Robot.ikine_LM.html. [Último acceso: 2023 noviembre 06].
dc.relation.referencesAldebaran, «NAO Joints,» Aldebaran, [En línea]. Available: http://doc.aldebaran.com/2-4/family/robots/joints_robot.html. [Último acceso: 28 julio 2023].
dc.relation.referencesM. Turp, J. C. González y F. Fernández, «Developing a Robot-Guided Interactive Simon Game for Physical and Cognitive Training,» International Journal of Humanoid Robotics, vol. 16, nº 01, pp. 1-25, 2019.
dc.relation.referencesI. Almetwally y M. Mallem, «Real-time Tele-operation and Tele-walking of Humanoid Robot Nao using Kinect Depth Camera,» 10th IEEE international conference on networking, sensing and control (icnsc), pp. 1-4, 2013.
dc.relation.referencesC. Gu, W. Lin, X. He, Z. Lei y M. Zhang, «IMU-based motion capture system for rehabilitation applications: A systematic review,» Biomimetic Intelligence and Robotics, vol. 3, nº 2, pp. 1-13, 2023.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.lembTecnología
dc.subject.lembTecnology
dc.subject.lembCiencia y tecnología
dc.subject.proposalCaptura de movimiento
dc.subject.proposalPerception Neuron
dc.subject.proposalRobot de Asistencia Social
dc.subject.proposalRobot humanoide
dc.subject.proposalRobot NAO
dc.subject.proposalTeleoperación
dc.subject.proposalROS
dc.subject.proposalMotion capture
dc.subject.proposalSocially Assistive Robotics
dc.subject.proposalHumanoid robot
dc.subject.proposalNAO robot
dc.subject.proposalTeleoperation
dc.title.translatedDevelopment of a motion capture method for the recording, analysis and transmission of data to robotic rehabilitation platforms in a virtual environment.
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2
oaire.awardtitleDiseño de un método de captación de movimientos para el registro, análisis y transmisión de datos a plataformas de rehabilitación robóticas, en un entorno virtual
authorProfile.cvlachttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001636188
dcterms.audience.professionaldevelopmentEstudiantes
dcterms.audience.professionaldevelopmentInvestigadores
dcterms.audience.professionaldevelopmentMaestros
dc.contributor.orcidPimentel Gutierrez, Carolina [0000-0001-5302-2199]
dc.contributor.cvlacPimentel Gutierrez, Carolina [Carolina Pimentel]
dc.contributor.researchgatePimentel Gutierrez, Carolina [Carolina-Pimentel-Gutierrez]
dc.contributor.googlescholarPimentel Gutierrez, Carolina [Carolina Pimentel-Gutierrez]


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Atribución-NoComercial 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito