Mostrar el registro sencillo del documento

dc.rights.licenseAtribución-NoComercial 4.0 Internacional
dc.contributorPrieto Ortiz, Flavio Augusto
dc.contributor.advisorHoyos Gutiérrez, José Gabriel (Thesis advisor)
dc.contributor.authorPeña Solórzano, Carlos Andrés
dc.date.accessioned2019-06-29T18:45:44Z
dc.date.available2019-06-29T18:45:44Z
dc.date.issued2015
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/53908
dc.description.abstractResumen Cada vez es más común encontrar robots realizando tareas en áreas compartidas con humanos, donde se espera que sean capaces de aprender de las acciones realizadas por otros y de adaptarse a nuevas situaciones. La aproximación más utilizada es aprendizaje por imitación, donde el robot es capaz de aprender a partir de la observación de la tarea siendo realizada por un operario. Luego de comparar varias de las técnicas de programación por demostración, se seleccionan las primitivas de movimiento dinámico (DMP) con reconstrucción utilizando regresión de procesos gaussianos (GPR). Las DMP codifican cada uno de las trayectorias dadas por los grados de libertad pertinentes a la acción a aprender, en este caso, llevar la mano hacia un objeto ubicado sobre una mesa. Por otro lado, GPR permite generalizar los movimientos del entrenamiento a nuevas trayectorias, cuando cambian tanto la posición inicial de la mano como la ubicación del objeto. Se realizó una comparación de varias técnicas de aprendizaje, teniendo en cuenta el error al objetivo, la correlación cruzada entre las señales de entrada y salida, y el tiempo de codificación y reconstrucción de la trayectoria. Además, la técnica de generalización se compara contra un algoritmo basado en distancia de Mahalanobis y distribución gaussiana, que utiliza los datos de la trayectoria sin codificar para realizar la estimación. La técnica regresión de procesos gaussianos, presentó un mayor desempeño al probarlo con 30 puntos de consulta para el valor inicial de la mano, y 30 puntos para la posición final o posición del objeto. La técnica de regresión de procesos gaussianos junto a primitivas de movimiento dinámico, se presenta como una solución para el aprendizaje por imitación de tareas, así como para la generalización a nuevas trayectorias a partir de la base de datos, al presentar bajos tiempos de codificación y errores pequeños con respecto a los valores objetivo.
dc.description.abstractAbstract: It is becoming increasingly common to find robots performing tasks in shared areas with humans, they are expected to be able to learn from the actions taken by others and adapt to new situations. The most widely used approach is learning by imitation, where the robot is able to learn from watching the task being performed by an operator. After comparing several programming by demonstration techniques, the dynamic movement primitives (DMP) with reconstruction using Gaussian process regression (GPR) was selected. DMP encodes each of the paths given by the relevant degrees of freedom to bring the hand toward an object placed on a table. Furthermore, GPR allows to generalize the training movements to new paths when changing both the initial hand position and the location of the object. A comparison of various learning techniques was performed, considering the error to the target, the cross-correlation between the input and output signals, and time of coding and reconstruction of the trajectory. Besides, the technique is compared against a generalization based on the Mahalanobis distance and Gaussian distribution, which uses data from uncoded trajectories for the estimate. The Gaussian process regression technique, presented a better performance when tested with 30 queue points for the initial value of the hand, and 30 points for the final position of the object. Gaussian process regression along dynamic movement primitives is presented as a solution for learning by imitation of task, as well as generalization to new paths from the database, because of its fast encoding times and small errors regarding the target values.
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.relation.ispartofUniversidad Nacional de Colombia Sede Bogotá Facultad de Ingeniería Departamento de Ingeniería Eléctrica y Electrónica Ingeniería Electrónica
dc.relation.ispartofIngeniería Electrónica
dc.rightsDerechos reservados - Universidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/
dc.subject.ddc0 Generalidades / Computer science, information and general works
dc.subject.ddc37 Educación / Education
dc.subject.ddc6 Tecnología (ciencias aplicadas) / Technology
dc.subject.ddc62 Ingeniería y operaciones afines / Engineering
dc.titleAprendizaje robótico por imitación utilizando imágenes 2D y 3D
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.identifier.eprintshttp://bdigital.unal.edu.co/48610/
dc.description.degreelevelMaestría
dc.relation.referencesPeña Solórzano, Carlos Andrés (2015) Aprendizaje robótico por imitación utilizando imágenes 2D y 3D. Maestría thesis, Universidad Nacional de Colombia.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.proposalAprendizaje por imitación
dc.subject.proposalGeneralización de trayectorias
dc.subject.proposalPrimitivas de movimiento dinámico
dc.subject.proposalProcesamiento de imágenes
dc.subject.proposalLearning by imitation
dc.subject.proposalTrajectory generalization
dc.subject.proposalDynamic movement primitives
dc.subject.proposalImage processing
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Atribución-NoComercial 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito