Mostrar el registro sencillo del documento

dc.rights.licenseAtribución-NoComercial 4.0 Internacional
dc.contributor.advisorPrieto Ortíz, Flavio Augusto (Thesis advisor)
dc.contributor.advisorGómez Mendoza , Juan Bernardo (Thesis advisor)
dc.contributor.authorCeballos Arias, Alexander
dc.date.accessioned2019-06-24T16:29:20Z
dc.date.available2019-06-24T16:29:20Z
dc.date.issued2009
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/7112
dc.description.abstractEn años recientes, el reconocimiento audio-visual del habla ha surgido como un campo activo de investigación, debido a los avances en reconocimiento de patrones, procesamiento de señales y visión por computador. Su objetivo final es permitir la comunicación hombre-máquina usando la voz, teniendo en cuenta la información visual contenida en la señal de habla audio-visual, para lidiar con las dificultades de un ambiente ruidoso, o para tratar de reconocer las emociones exhibidas por el locutor. En este documento se presenta un sistema de reconocimiento automático de comandos usando información audio-visual. Debido a que este trabajo se enmarca en el proyecto “Segmentación y Clasificación Automática de Posturas Labiales y Comandos de Voz para el Control de un Robot Laparoscópico”, el sistema pretende controlar un robot, en particular el robot laparoscópico da Vinci. Se emplean los modelos ocultos de Markov como técnica de reconocimiento del habla, utilizando Hidden Markov Model Toolkit como herramienta computacional. La señal de audio se parametriza usando los coeficientes cepstrales en frecuencia de Mel, mientras que para extraer la información visual del habla, se usan características basadas en los puntos que definen el contorno externo de la boca según el estándar MPEG-4. Se hace necesario hacer seguimiento preciso de la boca sobre secuencias de video. La complejidad de forma, textura y color de la boca, y los cambios de iluminación y fondos de los posibles escenarios, hacen que este sea aún un problema abierto. En este documento se propone un algoritmo para el seguimiento del contorno externo de la boca, sin utilizar marcadores o alguna clase de maquillaje para resaltar los labios, basado en apariencia y en restricciones morfológicas definidas en el estándar MPEG-4 / Abstract: In recent years audio-visual speech recognition has emerged as an active field of research thanks to advances in pattern recognition, signal processing and machine vision. Its ultimate goal is to allow human-computer communication using voice, taking into account the visual information contained in the audio-visual speech signal, whether to cope with the difficulties of a noisy environment, or when trying to recognize the emotion exhibited by the speaker. This document presents a command’s automatic recognition system using audio-visual information. Due to the fact that this work is part of the project “Automatic Segmentation and Classification of Lip Postures and Voice Commands in order to Control a Laparoscopic Robot”, the system is expected to control a robot, in particular the laparoscopic robot da Vinci. Hidden Markov Models have been used as technique for speech recognition using Hidden Markov Model Toolkit as computational tool. The audio signal is treated using the Mel Frequency Cepstral Coefficients parametrization method. Besides, features based on the points that define the mouth’s outer contour according to the MPEG-4 standar are used in order to extract the visual speech information. It becomes necessary to deal with lip tracking in video sequences. Lip tracking is still an open issue in terms of research due to the mouth’s shape, texture and color complexity, the illumination changes and the background scenery. In this document an outer lip tracking algorithm based in shape and restrictions given in standard MPEG-4 is proposed. The video sequence does not have markers or any kind of makeover in order to highlight the lips. The algorithm is strong in presence of beard, skin tone and image’s quality.
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.relation.ispartofUniversidad Nacional de Colombia Sede Manizales Facultad de Ingeniería y Arquitectura Departamento de Ingeniería Eléctrica, Electrónica y Computación
dc.relation.ispartofDepartamento de Ingeniería Eléctrica, Electrónica y Computación
dc.rightsDerechos reservados - Universidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/
dc.subject.ddc0 Generalidades / Computer science, information and general works
dc.subject.ddc62 Ingeniería y operaciones afines / Engineering
dc.titleDesarrollo de un sistema de manipulación de un robot a través de movimientos de la boca y de comandos de voz
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.identifier.eprintshttp://bdigital.unal.edu.co/3416/
dc.description.degreelevelMaestría
dc.relation.referencesCeballos Arias, Alexander (2009) Desarrollo de un sistema de manipulación de un robot a través de movimientos de la boca y de comandos de voz. Maestría thesis, Universidad Nacional de Colombia - Sede Manizales.
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.proposalReconocimiento automático de la voz, Sistemas de procesamiento de la voz, Reconocimiento de patrones, Procesamiento de señales, Visión por computador, Comunicación hombre-máquina computador.
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Atribución-NoComercial 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito