Mostrar el registro sencillo del documento

dc.rights.licenseAtribución-NoComercial 4.0 Internacional
dc.contributor.authorAtencio Ortiz, Pedro
dc.contributor.authorSánchez torres, German
dc.contributor.authorBranch Bedoya, John Willian
dc.date.accessioned2019-07-02T18:09:22Z
dc.date.available2019-07-02T18:09:22Z
dc.date.issued2017-07-01
dc.identifier.issnISSN: 2346-2183
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/60367
dc.description.abstractImage fusion is the generation of an image  that combines the most relevant information from a set of images of the same scene, acquired with different cameras or camera settings. Multi-Focus Image Fusion (MFIF) aims to generate an image with extended depth-of-field from a set of images taken at different focal distances or focal planes, and it proposes a solution to the typical limited depth-of-field problem in an optical system configuration. A broad variety of works presented in the literature address this problem. The primary approaches found there are domain transformations and block-of-pixels analysis. In this work, we evaluate different systems of supervised machine learning applied to MFIF, including k-nearest neighbors, linear discriminant analysis, neural networks, and support vector machines. We started from two images at different focal distances and divided them into rectangular regions. The main objective of the machine-learning-based classification system is to choose the parts of both images that must be in the fused image in order to obtain a completely focused image. For focus quantification, we used the most popular metrics proposed in the literature, such as: Laplacian energy, sum-modified Laplacian, and gradient energy, among others. The evaluation of the proposed method considered classifier testing and fusion quality metrics commonly used in research, such as visual information fidelity and mutual information feature. Our results strongly suggest that the automatic classification concept satisfactorily addresses the MFIF problem.
dc.description.abstractResumen: La fusión de imágenes genera una imagen  que combina las características más relevantes de un conjunto de imágenes de la misma escena adquiridas con diferentes cámaras o configuraciones. La Fusión de Imágenes Multifoco (MFIF) parte de un conjunto de imágenes con diferente distancia focal para generar una imagen  con una profundidad de campo extendida. Lo que constituye una solución al problema de la profundidad de campo limitada en la configuración de un sistema óptico. La literatura muestra una amplia variedad de trabajos que abordan este problema. Las transformaciones de dominios y el análisis de bloques de píxeles son la base de los principales enfoques propuestos. En este trabajo se presenta una evaluación de diferentes sistemas de aprendizaje supervisado aplicados a MFIF, incluyendo k-vecinos más cercanos, análisis discriminante lineal, redes neuronales y máquinas de soporte vectorial. El método inicia con dos imágenes de la misma escena, pero con diferentes distancias focales que se dividen en regiones rectangulares. El objetivo principal del sistema de clasificación, que está basado en aprendizaje de máquina, es elegir las partes de ambas imágenes que deben estar en la imagen fusionada para obtener una imagen completamente enfocada. Para la cuantificación del enfoque se utilizaron las métricas más populares propuestas en la literatura como: la Energía Laplaciana, el Laplaciano Modificado por Suma y el Gradiente de Energía, entre otras. La evaluación del método propuesto incluye la fase de prueba de los clasificadores y las métricas de calidad de fusión utilizadas comúnmente en la investigación, tales como la fidelidad de la información visual y la característica de información mutua. Los resultados muestran que el concepto de clasificación automática puede abordar satisfactoriamente el problema MFIF.
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia (Sede Medellín). Facultad de Minas.
dc.relationhttps://revistas.unal.edu.co/index.php/dyna/article/view/63389
dc.relation.ispartofUniversidad Nacional de Colombia Revistas electrónicas UN Dyna
dc.relation.ispartofDyna
dc.rightsDerechos reservados - Universidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/
dc.subject.ddc62 Ingeniería y operaciones afines / Engineering
dc.titleEvaluating supervised learning approaches for spatial-domain multi-focus image fusion
dc.typeArtículo de revista
dc.type.driverinfo:eu-repo/semantics/article
dc.type.versioninfo:eu-repo/semantics/publishedVersion
dc.identifier.eprintshttp://bdigital.unal.edu.co/58699/
dc.relation.referencesAtencio Ortiz, Pedro and Sánchez torres, German and Branch Bedoya, John Willian (2017) Evaluating supervised learning approaches for spatial-domain multi-focus image fusion. DYNA, 84 (202). pp. 137-146. ISSN 2346-2183
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.proposalMulti-focus image fusion
dc.subject.proposalimage processing
dc.subject.proposalsupervised learning
dc.subject.proposalmachine learning
dc.subject.proposalFusión de imágenes mutifoco
dc.subject.proposalprocesamiento de imágenes
dc.subject.proposalaprendizaje supervisado
dc.subject.proposalaprendizaje de máquina
dc.type.coarhttp://purl.org/coar/resource_type/c_6501
dc.type.coarversionhttp://purl.org/coar/version/c_970fb48d4fbd8a85
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/ART
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2


Archivos en el documento

Thumbnail

Este documento aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del documento

Atribución-NoComercial 4.0 InternacionalEsta obra está bajo licencia internacional Creative Commons Reconocimiento-NoComercial 4.0.Este documento ha sido depositado por parte de el(los) autor(es) bajo la siguiente constancia de depósito