Método para la detección de aves en espacios naturales y no naturales basado en técnicas de machine learning

dc.contributor.advisorEspinosa Bedoya, Albeiro
dc.contributor.authorAlvarez Vásquez, Anderson
dc.contributor.orcidEspinosa Bedoya, Albeiro [000000017292987X]
dc.date.accessioned2026-03-05T16:37:13Z
dc.date.available2026-03-05T16:37:13Z
dc.date.issued2026-01-14
dc.descriptionilustraciones, gráficas, tablasspa
dc.description.abstractLa observación y el monitoreo de aves desempeñan un papel fundamental en el estudio y la conservación de la biodiversidad, ya que estas especies actúan como indicadores sensibles de los cambios ambientales. Sin embargo, detectar aves de manera confiable a partir de imágenes sigue siendo una tarea compleja. Las aves pueden aparecer en escenarios muy diversos, desde bosques densos y paisajes naturales abiertos hasta entornos urbanos dominados por construcciones humanas. A esta diversidad de contextos se suman factores como la variación en iluminación, el tamaño reducido de muchas especies, las oclusiones parciales y la similitud visual con el fondo, lo que dificulta su detección automática mediante métodos convencionales. En los últimos años, las técnicas de aprendizaje automático y, en particular, los modelos de Deep Learning han mostrado un gran potencial para abordar problemas complejos de visión por computador. No obstante, en aplicaciones reales de monitoreo ambiental persisten desafíos importantes relacionados con la robustez de los modelos, su capacidad para generalizar a distintos entornos y el equilibrio entre precisión y costo computacional. En este contexto, surge la necesidad de enfoques que no dependan de un único modelo, sino que combinen diferentes perspectivas del análisis visual para lograr decisiones más confiables. Este trabajo se enmarca en dicha necesidad y presenta un método de Machine Learning para la detección de aves en imágenes provenientes de entornos naturales y no naturales. La propuesta se apoya en una estrategia de dos etapas complementarias. En una primera etapa, la imagen completa es examinada de manera amplia para localizar regiones que puedan contener aves, utilizando un detector de objetos del tipo YOLO (You Only Look Once), en su versión YOLOv8n. En una segunda etapa, estas regiones son analizadas con mayor detalle mediante una red neuronal convolucional binaria, cuyo propósito es confirmar o descartar la presencia de un ave. Esta división del proceso permite aprovechar la rapidez y cobertura del detector inicial, al tiempo que se refuerza la confiabilidad de la decisión final. Para el desarrollo y evaluación del método se emplearon imágenes del subconjunto bird del dataset Open Images V7, balanceadas entre contextos naturales y no naturales. Con el fin de integrar coherentemente la información proveniente de ambos modelos, las salidas probabilísticas se calibran y se combinan en una única predicción por imagen mediante un esquema de ensamble. Esta integración está orientada a favorecer la estabilidad del sistema frente a escenarios visualmente complejos, a reducir errores en casos difíciles y a mantener un desempeño consistente en distintos tipos de entorno. La evaluación del método se realiza siguiendo un protocolo reproducible y apoyándose en métricas ampliamente aceptadas en la literatura, lo que permite analizar de manera sistemática el comportamiento del sistema y compararlo con enfoques relevantes reportados en trabajos previos. Los resultados obtenidos muestran que la combinación de una búsqueda amplia con una verificación posterior contribuye a mejorar la robustez del proceso de detección y a ofrecer un balance adecuado entre calidad de los resultados y eficiencia computacional. Cuantitativamente, en la validación principal el ensamble con Gating Bidireccional alcanzó una Accuracy de 0.9783 (97.83 %), Precision de 0.9714, Recall de 0.9855 y F1-score de 0.9784, con solo 3 errores sobre 138 imágenes evaluadas (2 falsos positivos y 1 falso negativo), manteniendo un AUC cercano a 0.93. Además, en una validación externa independiente (200 imágenes de CUB-200-2011 y MS-COCO), obtuvo Accuracy de 0.945, Precision de 0.901, Recall de 1.000, F1-score de 0.948 y AUC de 0.997, lo que respalda la capacidad de generalización del método. En conjunto, este trabajo busca aportar un enfoque práctico y fundamentado para la detección automática de aves en imágenes, con potencial de aplicación en escenarios reales de monitoreo ambiental, conservación de la biodiversidad y análisis ecológico asistido por computadora. (Texto tomado de la fuente)
dc.description.abstractBird observation and monitoring play a fundamental role in the study and conservation of biodiversity, as these species act as sensitive indicators of environmental change. However, reliably detecting birds from images remains a challenging task. Birds may appear in highly diverse scenarios, ranging from dense forests and open natural landscapes to urban environments dominated by human-made structures. In addition to this contextual diversity, factors such as variations in lighting, the small size of many species, partial occlusions, and visual similarity to the background further complicate automatic detection using conventional methods. In recent years, machine learning techniques—and particularly Deep Learning models—have demonstrated significant potential for addressing complex computer vision problems. Nevertheless, in real-world environmental monitoring applications, important challenges remain related to model robustness, generalization across different environments, and the balance between accuracy and computational cost. In this context, there is a growing need for approaches that do not rely on a single model, but instead combine different perspectives of visual analysis to achieve more reliable decisions. This work is framed within this need and presents a Machine Learning–based method for bird detection in images from both natural and non-natural environments. The proposed approach is based on a two-stage complementary strategy. In the first stage, the entire image is broadly analyzed to locate regions that may contain birds, using an object detector of the YOLO (You Only Look Once) family, specifically the YOLOv8n version. In the second stage, these candidate regions are examined in greater detail using a binary convolutional neural network, whose purpose is to confirm or reject the presence of a bird. This division of the process makes it possible to take advantage of the speed and coverage of the initial detector while reinforcing the reliability of the final decision. For the development and evaluation of the method, images from the bird subset of the Open Images V7 dataset were used, balanced between natural and non-natural contexts. In order to coherently integrate the information provided by both models, their probabilistic outputs are calibrated and combined into a single prediction per image using an ensemble scheme. This integration is designed to promote system stability in visually complex scenarios, reduce errors in challenging cases, and maintain consistent performance across different types of environments. The evaluation of the method follows a reproducible protocol and relies on metrics widely accepted in the literature, enabling a systematic analysis of system behavior and comparison with relevant approaches reported in previous studies. The results show that combining a broad localization stage with a subsequent verification step improves the robustness of the detection process and offers an appropriate balance between result quality and computational efficiency. Quantitatively, in the main validation stage, the Bidirectional Gating ensemble achieved an Accuracy of 0.9783 (97.83%), Precision of 0.9714, Recall of 0.9855, and an F1-score of 0.9784, with only 3 errors over 138 evaluated images (2 false positives and 1 false negative), while maintaining an AUC close to 0.93. In addition, in an independent external validation (200 images from CUB-200-2011 and MS-COCO), the system obtained an Accuracy of 0.945, Precision of 0.901, Recall of 1.000, an F1-score of 0.948, and an AUC of 0.997, supporting the method’s generalization capability. Overall, this work aims to contribute a practical and well-founded approach for automatic bird detection in images, with potential applications in real-world environmental monitoring, biodiversity conservation, and computer-assisted ecological analysis.eng
dc.description.curricularareaIngeniería De Sistemas E Informática.Sede Medellín
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Ingeniería - Ingeniería de Sistemas
dc.format.extent1 recurso en línea [81 páginas]
dc.format.mimetypeapplication/pdf
dc.identifier.instnameUniversidad Nacional de Colombiaspa
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombiaspa
dc.identifier.repourlhttps://repositorio.unal.edu.co/spa
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/89724
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia
dc.publisher.branchUniversidad Nacional de Colombia - Sede Medellín
dc.publisher.facultyFacultad de Minas
dc.publisher.placeMedellín
dc.publisher.programMedellín - Minas - Maestría en Ingeniería - Ingeniería de Sistemas
dc.relation.referencesAote, S. S.; Wankhade, N.; Pardhi, A.; Misra, N.; Agrawal, H. & Potnurwar, A.: , 2024; An improved deep learning method for flying object detection and recognition; Signal, Image and Video Processing; 18 (1): 143--152; doi:10.1007/s11760-023-02703-y
dc.relation.referencesBishop, C. M.: , 2006; Pattern Recognition and Machine Learning; Springer.
dc.relation.referencesBochkovskiy, A.; Wang, C.-Y. & Liao, H.-Y. M.: , 2020; Yolov4: Optimal speed and accuracy of object detection; arXiv preprint; arXiv:2004.10934; URL https://arxiv.org/abs/2004.10934.
dc.relation.referencesCai, J.; Huang, H. & Song, F.: , 2024; Asymptotic feature pyramid based yolov5s for birds detection; Journal of Physics: Conference Series; 2711 (1): 012007; doi:10.1088/1742-6596/2711/1/012007.
dc.relation.referencesChen, K. & Shao, C.: , 2024; Cibip-ai: Development of california invasive bird identification and prediction artificial intelligence system; en 2024 IEEE 3rd International Conference on Computing and Machine Intelligence (ICMI); doi:10.1109/ICMI60790. 2024.10585859.
dc.relation.referencesChristin, S.; Hervet, & Lecomte, N.: , 2019; Applications for deep learning in ecology; Methods in Ecology and Evolution; 10 (8): 1445--1456; doi:10.1111/2041-210X.13256.
dc.relation.referencesGonzalez, R. C. & Woods, R. E.: , 2018; Digital Image Processing; Pearson, New York; 4a edición; ISBN 978-0133356724.
dc.relation.referencesGoodfellow, I.; Bengio, Y. & Courville, A.: , 2016; Deep Learning; MIT Press; URL https://www.deeplearningbook.org.
dc.relation.referencesHe, K.; Zhang, X.; Ren, S. & Sun, J.: , 2016; Deep residual learning for image recognition; en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR); págs. 770--778; doi:10.1109/CVPR.2016.90.
dc.relation.referencesHicks, S. A.; Strümke, I.; Thambawita, V.; Hammou, M.; Riegler, M. A.; Halvorsen, P. & Parasa, S.: , 2022; On evaluation metrics for medical applications of artificial intelligence; Scientific Reports; 12: 5979; doi:10.1038/s41598-022-09954-8.
dc.relation.referencesJocher, G.; Chaurasia, A.; Stoken, J.; Borovec, J. & Ultralytics, T.: , 2023; Yolov8: Open-source neural network models for object detection and segmentation; Ultralytics; URL https://github.com/ultralytics/YOLOv8; accessed: 2025-11-08.
dc.relation.referencesK, S.; Akhila; Thangavel, S. K. & Shanmugam, S. K.: , 2024; Real-time identification of harmful birds in agriculture field using computer vision; en 2024 International Conference on Inventive Computation Technologies (ICICT); doi:10.1109/icict60155.2024. 10544677
dc.relation.referencesKe, T.-W. et al.: , 2024; Deep learning workflow to support in-flight processing of digital aerial imagery for wildlife population surveys; PLoS ONE ; 19 (4): e0288121; doi:10.1371/journal.pone.0288121
dc.relation.referencesKitchenham, B.: , 2004; Procedures for performing systematic reviews; Informe Técnico TR/SE-0401 ; Keele University and National ICT Australia Ltd.; Keele, UK; URL https://www.cs.auckland.ac.nz/~norsaremah/2004%20Kitchenham%20-%20Procedures%20for% 20performing%20systematic%20reviews.pdf; technical Report.
dc.relation.referencesKonijeti, V. S.; Methuku, S.; Yashaswini, E. R. & Duttagupta, S.: , 2024; Detection of small birds in flight pathways; en Proceedings of the 2024 Sixteenth International Conference on Contemporary Computing; págs. 540--545; doi:10.1145/3675888. 3676110.
dc.relation.referencesLeCun, Y.; Bengio, Y. & Hinton, G.: , 2015; Deep learning; Nature; 521: 436--444; doi:10.1038/nature14539.
dc.relation.referencesLi, B. et al.: , 2024; Rare bird recognition method in beijing based on tc-yolo model; Sheng Wu Duo Yang Xing; 32 (5): 24056; doi:10.17520/biods.2024056.
dc.relation.referencesLiu, S. & Zhao, Y.: , 2024; Yub-200: A dataset for fine-grained bird recognition; en 2024 7th International Conference on Pattern Recognition and Artificial Intelligence (PRAI); págs. 259--263; doi:10.1109/PRAI62207.2024.10827341.
dc.relation.referencesMa, J.; Guo, J.; Zheng, X. & Fang, C.: , 2024; An improved bird detection method using surveillance videos from poyang lake based on yolov8; Animals (Basel); 14 (23); doi:10.3390/ani14233353.
dc.relation.referencesMarini, A.; Facon, J. & Koerich, A. L.: , 2013; Bird species classification based on color features; en 2013 IEEE International Conference on Systems, Man, and Cybernetics; doi:10.1109/SMC.2013.740.
dc.relation.referencesMpouziotas, D.; Karvelis, P. & Stylios, C.: , 2024; Advanced computer vision methods for tracking wild birds from drone footage; Drones; 8 (6): 259; doi:10.3390/drones8060259.
dc.relation.referencesPage, M. J.; McKenzie, J. E.; Bossuyt, P. M.; Boutron, I.; Hoffmann, T. C.; Mulrow, C. D.; Shamseer, L.; Tetzlaff, J. M.; Akl, E. A.; Brennan, S. E.; Chou, R.; Glanville, J.; Grimshaw, J. M.; Hróbjartsson, A.; Lalu, M. M.; Li, T.; Loder, E. W.; Mayo-Wilson, E.; McDonald, S.; McGuinness, L. A.; Stewart, L. A.; Thomas, J.; Tricco, A. C.; Welch, V. A.; Whiting, P. & Moher, D.: , 2021; The prisma 2020 statement: an updated guideline for reporting systematic reviews; BMJ ; 372: n71; doi:10.1136/bmj.n71.
dc.relation.referencesPolisetty, V. R. M. & Chokkalingam, S.: , 2024; Efficient classification of bird species using photographic images: A mobilevit based approach; en 2024 3rd International Conference on Artificial Intelligence for Internet of Things (AIIoT); doi:10.1109/ AIIoT58432.2024.10574683
dc.relation.referencesQiu, Z.; Zhou, Z. & Wan, Z.: , 2024; Automatic classification of bird species related to power line faults using deep convolution features and ecoc-svm model; IET Generation, Transmission & Distribution; 18 (19): 3138--3149; doi:10.1049/gtd2.13265
dc.relation.referencesRafa, S. A.; Al-qfail, Z. M.; Adil Nafea, A.; Abd-hood, S. F.; Al-Ani, M. M. & Alameri, S. A.: , 2024; A bird species detection utilizing an effective hybrid model; en 2024 21st International Multi-Conference on Systems, Signals & Devices (SSD); doi:10.1109/SSD61670.2024.10549480
dc.relation.referencesRedmon, J.; Divvala, S.; Girshick, R. & Farhadi, A.: , 2016; You only look once: Unified, real-time object detection; en Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR); págs. 779--788; doi:10.1109/CVPR.2016.91
dc.relation.referencesRiyadi, S.; Salsabila, A. S. & Puspita Dewi, A. R.: , 2024; Effectiveness of inception v3 and mobilenet v2 models in classifying bird species based on physical characteristics; en 2024 IEEE 14th Symposium on Computer Applications & Industrial Electronics (ISCAIE); doi:10.1109/ISCAIE61308.2024.10576489
dc.relation.referencesRodríguez, A. C.; D’Aronco, S.; Daudt, R. C.; Wegner, J. D. & Schindler, K.: , 2022; Recognition of unseen bird species by learning from field guides; arXiv preprint; arXiv:2206.01466; doi:10.48550/arXiv.2206.01466
dc.relation.referencesSagi, O. & Rokach, L.: , 2018; Ensemble learning: A survey; Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery; 8 (4): e1249; doi:10.1002/widm.1249
dc.relation.referencesSchneider, D.; Lindner, K.; Vogelbacher, M.; Bellafkir, H.; Farwig, N. & Freisleben, B.: , 2024; Recognition of european mammals and birds in camera trap images using deep neural networks; IET Computer Vision; doi:10.1049/cvi2.12294.
dc.relation.referencesShaik, F. J. & Ganesan: , 2024; Automated bird detection using snapshot ensemble of deep learning models; en 2024 International Conference on Intelligent and Innovative Technologies in Computing, Electrical and Electronics (IITCEE); págs. 1--6; doi: 10.1109/IITCEE59897.2024.10467481
dc.relation.referencesShorten, C. & Khoshgoftaar, T. M.: , 2019; A survey on image data augmentation for deep learning; Journal of Big Data; 6 (60): 1--48; doi:10.1186/s40537-019-0197-0
dc.relation.referencesSong, Q. et al.: , 2024; Benchmarking wild bird detection in complex forest scenes; Ecological Informatics; 80: 102466; doi: 10.1016/j.ecoinf.2024.102466
dc.relation.referencesSzeliski, R.: , 2022; Computer Vision: Algorithms and Applications; Springer Nature, London; 2a edición; doi:10.1007/978-1-84882- 935-0; URL https://szeliski.org/Book/
dc.relation.referencesVélez, D.; Tamayo, E.; Ayerbe-Quiñones, F.; Torres, J.; Rey, J.; Castro-Moreno, C.; Ramírez, B. & Ochoa-Quintero, J. M.: , 2021; Distribution of birds in colombia; Biodiversity Data Journal; 9: e59202; doi:10.3897/bdj.9.e59202
dc.relation.referencesYang, X. et al.: , 2024; A machine vision system for monitoring wild birds on poultry farms to prevent avian influenza; AgriEngineering; 6 (4): 3704--3718; doi:10.3390/agriengineering6040211
dc.relation.referencesZadrozny, B. & Elkan, C.: , 2002; Transforming classifier scores into accurate multiclass probability estimates; en Proceedings of the Eighth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining; Association for Computing Machinery, Edmonton, Alberta, Canada; págs. 694--699; doi:10.1145/775047.775151
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.licenseReconocimiento 4.0 Internacional
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/
dc.subject.ddc000 - Ciencias de la computación, información y obras generales::004 - Procesamiento de datos Ciencia de los computadores
dc.subject.ddc000 - Ciencias de la computación, información y obras generales::003 - Sistemas
dc.subject.lembAprendizaje automático (Inteligencia artificial)
dc.subject.lembProcesamiento de imágenes
dc.subject.proposalAveseng
dc.subject.proposalAvesspa
dc.subject.proposalYolospa
dc.subject.proposalCNN híbridaspa
dc.subject.proposalProcesamiento de imágenesspa
dc.subject.proposalBirdseng
dc.subject.proposalhybrid CNNeng
dc.subject.proposalImage processingeng
dc.titleMétodo para la detección de aves en espacios naturales y no naturales basado en técnicas de machine learningspa
dc.title.translatedMétodo para a detecção de aves em espaços naturais e não naturais baseado em técnicas de machine learningpor
dc.title.translatedMethod for bird detection in natural and non-natural environments based on machine learning techniqueseng
dc.typeTrabajo de grado - Maestría
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dcterms.audience.professionaldevelopmentInvestigadores
dcterms.audience.professionaldevelopmentGeneral
dcterms.audience.professionaldevelopmentEspecializada
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2

Archivos

Bloque original

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
1152683824.2026.pdf
Tamaño:
8.89 MB
Formato:
Adobe Portable Document Format
Descripción:
Tesis de Maestría en Ingeniería - Ingeniería de Sistemas

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
5.74 KB
Formato:
Item-specific license agreed upon to submission
Descripción: