Desarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquina

dc.contributor.advisorGómez Mendoza, Juan Bernardo
dc.contributor.advisorÁlvarez Meza, Andrés Marino
dc.contributor.authorGuarín Martínez, Daniel Felipe
dc.contributor.researchgroupPercepción y Control Inteligente (Pci)
dc.contributor.researchgroupGrupo de Control y Procesamiento Digital de Señales
dc.date.accessioned2025-09-04T16:44:56Z
dc.date.available2025-09-04T16:44:56Z
dc.date.issued2024
dc.descriptiongraficas, ilustraciones, tablasspa
dc.description.abstractLa personalización de contenido en videojuegos a partir de las emociones del jugador es un área de gran interés para crear experiencias más inmersivas y adaptativas. Sin embargo, su aplicación se enfrenta a desafíos fundamentales: la dificultad para sincronizar los datos del juego con las respuestas emocionales, la alta variabilidad en la forma en que cada individuo expresa sus emociones y la complejidad de establecer una correlación robusta entre ambos. Esta tesis aborda estos problemas mediante un enfoque metodológico de dos fases. Primero, se desarrolló un pipeline para procesar y sincronizar datos multimodales del dataset público Toadstool, que contiene game-data de Super Mario Bros y vídeos faciales de los jugadores. Un análisis cuantitativo mediante Correlación Canónica (CCA) y t-SNE reveló que no existe una correlación lineal universal entre las emociones y los eventos del juego, demostrando que las respuestas emocionales son fuertemente sujeto-dependientes. A partir de este hallazgo, la segunda fase se centró en la creación de un sistema de Generación Procedimental de Contenido (PCG) personalizado. Se desarrolló un modelo para un único sujeto (el más expresivo del dataset), asumiendo que para un individuo específico sí puede existir una relación más simple. Este pipeline utiliza un Autoencoder Variacional (VAE) para codificar la estructura de los niveles y un Análisis de Componentes Principales (PCA) que actúa como un ”traductor” lineal, mapeando el espacio latente de las expresiones faciales del jugador al espacio latente de los niveles. Los resultados fueron validados comparando los niveles generados por el pipeline con los niveles originales correspondientes a cada expresión facial de entrada. La evaluación cualitativa mostró una notable similitud visual y estructural. Cuantitativamente, el modelo alcanzó un Coeficiente de Dice promedio de 0.78, confirmando una alta fidelidad estructural. Se concluye que es factible generar contenido de juego coherente condicionado a las expresiones faciales de un jugador específico. La novedad de esta propuesta radica en demostrar la viabilidad de un enfoque sujeto-dependiente, que elude el problema de la variabilidad intersujeto y establece una base sólida para futuros sistemas de videojuegos verdaderamente adaptativos (Texto tomado de la fuente).spa
dc.description.abstractThe personalization of in-game content based on player emotions is an area of great interest for creating more immersive and adaptive experiences. However, its application faces fundamental challenges: the difficulty in synchronizing game data with emotional responses, the high variability in how each individual expresses emotions, and the complexity of establishing a robust correlation between the two. This thesis addresses these problems through a two-phase methodological approach. First, a pipeline was developed to process and synchronize multimodal data from the public Toadstool dataset, which contains game-data from Super Mario Bros. and facial videos of the players. A quantitative analysis using Canonical Correlation Analysis (CCA) and t-SNE revealed that there is no universal linear correlation between emotions and game events, demonstrating that emotional responses are strongly subject-dependent. Based on this finding, the second phase focused on creating a personalized Procedural Content Generation (PCG) system. A model was developed for a single subject (the most expressive in the dataset), assuming that a simpler relationship may exist for a specific individual. This pipeline uses a Variational Autoencoder (VAE) to encode the structure of the levels and a Principal Component Analysis (PCA) that acts as a linear ”translator,” mapping the latent space of the player’s facial expressions to the latent space of the levels. The results were validated by comparing the levels generated by the pipeline with the original levels corresponding to each input facial expression. The qualitative evaluation showed a notable visual and structural similarity. Quantitatively, the model achieved an average Dice Coefficient of 0.78, confirming high structural fidelity. It is concluded that it is feasible to generate coherent game content conditioned on the facial expressions of a specific player. The novelty of this proposal lies in demonstrating the viability of a subject-dependent approach, which bypasses the problem of inter-subject variability and establishes a solid foundation for future truly adaptive video game systems.eng
dc.description.curricularareaEléctrica, Electrónica, Automatización Y Telecomunicaciones.Sede Manizales
dc.description.degreelevelMaestría
dc.description.degreenameMagíster en Ingeniería - Automatización Industrial
dc.format.extent111 páginas
dc.format.mimetypeapplication/pdf
dc.identifier.instnameUniversidad Nacional de Colombiaspa
dc.identifier.reponameRepositorio Institucional Universidad Nacional de Colombiaspa
dc.identifier.repourlhttps://repositorio.unal.edu.co/spa
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/88606
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia
dc.publisher.branchUniversidad Nacional de Colombia - Sede Manizales
dc.publisher.facultyFacultad de Ingeniería y Arquitectura
dc.publisher.placeManizales, Colombia
dc.publisher.programManizales - Ingeniería y Arquitectura - Maestría en Ingeniería - Automatización Industrial
dc.relation.referencesAkbar, M. T., Ilmi, M. N., Rumayar, I. V., Moniaga, J., Chen, T.-K., and Chowanda, A. (2019). Enhancing game experience with facial expression recognition as dynamic balancing. Procedia Computer Science, 157:388–395. (páginas 21, 22, 23, 24, 28, 70, 72y74)
dc.relation.referencesAlchalabi, A. E., Shirmohammadi, S., Eddin, A. N., and Elsharnouby, M. (2018). FOCUS: Detecting ADHD patients by an EEG-based serious game. IEEE Transactions on Instrumentation and Measurement, 67(9):2129–2138. (página 30)
dc.relation.referencesAndrew, A., Tjokrosetio, A. N., and Chowanda, A. (2020). Dynamic difficulty adjustment with facial expression recognition for improving player satisfaction in a survival horror game. ICIC Express Letters, 14(11):1097–1104. (páginas 21, 23, 27, 58y70)
dc.relation.referencesBarthet, M., Kaselimi, M., Liapis, A., and Yannakakis, G. N. (2024). GameVibe: a multimodal affective game corpus. Scientific Data, 11(1):381. Introduce un corpus con fotogramas y audio sincronizados, utilizando anotación manual para asegurar la verdad terreno. Relevante para justificar el uso de vídeo del juego y el proceso de anotación. (páginas 61 and 62)
dc.relation.referencesBlom, P. M., Bakkes, S., and Spronck, P. (2019). Modeling and adjusting in-game difficulty based on facial expression analysis. Entertainment Computing, 31:100307. (páginas 24, 28, 47, 48, 53, 69, 72y81)
dc.relation.referencesBlom, P. M., Bakkes, S., Tan, C., Whiteson, S., Roijers, D., Valenti, R., and Gevers, T. (2014). Towards personalised gaming via facial expression recognition. In Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, volume 10, pages 30–36. (páginas 22, 23, 28, 37, 47, 48, 53y59)
dc.relation.referencesChowanda, A., Dennis, V., Dharmawan, V., and Ramli, J. D. (2023). Player’s affective states as meta ai design on augmented reality games. JOIV: International Journal on Informatics Visualization, 7(2):561–568. (página 74)
dc.relation.referencesCroissant, B., Knauss, C., Lohaus, D., Hoch, E., and Groh, G. (2023). Theories and mechanisms of video game addiction: A scoping review. Current Addiction Reports, pages 1–20. (páginas 21, 22, 23y24)
dc.relation.referencesda Silva, A. F. and Chaimowicz, L. (2015). Dynamic difficulty adjustment for moba games. In Proceedings of the 14th Brazilian Symposium on Computer Games and Digital Entertainment, pages 32–41. (página 39)
dc.relation.referencesDahlskog, S., Togelius, J., and Nelson, M. J. (2014). Linear levels through ngrams. In Proceedings of the 9th international conference on the foundations of digital games, pages 1–8. (página 38)
dc.relation.referencesDresvyanskiy, D., Sinha, Y., Busch, M., and Siegert, I. (2022). DyCoDa: A multimodal data collection of multi-user remote survival game recordings. In Speech and Computer - 24th International Conference, SPECOM 2022, Proceedings, volume 13721 of Lecture Notes in Computer Science, pages 163–177. Springer. (página 34)
dc.relation.referencesFanourakis, M., Bång, M., and Chanel, G. (2021). A Modular and Extensible Platform for Synchronous Acquisition of Multimodal Data in Multi-Player Video Games. In Proceedings of the 2021 International Conference on Multimodal Interaction, pages 615–619. Destaca el desafío de la sincronicidad en la recopilación de datos multimodales para juegos y describe un sistema (LSL) para lograrla. Menciona eventos específicos del juego como la recogida de objetos y los eventos de muerte. (páginas 61 and 62)
dc.relation.referencesFanourakis, M., Bång, M., and Chanel, G. (2021). A Modular and Extensible Platform for Synchronous Acquisition of Multimodal Data in Multi-Player Video Games. In Proceedings of the 2021 International Conference on Multimodal Interaction, pages 615–619. Destaca el desafío de la sincronicidad en la recopilación de datos multimodales para juegos y describe un sistema (LSL) para lograrla. Menciona eventos específicos del juego como la recogida de objetos y los eventos de muerte. (páginas 61 and 62)
dc.relation.referencesFortin-Cote, A., Beaudoin-Gagnon, N., Chamberland, C., Desbiens, F., Lefebvre, L., Bergeron, J., Campeau-Lecours, A., Tremblay, S., and Jackson, P. L. (2019). FUNii: The physio-behavioural adaptive video game. In Sottilare, R. A. and Schwarz, J., editors, Augmented Cognition, volume 11580 of Lecture Notes in Computer Science, pages 14–28. Springer International Publishing. (página 32)
dc.relation.referencesGuglielmo, G., Blom, P. M., Klincewicz, M., Čule, B., and Spronck, P. (2022). Face in the game: Using facial action units to track expertise in competitive video game play. In 2022 IEEE Conference on Games (CoG), pages 112–118. IEEE. (página 28)
dc.relation.referencesHariadi, D., Yuniarno, E. M., and Purnomo, M. H. (2024). Dynamic level of difficulties using q-learning and fuzzy logic. International Journal of Intelligent Engineering and Systems, 17(1):536–547. (página 46)
dc.relation.referencesGuzel, I. Y., Pot, F. D., and Hung, H. S. (2023). Correlation between Facial Expressions and Subjective Player Experiences in a Competitive Digital Card Game. In 2023 11th International Conference on Affective Computing and Intelligent Interaction (ACII), pages 1–8. Conecta las expresiones faciales con las experiencias subjetivas del jugador en un juego competitivo, reforzando la validez de usar datos faciales como una modalidad de respuesta vinculada a los eventos del juego. (página 61)
dc.relation.referencesHolt, M. C., Gonzalez-Mora, J. C., Liu, J., and Lucas, S. M. (2021). Integrating player-centric procedural content generation in a human testing environment. In 2021 IEEE Conference on Games (CoG), pages 1–8. IEEE. (página 44)
dc.relation.referencesHendrikx, M., Meijer, S., Van Der Velden, J., and Iosup, A. (2013). Procedural content generation for games: A survey. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 9(1):1–22. (páginas 36 and 81)
dc.relation.referencesJain, R., Isaksen, A., Holmgård, C., and Togelius, J. (2016). Autoencoders for level generation, repair, and recognition. In Proceedings of the ICCC workshop on computational creativity and games, volume 9. (página 58)
dc.relation.referencesKarpouzis, K., Yannakakis, G. N., Shaker, N., and Asteriadis, S. (2015a). The platformer experience dataset. In 2015 International Conference on Affective Computing and Intelligent Interaction (ACII), pages 712–718. IEEE. (páginas 23 and 35)
dc.relation.referencesKowal, M., Conroy, E., Ramsbottom, N., Smithies, T., Toth, A., and Campbell, M. (2021). Gaming your mental health: a narrative review on mitigating symptoms of depression and anxiety using commercial video games. JMIR Serious Games, 9(2):e26575. (página 21)
dc.relation.referencesKrumhuber, E. G., Küster, D., Namba, S., and Skora, L. (2021). Human and machine validation of 14 databases of dynamic facial expressions. Behavior research methods, 53:686–701. (páginas 23 and 36)
dc.relation.referencesLi, C.-C., Wang, Y.-S., Hsiao, F.-J., and Wang, C.-W. (2020). 3d model generation and reconstruction using conditional generative adversarial network. In Multimedia modeling: 26th international conference, MMM 2020, Daejeon, South Korea, January 5-8, 2020, Proceedings, Part I, pages 16–27. Springer. (página 42)
dc.relation.referencesLiu, D., Liu, B., Lin, T., Liu, G., Yang, G., Qi, D., Qiu, Y., Lu, Y., Yuan, Q., Shuai, S. C., et al. (2022). Measuring depression severity based on facial expression and body movement using deep convolutional neural network. Frontiers in psychiatry, 13:1017064. (página 84)
dc.relation.referencesLópez, C. and Tucker, C. (2018). Toward personalized adaptive gamification: a machine learning model for predicting performance. IEEE transactions on Games, 12(2):155–168. (páginas 24, 47y48)
dc.relation.referencesMoniaga, J. V., Chowanda, A., Prima, A., Rizqi, M. D. T., et al. (2018). Facial expression recognition as dynamic game balancing system. Procedia Computer Science, 135:361–368. (páginas 24, 28y69)
dc.relation.referencesPatidar, I., Modh, K. S., and Chattopadhyay, C. (2020). Artificially intelligent game framework based on facial expression recognition. In Computer Vision, Pattern Recognition, Image Processing, and Graphics: 7th National Conference, NCVPRIPG 2019, Hubballi, India, December 22–24, 2019, Revised Selected Papers 7, pages 312–321. Springer. (página 22)
dc.relation.referencesPiatkowski, J., Karbowiak, L., and Depta, F. (2024). A lightweight algorithm for synchronized multimodal data acquisition using temporal sample alignment. Scientific Reports, 14(1):2045. Enfatiza que incluso pequeñas interrupciones en la sincronización pueden tener consecuencias graves y discute la necesidad crítica de una sincronización temporal adecuada en la fusión de datos multimodales. (página 61)
dc.relation.referencesRajabi, E., Wang, L., and Qin, A. (2021). A dynamic balanced level generator for video games based on deep convolutional generative adversarial networks. IEEE Transactions on Games, 14(3):421–430. (página 44)
dc.relation.referencesRoohi, S., Mekler, E. D., Tavast, M., Blomqvist, T., and Hämäläinen, P. (2019). Recognizing emotional expression in game streams. pages 301–311. (página 24)
dc.relation.referencesRoohi, S., Takatalo, J., Kivikangas, J. M., and Hämäläinen, P. (2018). Neural network based facial expression analysis of gameevents: a cautionary tale. In Proceedings of the 2018 Annual Symposium on Computer-Human Interaction in Play, pages 429–437. (páginas 22 and 23)
dc.relation.referencesShaker, N., Yannakakis, G. N., and Togelius, J. (2010). Towards automatic personalized content generation for platform games. In Sixth Artificial Intelligence and Interactive Digital Entertainment Conference. (página 38)
dc.relation.referencesSudhakaran, S., Grbic, D., Arasteh, S. T., Vig, L., Kober, J., and Risi, S. (2023). Mariogpt: Open-ended text2level generation through large language models. (página 46)
dc.relation.referencesSummerville, A., Snodgrass, S., Guzdial, M., Holmgård, C., Hoover, A. K., Isaksen, A., Nealen, A., and Togelius, J. (2018). Procedural content generation via machine learning (pcgml). IEEE Transactions on Games, 10(3):257–270. (páginas 37 and 48)
dc.relation.referencesSummerville, A. and Mateas, M. (2016). Super mario as a string: Platformer level generation via lstms. In Twelfth artificial intelligence and interactive digital entertainment conference. (página 39)
dc.relation.referencesSvoren, H., Thambawita, V., Halvorsen, P., Jakobsen, P., Garcia-Ceja, E., Noori, F. M., Hammer, H. L., Lux, M., Riegler, M. A., and Hicks, S. A. (2020). Toadstool: A dataset for training emotional intelligent machines playing super mario bros. In Proceedings of the 11th ACM Multimedia Systems Conference, pages 309–314. (páginas 33, 54y55)
dc.relation.referencesTang, X. and Troussas, C. G. (2019). Adaptive narrative in a serious game for personalized learning. Journal of Computer Assisted Learning, 35(6):749–762. (página 41)
dc.relation.referencesTogelius, J., Kastbjerg, E., Schedl, D., and Yannakakis, G. N. (2011). What is procedural content generation? mario on the borderline. In Proceedings of the 2nd international workshop on procedural content generation in games, pages 1–6. (páginas 36 and 81)
dc.relation.referencesTroussas, C. G., Krouska, A., and Sgouropoulos, I. (2020). Fuzzy logic-based dynamic difficulty adjustment for adaptive game environments. In 2020 11th International Conference on Information, Intelligence, Systems and Applications (IISA), pages 1–6. IEEE. (página 43)
dc.relation.referencesVan der Maaten, L. and Hinton, G. (2008). Visualizing data using t-sne. Journal of machine learning research, 9(11). (página 72)
dc.relation.referencesVroomen, J. and Keetels, M. (2010). Perception of intersensory synchrony: a tutorial review. Attention, Perception, & Psychophysics, 72:871–884. Aunque es anterior a 4 años, sus conceptos fundamentales sobre la ’Ventana de Enlace Temporal’ son citados por trabajos recientes y son esenciales para justificar la tolerancia al error. Se cita por su carácter fundacional. (página 64)
dc.relation.referencesWu, J., Zhang, C., Xue, T., Freeman, B., and Tenenbaum, J. (2016). Learning a probabilistic latent space of object shapes via 3d generative-adversarial modeling. In Advances in neural information processing systems, pages 82–90. (página 40)
dc.relation.referencesYannakakis, G. N. and Melhart, D. (2023). Affective game computing: A survey. Proceedings of the IEEE, 111(9):1423–1444. (página 53)
dc.relation.referencesZhou, R., He, J., Zhang, Y., Li, Z., Liu, Y., hui, Z., Smith, A., and Zhu, J. (2025a). Story2game: Generating (almost) everything in an interactive fiction game from a story. (página 47)
dc.relation.referencesZhou, Y. et al. (2025b). HarmonySet: A Comprehensive Dataset for Understanding Video-Music Semantic Alignment and Temporal Synchronization. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Trabajo muy reciente que describe un marco colaborativo humanomáquina para anotar la sincronización temporal, donde los anotadores humanos identifican marcas de tiempo clave que sirven como anclajes. Esto respalda firmemente la parte de anotación manual de la metodología. (páginas 62 and 63)
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.licenseReconocimiento 4.0 Internacional
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/
dc.subject.ddc000 - Ciencias de la computación, información y obras generales::004 - Procesamiento de datos Ciencia de los computadores
dc.subject.proposalGeneración procedimental de contenido (PCG)spa
dc.subject.proposalSuper Mario Broseng
dc.subject.proposalAutoencoders variacionales (VAE)spa
dc.subject.proposalPersonalización de videojuegosspa
dc.subject.proposalExperiencia del jugadorspa
dc.subject.proposalProcedural content generation (PCG)eng
dc.subject.proposalVariational autoencoders (VAE)eng
dc.subject.proposalVideo game personalizationeng
dc.subject.proposalPlayer experienceeng
dc.subject.unescoAlgoritmo
dc.subject.unescoAlgorithms
dc.subject.unescoInteligencia artificial
dc.subject.unescoArtificial intelligence
dc.subject.unescoProcesamiento de datos
dc.subject.unescoData processing
dc.titleDesarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquinaspa
dc.title.translatedDevelopment of a procedural content generation algorithm for the production of maps in 2D platformer videogames conditioned on player faces using machine learning techniqueseng
dc.typeTrabajo de grado - Maestría
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dcterms.audience.professionaldevelopmentInvestigadores
dcterms.audience.professionaldevelopmentEstudiantes
dcterms.audience.professionaldevelopmentMaestros
dcterms.audience.professionaldevelopmentPúblico general
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2

Archivos

Bloque original

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
Tesis de Maestría en Ingeniería - Automatización Industrial.pdf
Tamaño:
6.56 MB
Formato:
Adobe Portable Document Format
Descripción:
Tesis de Maestría en Ingeniería - Automatización Industrial

Bloque de licencias

Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
license.txt
Tamaño:
5.74 KB
Formato:
Item-specific license agreed upon to submission
Descripción: