Desarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquina
dc.contributor.advisor | Gómez Mendoza, Juan Bernardo | |
dc.contributor.advisor | Álvarez Meza, Andrés Marino | |
dc.contributor.author | Guarín Martínez, Daniel Felipe | |
dc.contributor.researchgroup | Percepción y Control Inteligente (Pci) | |
dc.contributor.researchgroup | Grupo de Control y Procesamiento Digital de Señales | |
dc.date.accessioned | 2025-09-04T16:44:56Z | |
dc.date.available | 2025-09-04T16:44:56Z | |
dc.date.issued | 2024 | |
dc.description | graficas, ilustraciones, tablas | spa |
dc.description.abstract | La personalización de contenido en videojuegos a partir de las emociones del jugador es un área de gran interés para crear experiencias más inmersivas y adaptativas. Sin embargo, su aplicación se enfrenta a desafíos fundamentales: la dificultad para sincronizar los datos del juego con las respuestas emocionales, la alta variabilidad en la forma en que cada individuo expresa sus emociones y la complejidad de establecer una correlación robusta entre ambos. Esta tesis aborda estos problemas mediante un enfoque metodológico de dos fases. Primero, se desarrolló un pipeline para procesar y sincronizar datos multimodales del dataset público Toadstool, que contiene game-data de Super Mario Bros y vídeos faciales de los jugadores. Un análisis cuantitativo mediante Correlación Canónica (CCA) y t-SNE reveló que no existe una correlación lineal universal entre las emociones y los eventos del juego, demostrando que las respuestas emocionales son fuertemente sujeto-dependientes. A partir de este hallazgo, la segunda fase se centró en la creación de un sistema de Generación Procedimental de Contenido (PCG) personalizado. Se desarrolló un modelo para un único sujeto (el más expresivo del dataset), asumiendo que para un individuo específico sí puede existir una relación más simple. Este pipeline utiliza un Autoencoder Variacional (VAE) para codificar la estructura de los niveles y un Análisis de Componentes Principales (PCA) que actúa como un ”traductor” lineal, mapeando el espacio latente de las expresiones faciales del jugador al espacio latente de los niveles. Los resultados fueron validados comparando los niveles generados por el pipeline con los niveles originales correspondientes a cada expresión facial de entrada. La evaluación cualitativa mostró una notable similitud visual y estructural. Cuantitativamente, el modelo alcanzó un Coeficiente de Dice promedio de 0.78, confirmando una alta fidelidad estructural. Se concluye que es factible generar contenido de juego coherente condicionado a las expresiones faciales de un jugador específico. La novedad de esta propuesta radica en demostrar la viabilidad de un enfoque sujeto-dependiente, que elude el problema de la variabilidad intersujeto y establece una base sólida para futuros sistemas de videojuegos verdaderamente adaptativos (Texto tomado de la fuente). | spa |
dc.description.abstract | The personalization of in-game content based on player emotions is an area of great interest for creating more immersive and adaptive experiences. However, its application faces fundamental challenges: the difficulty in synchronizing game data with emotional responses, the high variability in how each individual expresses emotions, and the complexity of establishing a robust correlation between the two. This thesis addresses these problems through a two-phase methodological approach. First, a pipeline was developed to process and synchronize multimodal data from the public Toadstool dataset, which contains game-data from Super Mario Bros. and facial videos of the players. A quantitative analysis using Canonical Correlation Analysis (CCA) and t-SNE revealed that there is no universal linear correlation between emotions and game events, demonstrating that emotional responses are strongly subject-dependent. Based on this finding, the second phase focused on creating a personalized Procedural Content Generation (PCG) system. A model was developed for a single subject (the most expressive in the dataset), assuming that a simpler relationship may exist for a specific individual. This pipeline uses a Variational Autoencoder (VAE) to encode the structure of the levels and a Principal Component Analysis (PCA) that acts as a linear ”translator,” mapping the latent space of the player’s facial expressions to the latent space of the levels. The results were validated by comparing the levels generated by the pipeline with the original levels corresponding to each input facial expression. The qualitative evaluation showed a notable visual and structural similarity. Quantitatively, the model achieved an average Dice Coefficient of 0.78, confirming high structural fidelity. It is concluded that it is feasible to generate coherent game content conditioned on the facial expressions of a specific player. The novelty of this proposal lies in demonstrating the viability of a subject-dependent approach, which bypasses the problem of inter-subject variability and establishes a solid foundation for future truly adaptive video game systems. | eng |
dc.description.curriculararea | Eléctrica, Electrónica, Automatización Y Telecomunicaciones.Sede Manizales | |
dc.description.degreelevel | Maestría | |
dc.description.degreename | Magíster en Ingeniería - Automatización Industrial | |
dc.format.extent | 111 páginas | |
dc.format.mimetype | application/pdf | |
dc.identifier.instname | Universidad Nacional de Colombia | spa |
dc.identifier.reponame | Repositorio Institucional Universidad Nacional de Colombia | spa |
dc.identifier.repourl | https://repositorio.unal.edu.co/ | spa |
dc.identifier.uri | https://repositorio.unal.edu.co/handle/unal/88606 | |
dc.language.iso | spa | |
dc.publisher | Universidad Nacional de Colombia | |
dc.publisher.branch | Universidad Nacional de Colombia - Sede Manizales | |
dc.publisher.faculty | Facultad de Ingeniería y Arquitectura | |
dc.publisher.place | Manizales, Colombia | |
dc.publisher.program | Manizales - Ingeniería y Arquitectura - Maestría en Ingeniería - Automatización Industrial | |
dc.relation.references | Akbar, M. T., Ilmi, M. N., Rumayar, I. V., Moniaga, J., Chen, T.-K., and Chowanda, A. (2019). Enhancing game experience with facial expression recognition as dynamic balancing. Procedia Computer Science, 157:388–395. (páginas 21, 22, 23, 24, 28, 70, 72y74) | |
dc.relation.references | Alchalabi, A. E., Shirmohammadi, S., Eddin, A. N., and Elsharnouby, M. (2018). FOCUS: Detecting ADHD patients by an EEG-based serious game. IEEE Transactions on Instrumentation and Measurement, 67(9):2129–2138. (página 30) | |
dc.relation.references | Andrew, A., Tjokrosetio, A. N., and Chowanda, A. (2020). Dynamic difficulty adjustment with facial expression recognition for improving player satisfaction in a survival horror game. ICIC Express Letters, 14(11):1097–1104. (páginas 21, 23, 27, 58y70) | |
dc.relation.references | Barthet, M., Kaselimi, M., Liapis, A., and Yannakakis, G. N. (2024). GameVibe: a multimodal affective game corpus. Scientific Data, 11(1):381. Introduce un corpus con fotogramas y audio sincronizados, utilizando anotación manual para asegurar la verdad terreno. Relevante para justificar el uso de vídeo del juego y el proceso de anotación. (páginas 61 and 62) | |
dc.relation.references | Blom, P. M., Bakkes, S., and Spronck, P. (2019). Modeling and adjusting in-game difficulty based on facial expression analysis. Entertainment Computing, 31:100307. (páginas 24, 28, 47, 48, 53, 69, 72y81) | |
dc.relation.references | Blom, P. M., Bakkes, S., Tan, C., Whiteson, S., Roijers, D., Valenti, R., and Gevers, T. (2014). Towards personalised gaming via facial expression recognition. In Proceedings of the AAAI Conference on Artificial Intelligence and Interactive Digital Entertainment, volume 10, pages 30–36. (páginas 22, 23, 28, 37, 47, 48, 53y59) | |
dc.relation.references | Chowanda, A., Dennis, V., Dharmawan, V., and Ramli, J. D. (2023). Player’s affective states as meta ai design on augmented reality games. JOIV: International Journal on Informatics Visualization, 7(2):561–568. (página 74) | |
dc.relation.references | Croissant, B., Knauss, C., Lohaus, D., Hoch, E., and Groh, G. (2023). Theories and mechanisms of video game addiction: A scoping review. Current Addiction Reports, pages 1–20. (páginas 21, 22, 23y24) | |
dc.relation.references | da Silva, A. F. and Chaimowicz, L. (2015). Dynamic difficulty adjustment for moba games. In Proceedings of the 14th Brazilian Symposium on Computer Games and Digital Entertainment, pages 32–41. (página 39) | |
dc.relation.references | Dahlskog, S., Togelius, J., and Nelson, M. J. (2014). Linear levels through ngrams. In Proceedings of the 9th international conference on the foundations of digital games, pages 1–8. (página 38) | |
dc.relation.references | Dresvyanskiy, D., Sinha, Y., Busch, M., and Siegert, I. (2022). DyCoDa: A multimodal data collection of multi-user remote survival game recordings. In Speech and Computer - 24th International Conference, SPECOM 2022, Proceedings, volume 13721 of Lecture Notes in Computer Science, pages 163–177. Springer. (página 34) | |
dc.relation.references | Fanourakis, M., Bång, M., and Chanel, G. (2021). A Modular and Extensible Platform for Synchronous Acquisition of Multimodal Data in Multi-Player Video Games. In Proceedings of the 2021 International Conference on Multimodal Interaction, pages 615–619. Destaca el desafío de la sincronicidad en la recopilación de datos multimodales para juegos y describe un sistema (LSL) para lograrla. Menciona eventos específicos del juego como la recogida de objetos y los eventos de muerte. (páginas 61 and 62) | |
dc.relation.references | Fanourakis, M., Bång, M., and Chanel, G. (2021). A Modular and Extensible Platform for Synchronous Acquisition of Multimodal Data in Multi-Player Video Games. In Proceedings of the 2021 International Conference on Multimodal Interaction, pages 615–619. Destaca el desafío de la sincronicidad en la recopilación de datos multimodales para juegos y describe un sistema (LSL) para lograrla. Menciona eventos específicos del juego como la recogida de objetos y los eventos de muerte. (páginas 61 and 62) | |
dc.relation.references | Fortin-Cote, A., Beaudoin-Gagnon, N., Chamberland, C., Desbiens, F., Lefebvre, L., Bergeron, J., Campeau-Lecours, A., Tremblay, S., and Jackson, P. L. (2019). FUNii: The physio-behavioural adaptive video game. In Sottilare, R. A. and Schwarz, J., editors, Augmented Cognition, volume 11580 of Lecture Notes in Computer Science, pages 14–28. Springer International Publishing. (página 32) | |
dc.relation.references | Guglielmo, G., Blom, P. M., Klincewicz, M., Čule, B., and Spronck, P. (2022). Face in the game: Using facial action units to track expertise in competitive video game play. In 2022 IEEE Conference on Games (CoG), pages 112–118. IEEE. (página 28) | |
dc.relation.references | Hariadi, D., Yuniarno, E. M., and Purnomo, M. H. (2024). Dynamic level of difficulties using q-learning and fuzzy logic. International Journal of Intelligent Engineering and Systems, 17(1):536–547. (página 46) | |
dc.relation.references | Guzel, I. Y., Pot, F. D., and Hung, H. S. (2023). Correlation between Facial Expressions and Subjective Player Experiences in a Competitive Digital Card Game. In 2023 11th International Conference on Affective Computing and Intelligent Interaction (ACII), pages 1–8. Conecta las expresiones faciales con las experiencias subjetivas del jugador en un juego competitivo, reforzando la validez de usar datos faciales como una modalidad de respuesta vinculada a los eventos del juego. (página 61) | |
dc.relation.references | Holt, M. C., Gonzalez-Mora, J. C., Liu, J., and Lucas, S. M. (2021). Integrating player-centric procedural content generation in a human testing environment. In 2021 IEEE Conference on Games (CoG), pages 1–8. IEEE. (página 44) | |
dc.relation.references | Hendrikx, M., Meijer, S., Van Der Velden, J., and Iosup, A. (2013). Procedural content generation for games: A survey. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 9(1):1–22. (páginas 36 and 81) | |
dc.relation.references | Jain, R., Isaksen, A., Holmgård, C., and Togelius, J. (2016). Autoencoders for level generation, repair, and recognition. In Proceedings of the ICCC workshop on computational creativity and games, volume 9. (página 58) | |
dc.relation.references | Karpouzis, K., Yannakakis, G. N., Shaker, N., and Asteriadis, S. (2015a). The platformer experience dataset. In 2015 International Conference on Affective Computing and Intelligent Interaction (ACII), pages 712–718. IEEE. (páginas 23 and 35) | |
dc.relation.references | Kowal, M., Conroy, E., Ramsbottom, N., Smithies, T., Toth, A., and Campbell, M. (2021). Gaming your mental health: a narrative review on mitigating symptoms of depression and anxiety using commercial video games. JMIR Serious Games, 9(2):e26575. (página 21) | |
dc.relation.references | Krumhuber, E. G., Küster, D., Namba, S., and Skora, L. (2021). Human and machine validation of 14 databases of dynamic facial expressions. Behavior research methods, 53:686–701. (páginas 23 and 36) | |
dc.relation.references | Li, C.-C., Wang, Y.-S., Hsiao, F.-J., and Wang, C.-W. (2020). 3d model generation and reconstruction using conditional generative adversarial network. In Multimedia modeling: 26th international conference, MMM 2020, Daejeon, South Korea, January 5-8, 2020, Proceedings, Part I, pages 16–27. Springer. (página 42) | |
dc.relation.references | Liu, D., Liu, B., Lin, T., Liu, G., Yang, G., Qi, D., Qiu, Y., Lu, Y., Yuan, Q., Shuai, S. C., et al. (2022). Measuring depression severity based on facial expression and body movement using deep convolutional neural network. Frontiers in psychiatry, 13:1017064. (página 84) | |
dc.relation.references | López, C. and Tucker, C. (2018). Toward personalized adaptive gamification: a machine learning model for predicting performance. IEEE transactions on Games, 12(2):155–168. (páginas 24, 47y48) | |
dc.relation.references | Moniaga, J. V., Chowanda, A., Prima, A., Rizqi, M. D. T., et al. (2018). Facial expression recognition as dynamic game balancing system. Procedia Computer Science, 135:361–368. (páginas 24, 28y69) | |
dc.relation.references | Patidar, I., Modh, K. S., and Chattopadhyay, C. (2020). Artificially intelligent game framework based on facial expression recognition. In Computer Vision, Pattern Recognition, Image Processing, and Graphics: 7th National Conference, NCVPRIPG 2019, Hubballi, India, December 22–24, 2019, Revised Selected Papers 7, pages 312–321. Springer. (página 22) | |
dc.relation.references | Piatkowski, J., Karbowiak, L., and Depta, F. (2024). A lightweight algorithm for synchronized multimodal data acquisition using temporal sample alignment. Scientific Reports, 14(1):2045. Enfatiza que incluso pequeñas interrupciones en la sincronización pueden tener consecuencias graves y discute la necesidad crítica de una sincronización temporal adecuada en la fusión de datos multimodales. (página 61) | |
dc.relation.references | Rajabi, E., Wang, L., and Qin, A. (2021). A dynamic balanced level generator for video games based on deep convolutional generative adversarial networks. IEEE Transactions on Games, 14(3):421–430. (página 44) | |
dc.relation.references | Roohi, S., Mekler, E. D., Tavast, M., Blomqvist, T., and Hämäläinen, P. (2019). Recognizing emotional expression in game streams. pages 301–311. (página 24) | |
dc.relation.references | Roohi, S., Takatalo, J., Kivikangas, J. M., and Hämäläinen, P. (2018). Neural network based facial expression analysis of gameevents: a cautionary tale. In Proceedings of the 2018 Annual Symposium on Computer-Human Interaction in Play, pages 429–437. (páginas 22 and 23) | |
dc.relation.references | Shaker, N., Yannakakis, G. N., and Togelius, J. (2010). Towards automatic personalized content generation for platform games. In Sixth Artificial Intelligence and Interactive Digital Entertainment Conference. (página 38) | |
dc.relation.references | Sudhakaran, S., Grbic, D., Arasteh, S. T., Vig, L., Kober, J., and Risi, S. (2023). Mariogpt: Open-ended text2level generation through large language models. (página 46) | |
dc.relation.references | Summerville, A., Snodgrass, S., Guzdial, M., Holmgård, C., Hoover, A. K., Isaksen, A., Nealen, A., and Togelius, J. (2018). Procedural content generation via machine learning (pcgml). IEEE Transactions on Games, 10(3):257–270. (páginas 37 and 48) | |
dc.relation.references | Summerville, A. and Mateas, M. (2016). Super mario as a string: Platformer level generation via lstms. In Twelfth artificial intelligence and interactive digital entertainment conference. (página 39) | |
dc.relation.references | Svoren, H., Thambawita, V., Halvorsen, P., Jakobsen, P., Garcia-Ceja, E., Noori, F. M., Hammer, H. L., Lux, M., Riegler, M. A., and Hicks, S. A. (2020). Toadstool: A dataset for training emotional intelligent machines playing super mario bros. In Proceedings of the 11th ACM Multimedia Systems Conference, pages 309–314. (páginas 33, 54y55) | |
dc.relation.references | Tang, X. and Troussas, C. G. (2019). Adaptive narrative in a serious game for personalized learning. Journal of Computer Assisted Learning, 35(6):749–762. (página 41) | |
dc.relation.references | Togelius, J., Kastbjerg, E., Schedl, D., and Yannakakis, G. N. (2011). What is procedural content generation? mario on the borderline. In Proceedings of the 2nd international workshop on procedural content generation in games, pages 1–6. (páginas 36 and 81) | |
dc.relation.references | Troussas, C. G., Krouska, A., and Sgouropoulos, I. (2020). Fuzzy logic-based dynamic difficulty adjustment for adaptive game environments. In 2020 11th International Conference on Information, Intelligence, Systems and Applications (IISA), pages 1–6. IEEE. (página 43) | |
dc.relation.references | Van der Maaten, L. and Hinton, G. (2008). Visualizing data using t-sne. Journal of machine learning research, 9(11). (página 72) | |
dc.relation.references | Vroomen, J. and Keetels, M. (2010). Perception of intersensory synchrony: a tutorial review. Attention, Perception, & Psychophysics, 72:871–884. Aunque es anterior a 4 años, sus conceptos fundamentales sobre la ’Ventana de Enlace Temporal’ son citados por trabajos recientes y son esenciales para justificar la tolerancia al error. Se cita por su carácter fundacional. (página 64) | |
dc.relation.references | Wu, J., Zhang, C., Xue, T., Freeman, B., and Tenenbaum, J. (2016). Learning a probabilistic latent space of object shapes via 3d generative-adversarial modeling. In Advances in neural information processing systems, pages 82–90. (página 40) | |
dc.relation.references | Yannakakis, G. N. and Melhart, D. (2023). Affective game computing: A survey. Proceedings of the IEEE, 111(9):1423–1444. (página 53) | |
dc.relation.references | Zhou, R., He, J., Zhang, Y., Li, Z., Liu, Y., hui, Z., Smith, A., and Zhu, J. (2025a). Story2game: Generating (almost) everything in an interactive fiction game from a story. (página 47) | |
dc.relation.references | Zhou, Y. et al. (2025b). HarmonySet: A Comprehensive Dataset for Understanding Video-Music Semantic Alignment and Temporal Synchronization. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Trabajo muy reciente que describe un marco colaborativo humanomáquina para anotar la sincronización temporal, donde los anotadores humanos identifican marcas de tiempo clave que sirven como anclajes. Esto respalda firmemente la parte de anotación manual de la metodología. (páginas 62 and 63) | |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.rights.license | Reconocimiento 4.0 Internacional | |
dc.rights.uri | http://creativecommons.org/licenses/by/4.0/ | |
dc.subject.ddc | 000 - Ciencias de la computación, información y obras generales::004 - Procesamiento de datos Ciencia de los computadores | |
dc.subject.proposal | Generación procedimental de contenido (PCG) | spa |
dc.subject.proposal | Super Mario Bros | eng |
dc.subject.proposal | Autoencoders variacionales (VAE) | spa |
dc.subject.proposal | Personalización de videojuegos | spa |
dc.subject.proposal | Experiencia del jugador | spa |
dc.subject.proposal | Procedural content generation (PCG) | eng |
dc.subject.proposal | Variational autoencoders (VAE) | eng |
dc.subject.proposal | Video game personalization | eng |
dc.subject.proposal | Player experience | eng |
dc.subject.unesco | Algoritmo | |
dc.subject.unesco | Algorithms | |
dc.subject.unesco | Inteligencia artificial | |
dc.subject.unesco | Artificial intelligence | |
dc.subject.unesco | Procesamiento de datos | |
dc.subject.unesco | Data processing | |
dc.title | Desarrollo de algoritmo de generación de contenido procedimental para la producción de mapas en videojuegos de plataforma 2D condicionados a rostros de jugadores usando técnicas de aprendizaje de máquina | spa |
dc.title.translated | Development of a procedural content generation algorithm for the production of maps in 2D platformer videogames conditioned on player faces using machine learning techniques | eng |
dc.type | Trabajo de grado - Maestría | |
dc.type.coar | http://purl.org/coar/resource_type/c_bdcc | |
dc.type.coarversion | http://purl.org/coar/version/c_ab4af688f83e57aa | |
dc.type.content | Text | |
dc.type.driver | info:eu-repo/semantics/masterThesis | |
dc.type.version | info:eu-repo/semantics/acceptedVersion | |
dcterms.audience.professionaldevelopment | Investigadores | |
dcterms.audience.professionaldevelopment | Estudiantes | |
dcterms.audience.professionaldevelopment | Maestros | |
dcterms.audience.professionaldevelopment | Público general | |
oaire.accessrights | http://purl.org/coar/access_right/c_abf2 |
Archivos
Bloque original
1 - 1 de 1
Cargando...
- Nombre:
- Tesis de Maestría en Ingeniería - Automatización Industrial.pdf
- Tamaño:
- 6.56 MB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Tesis de Maestría en Ingeniería - Automatización Industrial
Bloque de licencias
1 - 1 de 1
Cargando...
- Nombre:
- license.txt
- Tamaño:
- 5.74 KB
- Formato:
- Item-specific license agreed upon to submission
- Descripción: