Show simple item record

dc.rights.licenseAtribución-NoComercial 4.0 Internacional
dc.contributor.advisorGómez Perdomo, Jonatan
dc.contributor.authorBeltrán Velandia, Ferney
dc.date.accessioned2021-03-23T16:02:45Z
dc.date.available2021-03-23T16:02:45Z
dc.date.issued2020-12-12
dc.identifier.urihttps://repositorio.unal.edu.co/handle/unal/79367
dc.description.abstractIdentificar la expresión de emociones de un individuo por medio del análisis de señales de electroencefalografía (EEG) es importante para el diseño de sistemas computacionales en el campo de la computación afectiva. Estos sistemas buscan extraer información de las señales EEG y relacionarla con las emociones de forma autónoma, tal que pueda ser aplicado en diferentes contextos, por ejemplo en el apoyo de procesos musicoterapéuticos. En esta tesis se construyen dos modelos computacionales basados en aprendizaje supervisado y no-supervisado: una red neuronal convolucional-recurrente (CRNN) y un conjunto de mapas auto-organizados (SOM). El principal objetivo consiste en identificar emociones como funciones temporales a partir del estudio de señales EEG, que son registradas por medio de la diadema EPOC+. La fuente de estímulo son 8 piezas musicales, las cuales se componen para evocar 4 emociones en un grupo de personas: alegría, tristeza, calma y furia. Adicionalmente, a través de la prueba de auto-evaluación SAM, un individuo marca un puntaje emocional por cada estímulo en términos de las dimensiones Actividad y Valencia. Se aplica un protocolo experimental para registrar las señales EEG de 30 participantes, mientras que ellos escuchan las piezas musicales compuestas. Se construye el conjunto de datos EEGLife a partir del procesamiento de las señales EEG puras, con el fin de reducir o remover ruido de diferentes artefactos. Algunas características se extraen de las señales EEG tales como: la correlación cruzada entre señales, la potencia relativa de las bandas de frecuencia, y los escalogramas basados en la transformada Wavelet. Las características extraídas y los puntajes emocionales conforman el conjunto de entrenamiento-validación para las redes neuronales propuestas. Para cada uno de los modelos se escoge la arquitectura y los hiperparámetros dependiendo de los conjuntos de entrenamiento-validación. Se utiliza un esquema de entrenamiento basado en el sujeto con 20% de cada participante para validación sobre el conjunto de datos EEGLife y sobre un conjunto de referencia, el conjunto DEAP. Se realiza una etapa de validación para comparar el desempeño de las redes neuronales en términos de las medidas Precisión, Exhaustividad, Valor-F1 y Exactitud. Los resultados muestran que los modelos extraen la información relacionada con la expresión emocional más fácil para el conjunto EEGLife que para el conjunto DEAP. Los resultados también muestran que el modelo SOM tiene mejor desempeño que el modelo CRNN principalmente por dos razones: el modelo SOM no contempla los puntajes emocionales en el entrenamiento sino en asignar un significado a los grupos resultantes en los mapas, y la asignación de puntajes emocionales contempla la contribución de varios participantes por medio de un sistema difuso. Finalmente, el modelo SOM tiene una propiedad de interpretabilidad que no tiene el modelo CRNN, lo que permite analizar la representación de las señales EEG de forma intuitiva en los mapas auto-organizados.
dc.description.abstractIdentifying emotional expressions from individuals is important to build computational systems in the field of affective computing when Electroencephalography signals (EEG) are analyzed. Such systems are designed to autonomously extract pieces of information from EEG signals regarding to emotions. This process can be applied in different areas, for example, to support music-therapeutical processes. In this thesis, supervised and unsupervised learning techniques are applied to train two models of neural networks: convolutional-recurrent neural networks CRNN and a set of self-organizing maps SOM. The main goal is the identification of emotions as temporal representations from EEG signals, which are collected by an EPOC+ neuroheadset. The source of stimuli are 8 pieces of music that are composed to theoretically evoke 4 emotions on people: happiness, sadness, calmness and anger. Additionally, through the self-assessment manikin test SAM, an individual provides a score for each stimulus in terms of emotional dimensions Arousal and Valence. EEG signals from 30 participants are recorded while they listen to the composed pieces of music. The EEGLife dataset is built by applying digital signal processing techniques to the raw EEG signals to reduce noise and to remove artifacts. Some features are extracted from EEG signals such as cross-correlation, bandpower and wavelet scalograms. These features and scores coming from people form the dataset for training and validating the proposed neural networks. Architectures and hyper-parameters are chosen for each neural network according to their training-test datasets. A subject-specific training schema with 20% per participant for validation is used not only for the EEGLife dataset, but also from a benchmark dataset, the DEAP dataset. A validation stage is made to compare the performance of all the models by using Precision, Recall, F1-Score and Accuracy metrics. Results show that both models can extract the emotional expression information easier from EEGLife than DEAP dataset. Additionally, results show that SOM model performs better than CRNN model mainly for two factors: SOM model does not consider emotional scores during the training, but just to assign meaning to the resulting groups in maps; the final emotional scores are calculated by a fuzzy system, which computes the contribution of more than one participant. Finally, the SOM model has an interpretability property not found in CRNN model, which allows to intuitively analyze represented EEG signals on the self-organized maps.
dc.format.extent1 recurso en línea (106 páginas)
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherUniversidad Nacional de Colombia
dc.rightsDerechos reservados - Universidad Nacional de Colombia
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/
dc.subject.ddc000 - Ciencias de la computación, información y obras generales
dc.subject.otherRedes neuronales
dc.subject.otherNeural networks
dc.titleUn enfoque basado en redes neuronales para el reconocimiento de emociones como funciones temporales usando señales EEG y estímulos musicales
dc.typeTrabajo de grado - Maestría
dc.type.driverinfo:eu-repo/semantics/masterThesis
dc.type.versioninfo:eu-repo/semantics/acceptedVersion
dc.publisher.programBogotá - Ingeniería - Maestría en Ingeniería - Ingeniería de Sistemas y Computación
dc.contributor.researchgroupALIFE: Grupo de Investigación en Vida Artificial
dc.description.degreelevelMaestría
dc.description.methodsCon el objetivo de diseñar un modelo computacional para el reconocimiento de emociones como funciones temporales, esta tesis se divide en cuatro etapas: Protocolo experimental para el registro de señales EEG y puntajes emocionales: El primer paso es escoger un modelo de emociones como el punto de referencia, tal como el modelo circunflejo de emociones, el modelo vectorial o el modelo PANA. El siguiente paso consiste en escoger un conjunto de emociones susceptible de ser inducidas por piezas de música, las cuales deben ajustarse al modelo dimensional de emociones escogido previamente. Algunas características musicales guían la composición de las piezas musicales. El siguiente paso consiste en diseñar un protocolo experimental en términos del número de participantes, los descriptores demográfi cos de la población, cuántas sesiones por participante, cuántos estímulos por sesión, la duración de cada sesión y qué mecanismo se aplica para evaluar la percepción de los participantes en cuanto a las dimensiones emocionales. Antes de aplicar el protocolo experimental, se desarrolla una herramienta de software para registrar las señales EEG usando una diadema EPOC+. Construcción del conjunto de datos a partir de la información registrada: Una vez analizado el protocolo experimental, algunas técnicas de procesamiento digital de señales se aplican a las señales EEG como etapas de limpieza y pre-procesamiento de los datos. Esta señales están contaminadas de ruido o artefactos, provenientes de diferentes fuentes intrínsecas o extrínsecas. La primera hace referencia a fuentes biológicas de ruido como el ritmo cardíaco, el movimiento ocular o muscular. Las fuentes extrínsecas o externas hacen referencia a ruidos eléctricos o electromagénticos de dispositivos cercanos a la intefaz cerebro-computador. Dependiendo del tipo de artefacto que se busque atenuar o corregir, es posible aplicar diferentes técnicas como filtros digitales, imputación de datos, análisis de componentes independientes. Al finalizar esta etapa, se obtiene un conjunto de datos donde cada ejemplo es una pareja de señales EEG limpias y los puntajes emocionales dados por los participantes. Extracción de características: Las señales EEG contienen una gran cantidad de información, parte de ella relacionada con la expresión de emociones. Manejar esta cantidad de información pura puede dificultar la tarea de un modelo computacional para extraer patrones emocionales. Por tanto, representar la información pura como un conjunto de características es un paso fundamental para que un modelo computacional encuentre patrones emocionales, dado que ahora trabaja con información agregada de la señales EEG. Para extraer características de señales EEG, se aplican análisis en el dominio del tiempo, de la frecuencia o tiempo-frecuencia. Algunos ejemplos de características son medidas estadísticas, correlación entre señales, el espectro de potencia de las bandas de frecuencia, coe cientes de la transformada Wavelet, dimensiones fractales, entre otras. La elección de cuáles características usar depende principalmente de su utilidad en el problema específico de identi cación de patrones emocionales y cuáles de ellas han sido efectivas en otros trabajos. Finalmente, el resultado de esta etapa es un conjunto de datos que se compone de las características extraídas y los puntajes emocionales, este se denomina conjunto de datos de características. Modelo computacional: Una vez se obtiene el conjunto de datos de características, se de ne el esquema de entrenamiento-validación y cuál es la partición de datos. Después de esto, independiente de la red neuronal que se escoja, se seleccionan los hiperparámetros del modelo computacional como número de neuronas, algoritmo de aprendizaje, si es necesario entrenar más de una red neuronal para obtener el modelo completo. También se de fine(n) la(s) medida(s) de desempeño del modelo computacional, teniendo en cuenta que se debe tomar como referencia una métrica de similitud entre la salida de la red neuronal y los puntajes emocionales dados por los participantes para cada estímulo escuchado. Posterior a esto, se entrena el modelo computacional y se realizan los experimentos para evaluar el desempeño del modelo en términos de la(s) medida(s) planteadas. Finalmente, se realiza el análisis de resultados, las conclusiones y el trabajo futuro que pueda surgir de todo el proyecto de tesis.
dc.description.researchareaComputación afectiva
dc.publisher.departmentDepartamento de Ingeniería de Sistemas e Industrial
dc.publisher.facultyFacultad de Ingeniería
dc.publisher.placeBogotá
dc.publisher.branchUniversidad Nacional de Colombia - Sede Bogotá
dc.relation.references[1] Appriou, A. ; Cichocki, A. ; Lotte, F.: Modern Machine-Learning Algorithms: For Classifying Cognitive and A ective States From Electroencephalography Signals. En: IEEE Systems, Man, and Cybernetics Magazine 6 (2020), Nr. 3, p. 29-38
dc.relation.references[2] Balkwill, Laura-Lee ; Thompson, William F.: A Cross-Cultural Investigation of the Perception of Emotion in Music: Psychophysical and Cultural Cues. En: Music Perception: An Interdisciplinary Journal 17 (1999), Nr. 1, p. 43-64. - ISSN 0730-7829
dc.relation.references[3] Basheer, Imad A. ; Hajmeer, Maha N.: Artificial neural networks: fundamentals, computing, design, and application. En: Journal of microbiological methods 43 1 (2000), p. 3-31
dc.relation.references[4] Bella, Simone D. ; Peretz, Isabelle ; Rousseau, Luc ; Gosselin, Nathalie: A developmental study of the affective value of tempo and mode in music. En: Cognition 80 (2001), Nr. 3, p. B1 - B10. - ISSN 0010-0277
dc.relation.references[5] Berger, Hans: Über das Elektrenkephalogramm des Menschen. En: Archiv für Psychiatrie und Nervenkrankheiten 94 (1931), Dec, Nr. 1, p. 16-60. - ISSN 1433-8491
dc.relation.references[6] Bhatti, Adnan M. ; Majid, Muhammad ; Anwar, Syed M. ; Khan, Bilal: Human emotion recognition and analysis in response to audio music using brain signals. En: Computers in Human Behavior 65 (2016), p. 267-275. - ISSN 07475632
dc.relation.references[7] Blankertz, B. ; Tomioka, R. ; Lemm, S. ; Kawanabe, M. ; K., Muller: Optimizing Spatial filters for Robust EEG Single-Trial Analysis. En: IEEE Signal Processing Magazine 25 (2008), Nr. 1, p. 41-56
dc.relation.references[8] Bolós, V. J. ; Benítez., R.: The wavelet scalogram in the study of time series. En: Advances in Differential Equations and Applications Vol. 4, Springer, Cham, 2014. - ISBN 978-3-319-06953-1, p. 147-154
dc.relation.references[9] Bradley, M. M. ; Greenwald, M. K. ; Petry, M. C. ; Lang, P. J.: Remembering pictures: pleasure and arousal in memory. En: Journal of experimental psychology 18 (1992), Nr. 2, p. 379-390
dc.relation.references[10] Bradley, M. M. ; Lang, P. J.: Measuring emotion: The self-assessment manikin and the semantic differential. En: Journal of Behavior Therapy and Experimental Psychiatry 25 (1994), p. 49-59
dc.relation.references[11] Brocious, Cody ; Machulis, Kyle. Emokit. 2017
dc.relation.references[12] Bruscia, Kenneth E.: Defining Music Therapy. Barcelona Publishers, 2014. - ISBN 9781937440572
dc.relation.references[13] Candra, Henry ; Yuwono, Mitchell ; Handojoseno, Ardi ; Chai, Rifai ; Su, Steven; Nguyen, Hung T.: Recognizing emotions from EEG subbands using wavelet analysis. En: Proceedings of the Annual International Conference of the IEEE Engineering in Medicine and Biology Society, EMBS 2015-Novem (2015), p. 6030-6033. - ISBN 9781424492718
dc.relation.references[14] Clinic, London. What are brainwaves? 2019
dc.relation.references[15] Cohen, Marc A.: Against basic emotions, and toward a comprehensive theory, 2005
dc.relation.references[16] Cooke, D.: The Language of Music. Oxford University Press, 1989 (Clarendon paperbacks). - ISBN 9780198161806
dc.relation.references[17] Cox, Dennis D.: Spectral Analysis for Physical Applications: Multitaper and Conventional Univariate Techniques. En: Technometrics 38 (1996), Nr. 3, p. 294-294
dc.relation.references[18] Daly, Ian ; Malik, Asad ; Weaver, James ; Hwang, Faustina ; Nasuto, Slawmoir J. ; Williams, Duncan ; Kirke, Alexis ; Miranda, Eduardo: Identifying music-induced emotions from EEG for use in brain-computer music interfacing. En: 2015 International Conference on Affective Computing and Intelligent Interaction, ACII 2015 22 (2015), p. 923-929. ISBN 9781479999538
dc.relation.references[19] Daly, Ian ; Malik, Asad ; Weaver, James ; Hwang, Faustina ; Nasuto, Slawomir J. ; Williams, Duncan ; Kirke, Alexis ; Miranda, Eduardo: Towards human-computer music interaction: Evaluation of an affectively-driven music generator via galvanic skin response measures. En: 2015 7th Computer Science and Electronic Engineering Conference, CEEC 2015 - Conference Proceedings (2015), p. 87-92
dc.relation.references[20] Developers, MNE. Background information on filtering. 2019
dc.relation.references[21] Ekman, P. ; Friesen, W.V.: Unmasking the Face: A Guide to Recognizing Emotions from Facial Clues. Malor Books, 2003 (A spectrum book). - ISBN 9781883536367
dc.relation.references[22] Ekman, Paul: An argument for basic emotions, 1992
dc.relation.references[23] Engelberg, Shlomo.: Digital Signal Processing, An experimental approach. Springer, 2008. - ISBN 978-1-84800-118-3
dc.relation.references[24] of Florida, Univesity. The center for the study of emotion and attention. 2019
dc.relation.references[25] Fraga, Tania ; Pichiliani, Mauro ; Louro, Donizetti: Experimental Art with Brain Controlled Interface. En: Stephanidis, Constantine (Ed.) ; Antona, Margherita (Ed.): Universal Access in Human-Computer Interaction. Design Methods, Tools, and Interaction Techniques for eInclusion. Berlin, Heidelberg : Springer Berlin Heidelberg, 2013, p. 642-651
dc.relation.references[26] Friberg, Anders ; Bresin, Roberto ; Sundberg, Johan: Overview of the KTH rule system for musical performance. En: Advances in Cognitive Psychology 2 (2006), Nr. 2-3, p. 145-161
dc.relation.references[27] Gabrielsson, Alf: Strong Experiences with Music. En: Juslin, Patrik N. (Ed.) ; Sloboda, John (Ed.): Handbook of Music and Emotion: Theory, Research, Applications. Oxford University Press, 2011
dc.relation.references[28] Goebel, Randy: Lecture Notes in Artificial Intelligence Subseries of Lecture Notes in Computer Science LNAI Series Editors. 2011. - ISBN 9783642341816
dc.relation.references[29] Goyal, M. ; Singh, M. ; Singh, M.: Classification of emotions based on ERP feature extraction. En: 2015 1st International Conference on Next Generation Computing Technologies (NGCT), 2015, p. 660-662
dc.relation.references[30] Gramfort, Alexandre ; Luessi, Martin ; Larson, Eric ; Engemann, Denis A. ; Strohmeier, Daniel ; Brodbeck, Christian ; Goj, Roman ; Jas, Mainak ; Brooks, Teon ; Parkkonen, Lauri ; H am al ainen, Matti: MEG and EEG data analysis with MNE-Python. En: Frontiers in Neuroscience 7 (2013), Nr. 7 DEC, p. 1-13. - ISSN 1662453X
dc.relation.references[31] Haykin, S. ; Haykin, S.S.: Neural Networks and Learning Machines. Prentice Hall, 2009 (Neural networks and learning machines v. 10). - ISBN 9780131471399
dc.relation.references[32] HEVNER, K.: Experimental studies of the elements of expression in music. En: American Journal of Psychology 48 (1936), p. 246-268
dc.relation.references[33] Hussain, Zahir M. ; Sadik, Amin Z. ; OShea, Peter: Digital Signal Processing, An introduction with MATLAB and applications. Springer, 2011. - ISBN 978-3-642-15590-1
dc.relation.references[34] Hyvärinen, A. ; Oja, E.: Independent component analysis: algorithms and applications. En: Neural Networks 13 (2000), Nr. 4, p. 411 - 430. - ISSN 0893-6080
dc.relation.references[35] Jenke, R. ; Peer, A. ; Buss, M.: Feature Extraction and Selection for Emotion Recognition from EEG. En: IEEE Transactions on Affective Computing 5 (2014), July, Nr. 3, p. 327-339
dc.relation.references[36] Juslin, Patrik N.: Communicating emotion in music performance: A review and a theoretical framework, 2001
dc.relation.references[37] Katsigiannis, Stamos ; Ramzan, Naeem. DREAMER: A Database for Emotion Recognition through EEG and ECG Signals from Wireless Low-cost O -the-Shelf Devices.April 2017
dc.relation.references[38] Kivy, Peter: Music Alone: Philosophical Reflections on the Purely Musical Experience. Cornell University Press, 1990
dc.relation.references[39] Koelstra, Sander ; Muhl, Christian ; Soleymani, Mohammad ; Lee, Jong-Seok ; Yazdani, Ashkan ; Ebrahimi, Touradj ; Pun, Thierry ; Nijholt, Anton ; Patras, Ioannis: DEAP: A Database for Emotion Analysis ;Using Physiological Signals. En: IEEE Trans. Affect. Comput. 3 (2012), Januar, Nr. 1, p. 18-31. - ISSN 1949-3045
dc.relation.references[40] Kohonen, T. ; Schroeder, M. R. ; Huang, T. S.: Self-Organizing Maps. 3rd. Berlin, Heidelberg : Springer-Verlag, 2001. - ISBN 3540679219
dc.relation.references[41] Lahane, Prashant ; Sangaiah, Arun K.: An Approach to EEG Based Emotion Recognition and Classification Using Kernel Density Estimation. En: Procedia Computer Science 48 (2015), p. 574-581
dc.relation.references[42] Lang, P. J.: Behavioral treatment and bio-behavioral assessment: Computer applications. En: Sidowski, J. B. (Ed.) ; Johnson, J. H. (Ed.) ; Williams, T. A. (Ed.): Technology in mental health care delivery systems. Norwood, NJ: Ablex, 1980, p. 119 - 137
dc.relation.references[43] Langer, S.K.: Philosophy In A New Key. 1951
dc.relation.references[44] Li, Xiang ; Song, Dawei ; Zhang, Peng ; Yu, Guangliang ; Hou, Yuexian ; Hu, Bin ; Kindom, United: Emotion Recognition from Multi-Channel EEG Data through Convolutional Recurrent Neural Network. (2016), p. 352-359. ISBN 9781509016105
dc.relation.references[45] Liu, Yisi ; Sourina, Olga: EEG-based Subject-Dependent Emotion Recognition Algorithm Using Fractal Dimension. En: IEEE International Conference on Systems, Man, and Cybernetics (2014), p. 3166-3171. - ISBN 9781479938407
dc.relation.references[46] Livingstone, Steven R. ; Muhlberger, Ralf ; Brown, Andrew R. ; Thompson, William F.: Changing Musical Emotion: A Computational Rule System for Modifying Score and Performance. En: Computer Music Journal 34 (2010), Nr. 1, p. 41-64. - ISSN 01489267, 15315169
dc.relation.references[47] Lopatovska, Irene ; Arapakis, Ioannis: Theories, methods and current research on emotions in library and information science, information retrieval and human-computer interaction. En: Information Processing & Management 47 (2011), Nr. 4, p. 575 - 592. - ISSN 0306-4573
dc.relation.references[48] Matlovic, Tomas ; Gáspár, Péter ; Móro, Róbert ; Simko, Jakub ; Bieliková, Mária: Emotions detection using facial expressions recognition and EEG. En: 2016 11th International Workshop on Semantic and Social Media Adaptation and Personalization (SMAP) (2016), p. 18-23
dc.relation.references[49] Mattek, Alison: Computational Methods for Portraying Emotion in Generative Music Composition., Tesis de Grado, 01 2010
dc.relation.references[50] Mehrabian, Albert ; Russell, James A.: An approach to environmental psychology, 1974
dc.relation.references[51] Meyer, L.B.: Emotion and Meaning in Music. University of Chicago Press, 1961 (Jeff borrow list). - ISBN 9780226521398
dc.relation.references[52] Niu, X. ; Chen, L. ; Chen, Q.: Research on genetic algorithm based on emotion recognition using physiological signals. En: 2011 International Conference on Computational Problem-Solving (ICCP), 2011, p. 614-618
dc.relation.references[53] Picard, Rosalind W.: Affective computing: challenges. En: International Journal of Human-Computer Studies 59 (2003), Nr. 1, p. 55 - 64. - Applications of Affective Computing in Human-Computer Interaction. - ISSN 1071-5819
dc.relation.references[54] PLUTCHIK, ROBERT: Chapter 1 - A GENERAL PSYCHOEVOLUTIONARY THEORY OF EMOTION. En: Plutchik, Robert (Ed.) ; Kellerman, Henry (Ed.): Theories of Emotion. Academic Press, 1980. - ISBN 978-0-12-558701-3, p. 3 - 33
dc.relation.references[55] Prerau, Michael J. ; Brown, Ritchie E. ; Bianchi, Matt T. ; Ellenbogen, Jeffrey M. ; Purdon, Patrick L.: Sleep Neurophysiological Dynamics Through the Lens of Multitaper Spectral Analysis. En: Physiology (Bethesda, Md.) 32 (2017), January, Nr. 1, p. 60|92. - ISSN 1548-9213
dc.relation.references[56] Raschka, S. ; Mirjalili, V.: Python Machine Learning. 2nd. Marcombo, 2016
dc.relation.references[57] Remington, N. A. ; Fabrigar, L. R. ; Visser, P. S.: Reexamining the circumplex model of a ect. En: Journal of Personality and Social Psychology 79 (2000), p. 286-300
dc.relation.references[58] Rodriguez, Alex ; Laio, Alessandro: Clustering by fast search and nd of density peaks. En: Science 344 (2014), Nr. 6191, p. 1492-1496. - ISSN 0036-8075
dc.relation.references[59] Rubin, David C. ; Talarico, Jennifer M.: A comparison of dimensional models of emotion: Evidence from emotions, prototypical events, autobiographical memories, and words. En: Memory 17 (2009), Nr. 8, p. 802-808
dc.relation.references[60] Rumelhart, David E. ; Hinton, Geo rey E. ; Williams, Ronald J.: Learning representations by back-propagating errors. En: Nature 323 (1986), p. 533-536
dc.relation.references[61] Russell, J.A.: A circumplex model of affect. En: Journal of personality and social psychology 39 (1980), Nr. 6, p. 1161-1178. - ISSN 0022-3514
dc.relation.references[62] Schlosberg, Harold: Three dimensions of emotion. En: Psychological review 61 2 (1954), p. 81-8
dc.relation.references[63] Soleymani, M. ; Asghari-Esfeden, S. ; Fu, Y. ; Pantic, M.: Analysis of EEG Signals and Facial Expressions for Continuous Emotion Detection. En: IEEE Transactions on Affective Computing 7 (2016), Jan, Nr. 1, p. 17-28
dc.relation.references[64] Soleymani, M. ; Lichtenauer, J. ; Pun, T. ; Pantic, M.: A Multimodal Database for Affect Recognition and Implicit Tagging. En: IEEE Transactions on Affective Computing 3 (2012), Jan, Nr. 1, p. 42-55. - ISSN 1949-3045
dc.relation.references[65] Takahashi, Kazuhiko: Remarks on emotion recognition from bio-potential signals. En: 2nd International Conference on Autonomous Robots and Agents (2004), 01
dc.relation.references[66] Tan, S.L. ; Pfordresher, P. ; Harré, R.: Psychology of Music: From Sound to Significance. Psychology Press, 2010. - ISBN 9781841698687
dc.relation.references[67] Uma, M ; Sridhar, S S.: A feasibility study for developing an emotional control system through brain computer interface. En: 2013 International Conference on Human Computer Interactions (ICHCI) (2013), p. 1-6. ISBN 978-1-4673-5703-6
dc.relation.references[68] Wallis, Isaac ; Ingalls, Todd ; Campana, Ellen. COMPUTER-GENERATING EMOTIONAL MUSIC: THE DESIGN OF AN AFFECTIVE MUSIC ALGORITHM. 2008
dc.relation.references[69] Wang, Haohan ; Raj, Bhiksha. On the Origin of Deep Learning. 2017
dc.relation.references[70] Wang, L.X.: A Course in Fuzzy Systems and Control. Prentice Hall PTR, 1997. - ISBN 9780135408827
dc.relation.references[71] Welch, P.: The use of fast Fourier transform for the estimation of power spectra: A method based on time averaging over short, modi ed periodograms. En: IEEE Transactions on Audio and Electroacoustics 15 (1967), Nr. 2, p. 70-73
dc.relation.references[72] Williams, Duncan R. ; Kirke, Alexis ; Eaton, Joel ; Miranda, Eduardo ; Daly, Ian; Hallowell, James ; Roesch, Etienne B. ; Hwang, Faustina ; Nasuto, Slawomir: Dynamic game soundtrack generation in response to a continuously varying emotional trayectory, 2015
dc.relation.references[73] Wolpaw, J. R. ; Birbaumer, N. ; Heetderks, W. J. ; McFarland, D. J. ; Peckham, P. H. ; Schalk, G. ; Donchin, E. ; Quatrano, L. A. ; Robinson, C. J. ; Vaughan, T. M.: Brain-computer interface technology: a review of the first international meeting. En: IEEE Transactions on Rehabilitation Engineering 8 (2000), June, Nr. 2, p. 164-173. - ISSN 1063-6528
dc.relation.references[74] Wundt, W. ; Titchener, E.B.: Principles of physiological psychology. I. 1904
dc.relation.references[75] Xu, H ; Plataniotis, K N.: Subject independent affective states classification using EEG signals. En: IEEE Global Conference on Signal and Information Processing, GlobalSIP 2015 (2015), p. 1312-1316. ISBN 9781479975914 (ISBN)
dc.relation.references[76] Z., Jiang X. Bian GB. T.: Removal of Artifacts from EEG Signals: A Review. En: Sensors 19 (2019), p. 987
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.subject.proposalComputación afectiva
dc.subject.proposalSeñales EEG
dc.subject.proposalMúsica
dc.subject.proposalEmociones
dc.subject.proposalRedes neuronales
dc.subject.proposalAffective computing
dc.subject.proposalEEG signals
dc.subject.proposalMusic
dc.subject.proposalEmotions
dc.subject.proposalNeural networks
dc.subject.unescoInformática
dc.subject.unescoComputer science
dc.type.coarhttp://purl.org/coar/resource_type/c_bdcc
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.contentText
dc.type.redcolhttp://purl.org/redcol/resource_type/TM
oaire.accessrightshttp://purl.org/coar/access_right/c_abf2


Files in this item

Thumbnail
Thumbnail

This item appears in the following Collection(s)

Show simple item record

Atribución-NoComercial 4.0 InternacionalThis work is licensed under a Creative Commons Reconocimiento-NoComercial 4.0.This document has been deposited by the author (s) under the following certificate of deposit