Implementación de un modelo de generación de imágenes basado en principios de la física cuántica.
Cargando...
Autores
Tipo de contenido
Document language:
Español
Fecha
Título de la revista
ISSN de la revista
Título del volumen
Documentos PDF
Resumen
La computación cuántica presenta ventajas frente a la computación clásica, en particular en tareas de optimización y generación de datos. Sin embargo, las limitaciones del hardware actual dificultan la implementación práctica de modelos generativos cuánticos a gran escala. Esto ha impulsado el desarrollo de enfoques híbridos, simulaciones clásicas y modelos inspirados en principios cuánticos.
En este trabajo se proponen tres modelos generativos inspirados en principios de la computación cuántica, pero implementados sobre arquitecturas clásicas. Todos ellos comparten un método de estimación de densidad llamado Kernel Density Matrix (KDM), compuesto por tres elementos un kernel, un conjunto de prototipos y los pesos asociados a dichos prototipos.
Los modelos desarrollados son: un autoencoder entrenado de manera independiente de la capa KDM (AEKDMS), un autoencoder y una KDM entrenados conjuntamente mediante una función de pérdida combinada (AEKDM-FPC) y un autoencoder con una KDM estocástica inctegrada como capa intermedia en el espacio latente (AEKDM-CIS). La validación experimental se llevó a cabo utilizando los conjuntos de datos MNIST Digits, Fashion-MNIST y CELEB-A, evaluando el desempeño mediante las métricas Fréchet Inception Distance (FID), divergencia de Kullback Leibler y log-verosimilitud (LL).
Los resultados muestran que el modelo AEKDMS alcanzó el mejor desempeño global. En MNIST Digits obtuvo un FID de 21.52, una KL de 4.12 y una LL de 654.84, superando a modelos base como VAE (FID 75.43, KL 10.76, LL 582.61) y GAN (FID 35.24, KL 15.68, LL 419.56). En Fashion-MNIST, el mismo modelo logró un FID de 53.11 y una LL de 674.63, mientras que VAE y GAN alcanzaron FIDs de 149.67 y 167.62, respectivamente. Finalmente, para el set CELEB-A obtuvo un FID de 182.51 comparado con los modelos de linea base que alcanzaron valores de 216.47 y 211.83 para la GAN y VAE respectivamente.
El modelo entrenado conjuntamente AEKDM-FPC se destacó en log-verosimilitud, alcanzando el mayor valor en el conjunto de MNIST Digits (LL = 745.57), aunque sacrificó calidad visual (FID = 31.74). Finalmente, el modelo AEKDM-CIS presentó un desempeño inferior en ambas bases de datos, con FID más altos (76.79 en dígitos y 194.04 en Fashion-MNIST) y log-verosimilitudes más bajas, lo que indica inestabilidad en el entrenamiento. Sin embargo, para el conjunto de mayor dimensión CELEB-A obtuvo un mejor desempeño en métricas como la log verosimilitud (LL = 8213,04).
En conjunto, los resultados confirman que los modelos inspirados en principios cuánticos, en particular el AEKDMS, superan a las líneas base clásicas tanto en calidad visual como en consistencia estadística, además de requerir arquitecturas más ligeras (61k–68k parámetros frente a los 2.9M del GAN). (Texto tomado de la fuente)
Abstract
Quantum computing offers advantages over classical computing, particularly in optimization and data generation tasks. However, the limitations of current hardware hinder the practical implementation of large-scale quantum generative models. This has driven the development of hybrid approaches, classical simulations, and models inspired by quantum principles. In this work, three generative models inspired by principles of quantum computing are proposed, but implemented on classical architectures. All of them share a density estimation method called Kernel Density Matrix (KDM), composed of three elements: a kernel, a set of prototypes, and the weights associated with these prototypes. The developed models are: an autoencoder trained independently of the KDM layer (AEKDMS), an autoencoder and a KDM trained jointly through a combined loss function (AEKDM-FPC), and an autoencoder with a stochastic KDM integrated as an intermediate layer in the latent space (AEKDM-CIS). The experimental validation was carried out using the MNIST Digits, Fashion-MNIST, and CELEB-A datasets, evaluating performance through the Fréchet Inception Distance (FID), Kullback–Leibler divergence, and log-likelihood (LL) metrics. The results show that the AEKDMS model achieved the best overall performance. On MNIST Digits it obtained a FID of 21.52, a KL of 4.12, and an LL of 654.84, surpassing baseline models such as VAE (FID 75.43, KL 10.76, LL 582.61) and GAN (FID 35.24, KL 15.68, LL 419.56). On Fashion-MNIST, the same model achieved a FID of 53.11 and an LL of 674.63, while VAE and GAN reached FIDs of 149.67 and 167.62, respectively. Finally, for the CELEB-A dataset it obtained a FID of 182.51 compared to the baseline models, which
reached values of 216.47 and 211.83 for GAN and VAE, respectively. The jointly trained AEKDM-FPC model stood out in log-likelihood, achieving the highest value on the MNIST Digits dataset (LL = 745.57), although it sacrificed visual quality (FID = 31.74). Finally, the AEKDM-CIS model showed inferior performance on both datasets, with higher FIDs (76.79 on digits and 194.04 on Fashion-MNIST) and lower log-likelihoods, indicating instability in training. However, for the higher-dimensional CELEB-A dataset it obtained better performance on metrics such as log-likelihood (LL = 8213,04). Overall, the results confirm that the models inspired by quantum principles, particularly AEKDMS, outperform classical baselines in both visual quality and statistical consistency, while also requiring lighter architectures (61k–68k parameters versus 2.9M for the GAN).
Descripción
Ilustraciones, diagramas, fotografías, gráficos

