Creación en Pytorch de un modelo de difusión para generación incondicional de imágenes con un dataset propio.
Se ha creado un modelo que sigue el estándar DDIM sobre un dataset local de imágenes.
🙋♂️ Los archivos de este repositorio pertenecen al TFG de Alejandro Mendoza Medina.
Este notebook es el corazón de la creación y entrenamiento del modelo de difusión. Se ha hecho uso del algoritmo DDIM (Denoising Diffusion Implicit Models) con noise scheduler de tipo coseno. Se ha entrenado con 1000 timesteps pero la generación se ha hecho con 50 pasos, gracias a la ventaja de flexibilidad frente al algoritmo DDPM (Denoising Diffusion Probabilistic Models).
Se ha entrenado durante 580 epochs, tardando 87 horas en completar el entrenmiento.
Este notebook presenta la evolución de una semilla a lo largo de los epochs, así como distintas pruebas de generación.
En esta carpeta se encontrarán ejemplos generados por el modelo.
Hay algún proceso "difuminado" en la burocracía de España que hace que vaya muy lenta.
Cualquier duda o sugerencia contactar con el autor:
Alejandro Mendoza: [email protected]