Videos UGC con IA: Automatiza Creación de Contenido con n8n y Stable Diffusion (Guía Completa 2025)
¿Necesitas crear cientos de videos UGC (User Generated Content) para tu marca pero no tienes tiempo ni presupuesto para grabarlos manualmente? La solución está en automatizar todo el proceso con IA: Stable Diffusion genera las imágenes, n8n orquesta el workflow, y FFmpeg crea los videos automáticamente. Sin necesidad de grabar nada. Sin depender de creadores humanos. Sin límites de escalabilidad.
En esta guía completa te enseño a montar un pipeline completo de automatización de videos UGC usando herramientas open source en tu homelab. Aprenderás a integrar ComfyUI (o AUTOMATIC1111) con n8n, procesar imágenes con FFmpeg, y crear workflows reutilizables que generan videos listos para publicar en minutos. Todo con ejemplos prácticos, código copy-paste, y soluciones a los problemas más comunes.
Después de seguir esta guía, tendrás un sistema automatizado que genera videos UGC de forma masiva: unboxings, reviews, tutoriales, y contenido lifestyle. Perfecto para e-commerce, marketing en redes sociales, o canales de YouTube que necesitan publicar contenido diario.
—
📋 TL;DR
¿Qué es esto? Un pipeline automatizado que genera videos UGC usando IA: Stable Diffusion crea imágenes → n8n automatiza el proceso → FFmpeg genera videos.
¿Qué necesitas? Docker-2025/), GPU NVIDIA (mínimo 4GB VRAM), y 30 minutos de configuración.
¿Resultado? Sistema que genera videos UGC automáticamente, escalable a cientos de videos por día.
⏱️ Tiempo de lectura: 20 minutos
—
📚 Tabla de Contenidos
- ¿Qué son los videos UGC y por qué automatizarlos?
- Arquitectura del pipeline
- Requisitos y preparación
- Instalación del stack completo
- Configuración de Stable Diffusion
- Crear workflow n8n para automatización
- Procesamiento de imágenes a video con FFmpeg
- Ejemplos prácticos: diferentes tipos de videos UGC
- Optimización y mejores prácticas
- Comparativa: ComfyUI vs AUTOMATIC1111
- Troubleshooting común
- Descargar ejemplos
- Preguntas frecuentes
- Conclusión
—
¿Qué son los videos UGC y por qué automatizarlos? {#que-son-videos-ugc}
UGC (User Generated Content) son videos creados por usuarios que muestran productos o servicios de manera auténtica. Incluyen unboxings, tutoriales, testimonios, reviews, y vlogs de experiencias. Su principal ventaja es que no se perciben como publicidad tradicional, sino como recomendaciones genuinas de otros consumidores.
Problemas del UGC tradicional
1. Coste elevado:
- Pagar a creadores por cada video (50-500€ por video)
- Producción profesional (cámaras, iluminación, edición)
- Tiempo de coordinación y revisión
2. Escalabilidad limitada:
- Difícil generar cientos de videos
- Dependes de disponibilidad de creadores
- Proceso manual lento y tedioso
3. Consistencia:
- Cada creador tiene su estilo
- Difícil mantener coherencia de marca
- Calidad variable entre videos
Solución: Automatización con IA
Ventajas de automatizar con IA:
✅ Escalabilidad ilimitada: Genera cientos de videos automáticamente
✅ Coste reducido: Solo hardware/infraestructura (sin pagar creadores)
✅ Consistencia: Mismo estilo y calidad en todos los videos
✅ Personalización masiva: Diferentes variaciones automáticamente
✅ Velocidad: Videos listos en minutos, no días
Casos de uso ideales:
- E-commerce: Videos de productos para catálogo (100+ productos)
- Marketing: Campañas en redes sociales (TikTok, Instagram Reels)
- YouTube: Contenido diario automatizado (shorts, reviews)
- A/B Testing: Múltiples variaciones del mismo producto
—
Arquitectura del pipeline {#arquitectura}
El pipeline completo consta de tres componentes principales que trabajan juntos:
Flujo de trabajo paso a paso
1. Trigger inicial:
- n8n recibe trigger (schedule, webhook, o manual)
- Genera lista de prompts según tipo de video
2. Generación de imágenes:
- n8n llama a Stable Diffusion API (ComfyUI o AUTOMATIC1111)
- Genera múltiples imágenes (4-8 por video)
- Descarga imágenes generadas
3. Procesamiento de video:
- n8n ejecuta FFmpeg (local o remoto)
- FFmpeg crea video desde imágenes (slideshow, animación)
- Opcional: añade audio de fondo, transiciones, efectos
4. Post-procesamiento:
- n8n guarda video en storage local
- Opcional: sube a YouTube, S3, o plataforma de hosting
- Notifica cuando está listo
—

Requisitos y preparación {#requisitos}
Hardware
| Componente | Mínimo | Recomendado |
|---|---|---|
| GPU VRAM | 4GB | 8GB+ |
| RAM | 8GB | 16GB+ |
| Disco | 50GB | 100GB+ |
| CPU | 4 cores | 8+ cores |
Nota: Si no tienes GPU, puedes usar servicios cloud (RunPod, Vast.ai) o CPU (mucho más lento).
Software
- Docker y Docker Compose (última versión)
- NVIDIA Docker runtime (si usas GPU)
- FFmpeg (o contenedor Docker)
- Git (para clonar ejemplos)
Verificar GPU
Si ambos comandos funcionan, estás listo para continuar.
—
Instalación del stack completo {#instalacion}
Vamos a instalar todo el stack con Docker Compose. Esto incluye ComfyUI, n8n, y FFmpeg en contenedores separados.
1. Crear estructura de directorios
2. Docker Compose completo
Crea docker-compose.yml:
3. Levantar servicios
Verificar que todo funciona:
4. Descargar modelo Stable Diffusion
ComfyUI necesita un modelo para generar imágenes. Descarga uno desde Civitai o Hugging Face:
Modelos recomendados para UGC:
- Realistic Vision v5: Excelente para personas y productos realistas
- DreamShaper XL: Versátil, buena calidad general
- Juggernaut XL: Alta calidad, requiere más VRAM
—
Configuración de Stable Diffusion {#configuracion-stable-diffusion}
Tienes dos opciones: ComfyUI (recomendado para automatización) o AUTOMATIC1111 (más fácil de usar).
Opción A: ComfyUI (Recomendado)
Ventajas:
- ✅ API REST completa y bien documentada
- ✅ Batch generation fácil
- ✅ Workflows reutilizables (JSON exportable)
- ✅ Optimizado para VRAM
- ✅ Más rápido
Desventajas:
- ❌ Curva de aprendizaje más alta
- ❌ Interfaz menos intuitiva
Verificar que funciona:
Opción B: AUTOMATIC1111
Ventajas:
- ✅ Interfaz más intuitiva
- ✅ Más plugins disponibles
- ✅ Curva de aprendizaje más baja
Desventajas:
- ❌ API menos completa
- ❌ Batch generation más complejo
- ❌ Menos optimizado para VRAM
Si prefieres AUTOMATIC1111, cambia el servicio en docker-compose.yml:
Verificar que funciona:
Recomendación: Para automatización de video, ComfyUI es superior por su mejor API y batch generation.
—
Crear workflow n8n para automatización {#workflow-n8n}
Vamos a crear un workflow n8n que automatiza todo el proceso: desde generar prompts hasta crear el video final.
1. Acceder a n8n
Abre http://localhost:5678 en tu navegador. Si es la primera vez, crea una cuenta.
2. Workflow básico: Generar Video UGC
Estructura del workflow:
Paso 1: Schedule Trigger
- Añade nodo Schedule Trigger
- Configura para ejecutarse cada 6 horas (o según necesites)
Paso 2: Code Node (Generar Prompts)
Añade nodo Code con este código:
Paso 3: HTTP Request (Generar Imágenes con ComfyUI)
Añade nodo HTTP Request:
- Method: POST
- URL:
http://comfyui:8188/prompt - Body: (JSON)
Paso 4: Wait Node (Esperar Generación)
Añade nodo Wait:
- Resume: After Time Interval
- Amount: 60 (segundos)
- Unit: Seconds
Paso 5: Execute Command (Crear Video con FFmpeg)
Añade nodo Execute Command:
- Command:
Paso 6: Telegram/Email (Notificar)
Añade nodo Telegram o Email para notificar cuando el video esté listo.
3. Activar workflow
Haz clic en Activate en la esquina superior derecha. El workflow se ejecutará automáticamente según el schedule configurado.
—

Procesamiento de imágenes a video con FFmpeg {#ffmpeg}
FFmpeg es la herramienta que convierte las imágenes generadas en videos. Vamos a ver diferentes técnicas según el tipo de video que quieras crear.
1. Slideshow básico
Script: scripts/create-video.sh
Uso:
2. Video con transiciones suaves
Script: scripts/create-video-advanced.sh
Parámetros importantes:
-framerate 0.5: 1 frame cada 2 segundos (transiciones más lentas)-preset slow: Mejor calidad, más lento-crf 18: Alta calidad (18-23 es rango recomendado)
3. Video con audio de fondo
4. Video con zoom Ken Burns
Efecto de zoom suave que hace el video más dinámico:
5. Video con texto overlay
Añadir texto sobre el video (título, marca, etc.):
—
Ejemplos prácticos: diferentes tipos de videos UGC {#ejemplos-practicos}
Vamos a ver ejemplos específicos para diferentes tipos de videos UGC.
1. Unboxing Videos
Características:
- Muestra producto siendo desembalado
- Reacción auténtica
- Iluminación natural
- Estilo smartphone/casual
Prompt Stable Diffusion:
Duración: 15-30 segundos
Imágenes necesarias: 5-8 frames
Ejemplo de workflow n8n:
2. Product Review Videos
Características:
- Muestra producto en uso
- Explicación de características
- Comparación con alternativas
- Testimonio honesto
Prompt Stable Diffusion:
Duración: 30-60 segundos
Imágenes necesarias: 10-15 frames
3. Tutorial/How-to Videos
Características:
- Paso a paso
- Instrucciones claras
- Producto en acción
- Estilo educativo
Prompt Stable Diffusion:
Duración: 60-120 segundos
Imágenes necesarias: 15-25 frames
4. Lifestyle/Usage Videos
Características:
- Producto en contexto real
- Uso diario
- Ambiente casual
- Autenticidad
Prompt Stable Diffusion:
Duración: 15-30 segundos
Imágenes necesarias: 5-10 frames
—
Optimización y mejores prácticas {#optimizacion}
1. Optimización de Prompts
Tips para mejores resultados:
- ✅ Especificar estilo UGC: «authentic UGC style», «smartphone video»
- ✅ Formato vertical: «vertical format» (para TikTok, Instagram Reels)
- ✅ Iluminación natural: «natural lighting», «casual setting»
- ✅ Variaciones: Cambiar seeds para diferentes variaciones
Ejemplo de prompt optimizado:
2. Gestión de Recursos
Batch size óptimo:
- Generar 4-8 imágenes por video (balance calidad/velocidad)
- Más imágenes = video más largo pero más lento
Resolución:
- 512×512 o 768×768 (balance calidad/velocidad)
- 1024×1024 solo si tienes GPU potente (16GB+ VRAM)
GPU sharing:
- Si usas Ollama también, limitar VRAM de cada servicio
- Usar
--gpu-memory-limiten ComfyUI
3. Calidad de Video
Configuración recomendada:
- FPS: 30 fps para videos suaves
- Bitrate: 5-10 Mbps para buena calidad
- Codec: H.264 (compatible universalmente)
- Formato: MP4 (más compatible)
Ejemplo de FFmpeg optimizado:
4. Escalabilidad
Procesamiento paralelo:
- Múltiples workflows n8n ejecutándose simultáneamente
- Limitar trabajos simultáneos para no saturar GPU
Queue management:
- Usar cola en n8n para gestionar trabajos
- Priorizar videos urgentes
Storage:
- Usar S3 o storage externo para videos grandes
- Limpiar imágenes antiguas periódicamente
—

Comparativa: ComfyUI vs AUTOMATIC1111 {#comparativa}
| Criterio | ComfyUI | AUTOMATIC1111 |
|---|---|---|
| API REST | ✅ Completa y bien documentada | ✅ Completa pero menos documentada |
| Batch generation | ⭐⭐⭐⭐⭐ (muy fácil) | ⭐⭐⭐ (más complejo) |
| Velocidad | ⭐⭐⭐⭐⭐ (más rápido) | ⭐⭐⭐ |
| VRAM usage | ⭐⭐⭐⭐⭐ (muy optimizado) | ⭐⭐⭐ |
| Workflows reutilizables | ✅ JSON exportable | ❌ Solo presets |
| Curva aprendizaje | ⭐⭐ (alta) | ⭐⭐⭐⭐ (baja) |
| Interfaz | ⭐⭐ (compleja) | ⭐⭐⭐⭐⭐ (intuitiva) |
Recomendación:
- Para automatización: ComfyUI (mejor API, batch generation, workflows reutilizables)
- Para uso manual: AUTOMATIC1111 (interfaz más intuitiva)
—
Troubleshooting común {#troubleshooting}
1. FFmpeg no encuentra imágenes
Síntoma: Error «No such file or directory» al ejecutar FFmpeg
Soluciones:
2. Video sin audio o con problemas de sincronización
Síntoma: Video se ve pero sin audio o audio desincronizado
Soluciones:
3. Imágenes generadas no se descargan
Síntoma: ComfyUI genera imágenes pero n8n no las encuentra
Soluciones:
- Verificar que el workflow de ComfyUI guarda con
filename_prefixcorrecto - Usar volumen compartido entre ComfyUI y n8n (ya configurado en docker-compose.yml)
- Verificar permisos de escritura en
comfyui_output/ - Esperar suficiente tiempo antes de descargar (verificar queue status en ComfyUI)
4. Video de baja calidad
Síntoma: Video pixelado o borroso
Soluciones:
5. Proceso muy lento
Síntoma: Generar un video tarda demasiado tiempo
Soluciones:
- Reducir número de imágenes por video (4 en lugar de 8)
- Usar modelo más rápido (SD1.5 en lugar de SDXL)
- Optimizar FFmpeg (usar hardware acceleration si disponible)
- Procesar en paralelo (múltiples workflows n8n)
—

Descargar ejemplos {#descargar}
Todos los ejemplos de código, scripts, y workflows están disponibles en GitHub:
🔗 Descargar ejemplos completos
Incluye:
- ✅
docker-compose.yml– Stack completo Docker - ✅
scripts/create-video.sh– Script básico FFmpeg - ✅
scripts/create-video-advanced.sh– Script avanzado con transiciones - ✅
scripts/generate-ugc-batch.py– Script Python para batch - ✅
n8n-workflows/ugc-video-generator.json– Workflow n8n completo - ✅
README.md– Instrucciones de uso
—
Preguntas frecuentes {#faqs}
¿Puedo usar esto sin GPU?
Sí, pero será mucho más lento. Puedes usar:
- CPU: Muy lento (10-30 minutos por imagen)
- Cloud GPU: RunPod, Vast.ai, Lambda Labs (pago por uso)
- Google Colab: Gratis pero limitado
¿Qué modelos de Stable Diffusion funcionan mejor para UGC?
Recomendados:
- Realistic Vision v5: Excelente para personas y productos realistas
- DreamShaper XL: Versátil, buena calidad general
- Juggernaut XL: Alta calidad, requiere más VRAM
¿Puedo generar videos con audio de voz?
Sí, puedes:
- Generar imágenes con Stable Diffusion
- Generar audio con TTS (ElevenLabs, OpenAI TTS)
- Combinar con FFmpeg
Ejemplo:
¿Cuántos videos puedo generar por día?
Depende de tu hardware:
- GPU 4GB: ~10-20 videos/día
- GPU 8GB: ~50-100 videos/día
- GPU 16GB+: ~200+ videos/día
¿Puedo personalizar el estilo de los videos?
Sí, puedes:
- Cambiar prompts en n8n
- Ajustar parámetros de FFmpeg (velocidad, transiciones)
- Añadir efectos (zoom, texto, audio)
¿Funciona con otros modelos de IA?
Sí, puedes adaptar el pipeline para:
- Midjourney: Usar API (si tienes acceso)
- DALL-E: Usar API de OpenAI
- Stable Diffusion XL: Cambiar modelo en ComfyUI
¿Puedo subir videos automáticamente a YouTube?
Sí, puedes añadir un nodo YouTube en n8n después de crear el video:
- Crear video con FFmpeg
- Añadir nodo YouTube Upload en n8n
- Configurar credenciales OAuth
- Subir automáticamente
¿Qué formato de video es mejor para redes sociales?
Recomendaciones:
- TikTok/Instagram Reels: Vertical (9:16), 30 fps, MP4
- YouTube Shorts: Vertical (9:16), 30 fps, MP4
- YouTube normal: Horizontal (16:9), 30 fps, MP4
¿Puedo generar videos en diferentes idiomas?
Sí, puedes:
- Cambiar prompts en el idioma deseado
- Añadir subtítulos con FFmpeg
- Generar audio de voz en diferentes idiomas
¿Cómo optimizo el uso de VRAM?
Tips:
- Usar modelos más pequeños (SD1.5 en lugar de SDXL)
- Reducir resolución (512×512 en lugar de 1024×1024)
- Limitar batch size (4 en lugar de 8)
- Cerrar otros procesos que usen GPU
¿Puedo usar esto comercialmente?
Sí, pero verifica:
- Licencia del modelo: Algunos modelos tienen restricciones comerciales
- Licencia de Stable Diffusion: Generalmente permite uso comercial
- Derechos de imagen: Las imágenes generadas son tuyas, pero verifica términos de servicio
¿Qué pasa si el proceso falla a mitad?
n8n tiene retry automático configurable:
- Configura retry en nodos HTTP Request
- Usa Error Trigger para notificar fallos
- Guarda estado intermedio para recuperar
¿Puedo generar videos de productos específicos?
Sí, puedes:
- Personalizar prompts con nombre del producto
- Usar ControlNet para mantener consistencia
- Fine-tune modelo con imágenes del producto
—
Conclusión {#conclusion}
Has aprendido a crear un pipeline completo de automatización de videos UGC usando IA. Con Stable Diffusion generando imágenes, n8n orquestando el proceso, y FFmpeg creando videos, puedes generar cientos de videos automáticamente sin necesidad de grabar nada manualmente.
Próximos pasos:
- Personaliza los prompts según tus productos o necesidades
- Optimiza la calidad ajustando parámetros de FFmpeg
- Escala el proceso creando múltiples workflows para diferentes tipos de videos
- Integra con plataformas (YouTube, S3, etc.) para automatizar la publicación
¿Necesitas ayuda? Consulta los ejemplos en GitHub o revisa la documentación de n8n, ComfyUI, y FFmpeg.
Artículos relacionados:
- n8n Playwright: Automatización Web Nativa sin Browserless
- ComfyUI vs Stable Diffusion WebUI: ¿Cuál Elegir para tu Homelab?
- Automatización con n8n: 20 Workflows Listos para Usar
—
➜ ¿Listo para automatizar tus videos UGC? Descarga los ejemplos completos y empieza a generar contenido automáticamente.
