MLOps Local: Pipeline Completo de Machine Learning en Homelab (Guía Completa 2026)
📋 TL;DR (Resumen Ejecutivo)
MLOps (Machine Learning Operations) es la práctica de operacionalizar el ciclo de vida completo de Machine Learning, desde datos hasta deployment y monitoreo. Esta guía te enseñará a montar un pipeline MLOps completo en tu homelab usando MLflow, desde experiment tracking hasta model serving, sin depender de servicios cloud.
Lo que conseguirás:
- ✅ Pipeline completo: datos → entrenamiento → deployment → monitoring
- ✅ Experiment tracking con MLflow para registrar métricas, parámetros y modelos
- ✅ Model registry para versionado y gestión de modelos en producción
- ✅ Serving de modelos con API REST para integración con aplicaciones
- ✅ Integración con Ollama para tracking de fine-tuning de LLMs
- ✅ Monitoring y observabilidad con Prometheus y Grafana
Tiempo de lectura: ~30 minutos | Nivel: Avanzado
—
📚 Tabla de Contenidos
- ¿Qué es MLOps y Por Qué Importa?
- ML Básico vs MLOps Profesional
- Arquitectura del Pipeline MLOps Local
- MLflow vs Alternativas: Comparativa Completa
- Instalación MLflow con [Docker-2025/) Compose](#instalacion)
- Pipeline Completo Paso a Paso
- Experiment Tracking: Registro de Métricas y Parámetros
- Model Registry: Versionado y Staging
- Deployment Local: Serving con MLflow
- Monitoring y Observabilidad
- Integración con Ollama: Fine-tuning Tracking
- Casos de Uso Prácticos para Homelab
- Troubleshooting Errores Comunes
- Mejores Prácticas MLOps
- Preguntas Frecuentes
- Conclusión y Próximos Pasos
—
> 📅 Última actualización: Enero 2026
> ✅ Verificado con: MLflow v2.8.1 – Enero 2026
> 🔄 Próxima revisión: Abril 2026
—
Introducción
Si has entrenado modelos de Machine Learning, probablemente conoces el problema: entrenaste un modelo excelente en tu notebook, pero ¿cómo lo pones en producción? ¿Cómo versionas los modelos? ¿Cómo rastrear qué parámetros funcionaron mejor? ¿Cómo detectar cuando el modelo empieza a degradarse?
El problema: El 90% de los modelos de ML nunca llegan a producción. No porque sean malos, sino porque falta la infraestructura para operacionalizarlos. Sin MLOps, cada experimento es una caja negra, los modelos se pierden en carpetas locales, y no hay forma de reproducir resultados.
La solución: MLOps es el conjunto de prácticas que transforma el desarrollo de ML de un proceso artesanal a uno profesional. Con MLflow, puedes tener un pipeline completo en tu homelab: desde experiment tracking hasta model serving, todo local y bajo tu control.
En esta guía completa aprenderás:
- Cómo instalar y configurar MLflow en Docker
- Crear un pipeline completo de ML con tracking automático
- Versionado de modelos con Model Registry
- Deployment de modelos con API REST
- Integración con Ollama para tracking de fine-tuning
- Monitoring y detección de drift
- Casos de uso prácticos para homelab
Ya seas data scientist, ML engineer o entusiasta de IA, esta guía te dará las herramientas para llevar tus modelos de ML al siguiente nivel.
—
¿Qué es MLOps y Por Qué Importa?
MLOps: Operacionalización de Machine Learning
MLOps (Machine Learning Operations) es la práctica de aplicar principios de DevOps al ciclo de vida de Machine Learning. A diferencia de solo entrenar modelos, MLOps incluye:
- Versionado de datos: Tracking de qué datasets se usaron en cada experimento
- Experiment tracking: Registro de métricas, parámetros, código y resultados
- Model registry: Versionado y gestión de modelos (staging, production)
- Deployment automatizado: Serving de modelos con APIs, contenedores, etc.
- Monitoring: Detección de drift, degradación de performance, y alertas
Características principales:
- ✅ Reproducibilidad: Cualquier experimento puede reproducirse exactamente
- ✅ Trazabilidad: Sabes qué parámetros, datos y código generaron cada modelo
- ✅ Colaboración: Múltiples personas pueden trabajar en el mismo proyecto
- ✅ Automatización: Pipeline completo desde datos hasta producción
- ✅ Observabilidad: Monitoreo continuo de modelos en producción
¿Por Qué Usar MLOps?
Casos de uso ideales:
- Entrenamiento de modelos LLM: Tracking de fine-tuning con Ollama, comparación de diferentes modelos
- Clasificación de documentos: Pipeline para Paperless-ngx con versionado de modelos
- Detección de anomalías: Modelos para Prometheus con monitoring continuo
- Proyectos de ML profesionales: Cualquier proyecto que requiera reproducibilidad y trazabilidad
NO uses MLOps si:
- ❌ Solo haces experimentos exploratorios rápidos (Jupyter notebooks son suficientes)
- ❌ Tu modelo nunca va a producción (aunque el tracking sigue siendo útil)
—

ML Básico vs MLOps Profesional
Enfoque Tradicional (Sin MLOps)
Problemas:
- ❌ No hay registro de qué funcionó y qué no
- ❌ Modelos se pierden en carpetas
- ❌ Imposible reproducir resultados
- ❌ No hay forma de comparar experimentos
- ❌ Deployment manual y propenso a errores
Enfoque MLOps Profesional
Ventajas:
- ✅ Todo está registrado y trazable
- ✅ Modelos versionados y gestionados
- ✅ Deployment automatizado
- ✅ Monitoring continuo
- ✅ Reproducibilidad garantizada
—
Arquitectura del Pipeline MLOps Local
Componentes del Pipeline
Stack Tecnológico
- MLflow: Experiment tracking, model registry, serving
- PostgreSQL-guia-completa-tutorial-2025/)-mongodb-guia-completa-tutorial-2025/): Backend para MLflow tracking
- MinIO/S3: Almacenamiento de artifacts (modelos, datasets)
- Prometheus + Grafana: Monitoring y observabilidad
- Docker: Containerización de todo el stack
—
MLflow vs Alternativas: Comparativa Completa
| Característica | MLflow | Weights & Biases | TensorBoard | Neptune |
|---|---|---|---|---|
| Open Source | ✅ 100% | ⚠️ Freemium | ✅ 100% | ⚠️ Freemium |
| Model Registry | ✅ Completo | ✅ Completo | ❌ No | ✅ Completo |
| Local Deployment | ✅ Docker | ❌ Solo Cloud | ✅ Local | ❌ Solo Cloud |
| Experiment Tracking | ✅ Excelente | ✅ Excelente | ⚠️ Limitado | ✅ Excelente |
| Integración Ollama | ✅ Python API | ⚠️ Limitada | ❌ No | ⚠️ Limitada |
| Costo Homelab | ✅ Gratis | ⚠️ Plan pago | ✅ Gratis | ⚠️ Plan pago |
| UI Dashboard | ✅ Incluida | ✅ Incluida | ⚠️ Básica | ✅ Incluida |
| Serving Integrado | ✅ MLflow Models | ❌ No | ❌ No | ❌ No |
Ventajas de MLflow:
- 100% Open Source: Sin límites ni costos ocultos
- Deployment local: Todo funciona en tu homelab
- Serving integrado: API REST lista para usar
- Model Registry: Versionado profesional de modelos
- Comunidad activa: Miles de usuarios y contribuidores
—
Instalación MLflow con Docker Compose
Requisitos Previos
- Docker y Docker Compose instalados
- Mínimo 4GB RAM (recomendado 8GB+)
- 10GB espacio en disco para artifacts
- PostgreSQL (incluido en docker-compose)
Docker Compose Completo
Crea un archivo docker-compose.yml:
Iniciar MLflow
Configurar Bucket S3 en MinIO
—
Pipeline Completo Paso a Paso
1. Preprocessing de Datos
Crea pipeline/preprocess.py:
2. Entrenamiento con Tracking
Crea pipeline/train.py:
3. Evaluación y Comparación
—

Experiment Tracking: Registro de Métricas y Parámetros
Qué Registrar en MLflow
Parámetros:
- Hiperparámetros del modelo (learning rate, epochs, etc.)
- Configuración de datos (dataset usado, split ratio)
- Configuración de preprocessing (normalización, encoding)
Métricas:
- Métricas de evaluación (accuracy, precision, recall, F1)
- Métricas de entrenamiento (loss, validation loss)
- Métricas de negocio (si aplica)
Artifacts:
- Modelo entrenado
- Gráficos (curvas de aprendizaje, confusion matrix)
- Datos procesados (si es necesario)
- Logs de entrenamiento
Ejemplo Completo de Tracking
—
Model Registry: Versionado y Staging
Registrar Modelo en Registry
Transicionar a Staging
Transicionar a Production
—
Deployment Local: Serving con MLflow
MLflow Serving con Docker
Añade al docker-compose.yml:
Hacer Predicciones
—
Monitoring y Observabilidad
Integración con Prometheus
MLflow expone métricas en formato Prometheus. Crea prometheus.yml:
Métricas Clave a Monitorear
- Model performance: Accuracy, precision, recall en producción
- Prediction latency: Tiempo de respuesta de predicciones
- Request rate: Número de predicciones por minuto
- Error rate: Porcentaje de errores en predicciones
Detección de Drift
—

Integración con Ollama: Fine-tuning Tracking
Tracking de Fine-tuning
—
Casos de Uso Prácticos para Homelab
1. Clasificación de Documentos (Paperless-ngx)
Pipeline completo:
- Datos: Extraer texto de documentos con OCR
- Preprocessing: Limpieza, tokenización, embeddings
- Training: Clasificador de categorías
- Evaluation: Métricas de precisión por categoría
- Deployment: API REST para clasificación automática
- Monitoring: Detección de drift en nuevas categorías
2. Detección de Anomalías (Prometheus)
Pipeline de ML para observabilidad:
- Datos: Métricas de Prometheus (CPU, memoria, red)
- Preprocessing: Normalización, feature engineering
- Training: Modelo de detección de anomalías (Isolation Forest)
- Evaluation: F1-score, recall para anomalías
- Deployment: Integración con Prometheus AlertManager
- Monitoring: Alertas cuando modelo detecta anomalías
3. Fine-tuning de LLMs (Ollama)
Tracking de fine-tuning:
- Datos: Dataset de fine-tuning
- Training: Fine-tuning con Ollama
- Tracking: Métricas de pérdida, perplexity
- Registry: Versionado de modelos fine-tuned
- Deployment: Serving con Ollama
- Monitoring: Performance del modelo fine-tuned
—
Troubleshooting Errores Comunes
Problema: MLflow no se conecta a PostgreSQL
Solución:
- Verificar que PostgreSQL está corriendo:
- Comprobar credenciales:
- Revisar logs:
Problema: Artifacts no se guardan en S3/MinIO
Solución:
- Verificar credenciales AWS/MinIO:
- Comprobar que el bucket existe:
- Crear bucket si no existe:
Problema: Model serving no funciona
Solución:
- Verificar que el modelo está en Production:
- Comprobar dependencias:
- Revisar logs:
Problema: Alto consumo de recursos
Solución:
- Limitar número de runs retenidos:
– Configurar políticas de retención en MLflow
– Archivar runs antiguos
- Optimizar almacenamiento:
– Usar compresión para artifacts grandes
– Limpiar artifacts no utilizados
—

Mejores Prácticas MLOps
1. Versionado de Datos
Usa DVC (Data Version Control) junto con MLflow:
2. Naming de Experimentos
Usa nombres descriptivos:
3. Model Registry
- Mantener máximo 3-5 modelos en Production: Evita confusión
- Usar staging: Siempre valida en staging antes de production
- Documentar cambios: Añade notas al registrar modelos
4. Monitoring Continuo
- Implementar drift detection: Usa Evidently AI o similar
- Alertas automáticas: Configura alertas en Prometheus
- Revisar métricas semanalmente: Identifica degradación temprana
5. CI/CD para ML
Automatiza deployment con GitHub Actions:
—
Preguntas Frecuentes
¿MLflow es gratis?
Respuesta: Sí, MLflow es 100% open source y gratis. No hay límites de uso ni costos ocultos.
¿Necesito GPU para MLOps?
Respuesta: No, MLOps (tracking, registry, serving) no requiere GPU. Solo el entrenamiento de modelos puede requerir GPU dependiendo del modelo.
¿Puedo usar MLflow con modelos de Ollama?
Respuesta: Sí, puedes trackear fine-tuning y métricas de modelos Ollama. Ver sección «Integración con Ollama».
¿Cómo versiono datasets?
Respuesta: Usa DVC (Data Version Control) junto con MLflow. DVC versiona datos, MLflow versiona modelos.
¿MLflow funciona con Kubernetes?
Respuesta: Sí, MLflow puede desplegarse en Kubernetes. Usa el chart de Helm oficial.
¿Cómo comparo múltiples experimentos?
Respuesta: Usa la UI de MLflow (http://localhost:5000) o el API:
¿Puedo usar MLflow sin Docker?
Respuesta: Sí, puedes instalar MLflow con pip:
¿Cómo hago backup de MLflow?
Respuesta: Haz backup de:
- Base de datos PostgreSQL
- Bucket S3/MinIO con artifacts
- Configuraciones en código
¿MLflow soporta modelos de TensorFlow/PyTorch?
Respuesta: Sí, MLflow soporta múltiples frameworks:
- TensorFlow (
mlflow.tensorflow) - PyTorch (
mlflow.pytorch) - Scikit-learn (
mlflow.sklearn) - XGBoost (
mlflow.xgboost) - Y más…
¿Cómo detecto drift en producción?
Respuesta: Usa Evidently AI o implementa tu propia solución:
¿MLflow es solo para Python?
Respuesta: Principalmente sí, pero hay APIs REST que permiten integración desde otros lenguajes.
¿Cómo escalo MLflow para múltiples usuarios?
Respuesta: MLflow soporta múltiples usuarios. Cada usuario puede tener sus propios experimentos o compartir experimentos.
¿Puedo usar MLflow con Jupyter notebooks?
Respuesta: Sí, MLflow funciona perfectamente en Jupyter notebooks. Solo importa mlflow y usa las funciones normalmente.
—
Conclusión y Próximos Pasos
MLOps transforma el desarrollo de Machine Learning de un proceso artesanal a uno profesional. Con MLflow en tu homelab, tienes acceso a las mismas herramientas que usan las empresas más grandes, pero bajo tu control y sin costos.
Lo que has aprendido:
- ✅ Cómo instalar y configurar MLflow en Docker
- ✅ Crear un pipeline completo de ML con tracking automático
- ✅ Versionado de modelos con Model Registry
- ✅ Deployment de modelos con API REST
- ✅ Integración con Ollama para tracking de fine-tuning
- ✅ Monitoring y detección de drift
- ✅ Casos de uso prácticos para homelab
Próximos pasos recomendados:
- Explorar MLflow Projects: Empaqueta tu código ML para reproducibilidad
- Integrar con DVC: Versiona datasets junto con modelos
- Automatizar con CI/CD: GitHub Actions para deployment automático
- Implementar drift detection: Evidently AI para monitoreo continuo
- Escalar con Kubernetes: Despliega MLflow en K8s para producción
📦 Descargar Ejemplos
Todos los ejemplos de código y configuraciones están disponibles en GitHub:
🔗 https://github.com/ziruelen/learningaiagents/tree/main/homelab/mlops-pipeline
Artículos Relacionados
- Open WebUI Avanzado: Personalización, Plugins e Integraciones para Ollama
- Prometheus + Grafana + Loki: Stack de Observabilidad Completo
- Kubernetes Básico para Homelab: Guía desde Cero
¿Tienes preguntas o quieres compartir tu experiencia con MLOps? Déjanos un comentario o únete a nuestra comunidad en Discord.
—
Última actualización: Enero 2026 | MLflow v2.8.1
