AutoGen: Multi-Agent en Homelab con Ollama (Guía 2026)
📋 TL;DR
Montar un framework autogen multi-agent homelab con Microsoft AutoGen te permite orquestar agentes conversacionales que colaboran entre sí usando LLMs locales. En esta guía aprenderás a instalar AutoGen (AutoGen Studio y AgentChat), configurar Ollama como backend, crear conversaciones entre dos o más agentes y comparar AutoGen con CrewAI y LangGraph para elegir el framework adecuado en tu homelab.
Lo que conseguirás:
- ✅ Instalar AutoGen Studio (interfaz no-code) en menos de 5 minutos
- ✅ Configurar agentes conversacionales con Ollama 100% local
- ✅ Entender AgentChat vs Core y cuándo usar cada uno
- ✅ Comparar AutoGen con CrewAI y LangGraph
- ✅ Resolver errores típicos de conexión y modelos
Tiempo de lectura: ~22 minutos | Nivel: Intermedio
—
Tabla de Contenidos
- Introducción
- ¿Qué es Microsoft AutoGen?
- Instalación: [Docker y Python](#instalación-docker-y-python)
- AutoGen Studio: interfaz no-code
- AgentChat vs Core: cuándo usar cada uno
- Integración con Ollama y LocalAI
- Ejemplos prácticos
- Comparativa AutoGen vs CrewAI vs LangGraph
- Troubleshooting común
- 📦 Descargar Ejemplos
- Enlaces Relacionados
- Preguntas Frecuentes
- Conclusión
—
> 📅 Última actualización: Febrero 2026
> ✅ Verificado con: AutoGen Studio (PyPI), autogen-core, Ollama 0.x
> 🔄 Próxima revisión: Mayo 2026
—
Introducción
Orquestar varios agentes de IA que conversan entre sí —en lugar de un único agente que ejecuta tareas en bucle— requiere un framework pensado para conversación multi-agente. Si ya usas CrewAI, LangGraph o AutoGPT y quieres explorar un enfoque más conversacional, con soporte para LLMs locales y una interfaz no-code, autogen multi-agent homelab con Microsoft AutoGen es una opción sólida.
El problema: Coordinar dos o más agentes (por ejemplo, un asistente que propone código y un proxy que lo ejecuta o pide aclaraciones) implica gestionar turnos, estado y backend LLM. Hacerlo a mano con scripts propios puede ser frágil y repetitivo.
La solución: Microsoft AutoGen ofrece dos caras: AutoGen Studio, una interfaz web para definir workflows y agentes sin código, y AgentChat (API en Python) para integrar agentes conversacionales en tus propios scripts. Ambos soportan endpoints compatibles con OpenAI, por lo que Ollama y LocalAI encajan de forma natural en tu homelab.
En esta guía aprenderás:
- Qué es Microsoft AutoGen y en qué se diferencia de AutoGPT, CrewAI y LangGraph
- Cómo instalar AutoGen Studio y el paquete autogen-core
- Cómo configurar AutoGen Studio y AgentChat con Ollama
- Cuándo usar AgentChat frente a Core y cuándo AutoGen Studio
- Ejemplos prácticos: dos agentes colaborando, human-in-the-loop
- Comparativa AutoGen vs CrewAI vs LangGraph
- Troubleshooting de conexión, modelos y base de datos
Tanto si eres sysadmin que quiere probar agentes locales como si ya usas otros frameworks de agentes, esta guía te llevará de cero a tener un autogen multi-agent homelab operativo.
—

¿Qué es Microsoft AutoGen?
Microsoft AutoGen es un framework open-source para construir aplicaciones multi-agente en las que varios agentes de IA conversan y colaboran para resolver tareas. A diferencia de un solo agente autónomo (como AutoGPT), AutoGen se centra en el diálogo entre agentes: por ejemplo, un AssistantAgent que genera código o respuestas y un UserProxyAgent que ejecuta código o hace de humano en el bucle.
Características principales
1. Dos interfaces
- AutoGen Studio: Interfaz web no-code. Instalación con
pip install autogenstudioy arranque conautogenstudio ui --port 8081. Permite definir agentes, workflows y sesiones desde el navegador. - AgentChat (API Python): Programación con
autogen-core(o el paquete legacypyautogen). Defines agentes, configuras el LLM (OpenAI, Ollama, Azure, etc.) y lanzas conversaciones con métodos comoinitiate_chat().
2. Soporte para LLMs locales
- AutoGen usa clientes compatibles con la API de OpenAI. Ollama expone
http://localhost:11434/v1, por lo que puedes usar modelos locales sin API key. - LocalAI y otros backends compatibles con OpenAI también funcionan configurando la base URL y el modelo.
3. Human-in-the-loop
- El UserProxyAgent puede pedir entrada humana cuando hace falta, ideal para revisar código o decisiones antes de continuar.
4. Comunidad y documentación
- Repositorio en GitHub con decenas de miles de estrellas, documentación estable en microsoft.github.io/autogen, y releases frecuentes.
Arquitectura resumida
- AgentChat: Conversaciones entre agentes (AssistantAgent, UserProxyAgent, etc.) con un cliente de modelo (OpenAI, Ollama, Azure). Cada agente puede tener su propio modelo o compartir uno; los mensajes se pasan por turnos hasta que se cumple una condición de parada.
- AutoGen Studio: Misma lógica bajo la capa; la UI genera configuraciones que el backend ejecuta. Los workflows que creas en la interfaz se pueden exportar y, en algunos casos, servir vía API para integrarlos con otras herramientas del homelab.
- Core vs legacy: El paquete moderno es
autogen-core;pyautogenes el nombre legacy. La documentación oficial indica qué paquete usar en cada guía. Si sigues tutoriales antiguos, comprueba la versión de la doc (estable vs 0.2) para evitar incompatibilidades de imports.
—
Instalación: Docker y Python
Puedes usar AutoGen de dos formas: solo Python (recomendado para empezar) o Docker si prefieres contenedores.
Instalación con Python (recomendada)
Requisito: Python 3.10+.
Para usar solo la API de AgentChat en código (sin Studio):
Arrancar AutoGen Studio
Abre http://localhost:8081 en el navegador. Por defecto la aplicación guarda datos en .autogenstudio en tu directorio de usuario. Puedes cambiar el directorio con --appdir y el puerto con --port.
Docker (opcional)
No hay imagen oficial única de Microsoft; la documentación recomienda instalar desde PyPI. Si quieres Docker, hay proyectos comunitarios (por ejemplo en GitHub: autogen-studio-docker) que empaquetan AutoGen Studio y, en algunos casos, Ollama. Revisa la documentación de cada imagen para puertos y variables de entorno. En un homelab típico, instalar con venv en el host o en un contenedor Python propio suele ser suficiente; asegúrate de que el contenedor pueda alcanzar el puerto de Ollama (misma red Docker o IP del host).
—
AutoGen Studio: interfaz no-code
AutoGen Studio te permite definir y ejecutar workflows de agentes sin escribir código.
Primer arranque
- Ejecuta
autogenstudio ui --port 8081y abrehttp://localhost:8081. - En la interfaz verás opciones para Agents, Workflows y Sessions (o equivalentes según versión).
- Antes de crear conversaciones, configura el LLM: en Settings o en la configuración del workflow, indica:
– Base URL: http://localhost:11434/v1 (Ollama local)
– Model: el nombre exacto que devuelve ollama list (ej. llama3.2, mistral)
– API Key: puede dejarse vacío para Ollama
Crear un workflow con dos agentes
- Crea un Workflow (o “Conversation” según la UI).
- Añade al menos dos agentes: uno que use el LLM (asistente) y otro que pueda ejecutar código o actuar como usuario.
- Asigna el model config que apunta a Ollama.
- Inicia una Session y escribe un mensaje; los agentes irán respondiendo por turnos.
La documentación estable de AutoGen Studio describe los pasos exactos de la UI actual; la idea es la misma: workflow → agentes → config LLM (Ollama) → sesión. Si es la primera vez que usas un framework multi-agente, conviene empezar con un solo asistente y un solo “usuario” (proxy); cuando lo tengas claro, añade más agentes o condiciones de parada para acercarte a flujos más complejos sin abrumarte.
Exportar y desplegar
AutoGen Studio permite exportar workflows (por ejemplo como JSON) y, en algunos flujos, servir una API con autogenstudio serve. Útil para integrar con n8n o otros servicios del homelab.
—
AgentChat vs Core: cuándo usar cada uno
- AgentChat: Es el modelo de conversación entre agentes (métodos como
initiate_chat()). Lo usas desde código Python conautogen-coreopyautogen. Ideal cuando quieres integrar agentes en scripts, pipelines o aplicaciones propias. - Core: En la documentación reciente, “Core” se refiere al paquete
autogen-corey a la capa de bajo nivel (clientes de modelo, agentes, estado). AutoGen Studio se apoya en esta capa. No es “AgentChat vs Core” como dos productos distintos, sino: AutoGen Studio = UI sobre Core, AgentChat = API de conversación en Core.
Cuándo usar qué:
- AutoGen Studio: Prototipado rápido, demos, y equipos que prefieren no-code.
- AgentChat en Python: Integración en código, CI/CD, y control fino sobre agentes y flujo.
—

Integración con Ollama y LocalAI
Tanto AutoGen Studio como AgentChat pueden usar Ollama y LocalAI porque exponen una API compatible con OpenAI.
Ollama
- Arranca Ollama y descarga un modelo:
- En AutoGen Studio: En la config del LLM, Base URL =
http://localhost:11434/v1, Model =llama3.2, API Key vacío. Si Studio corre en otro host o en Docker, usa la IP del host donde corre Ollama (ej.http://192.168.1.10:11434/v1).
- En código (AgentChat): Configura el cliente con base_url y modelo. Ejemplo conceptual (compatible con la API que use tu versión de autogen):
– Base URL: http://localhost:11434/v1
– Model: llama3.2
– API key: no necesaria (puedes usar un valor dummy si el cliente lo exige).
LocalAI
LocalAI es compatible con la API de OpenAI. Usa la misma idea: Base URL = http://localhost:8080/v1 (o la que use tu instancia), Model = nombre del modelo en LocalAI, API Key según documentación de LocalAI (a veces no necesaria).
Variables de entorno (homelab)
Puedes centralizar la configuración en un .env o script:
Así no hardcodeas IPs en el código y puedes cambiar entre Ollama en la misma máquina o en otro servidor del homelab.
—
Ejemplos prácticos
Dos agentes con AgentChat (conceptual)
El siguiente esquema ilustra el patrón típico: un asistente que responde y un proxy de usuario que puede ejecutar código o hacer de humano. La API exacta (nombres de clases y parámetros) puede variar según uses autogen-core o pyautogen; consulta la documentación estable.
Human-in-the-loop
En muchos ejemplos de AutoGen, el UserProxyAgent admite human_input_mode="ALWAYS" o "TERMINATE" para pedir confirmación humana en puntos clave. Así puedes revisar código o respuestas antes de que el agente continúe, ideal en homelab para tareas sensibles. Por ejemplo, si el asistente genera un script que va a ejecutarse en tu máquina, puedes configurar el proxy para que pause y te pida aprobación antes de ejecutarlo, evitando que código no revisado se ejecute de forma automática.
Script de instalación rápida
Un script típico para homelab podría crear un venv, instalar AutoGen Studio y recordar el comando de arranque:
—
Comparativa AutoGen vs CrewAI vs LangGraph
| Criterio | AutoGen | CrewAI | LangGraph |
|---|---|---|---|
| Modelo mental | Conversación multi-agente | Roles y tareas (Crew) | Grafo de estados |
| Interfaz no-code | AutoGen Studio | Limitada | No |
| Human-in-the-loop | Sí (UserProxyAgent) | Sí | Sí (nodos) |
| Curva de aprendizaje | Media | Baja–media | Alta |
| Uso típico | Diálogo entre agentes | Workflows con roles | Flujos complejos |
Elige AutoGen cuando quieras varios agentes que conversan entre sí y valoras una interfaz no-code (AutoGen Studio) además de la API en Python. CrewAI encaja mejor en workflows con roles fijos (investigador, redactor, etc.). LangGraph es ideal cuando necesitas un grafo de estados explícito y transiciones complejas. En la práctica, muchos usuarios de homelab combinan: AutoGen para prototipar y probar conversaciones con Ollama, y luego CrewAI o LangGraph para pipelines más estructurados en producción. No tienes que elegir solo uno; puedes usar AutoGen como puerta de entrada al mundo multi-agente y luego profundizar en el framework que mejor se adapte a tu caso.
—

Troubleshooting común
Error: Connection refused al conectar a Ollama
- Comprueba que Ollama está en marcha:
curl http://localhost:11434/api/tags. - Si AutoGen Studio o tu script corren en Docker, usa la IP del host (p. ej.
host.docker.internalo la IP de la red) en lugar delocalhost.
Error: Model not found
- Ejecuta
ollama listy usa exactamente el nombre que aparece (ej.llama3.2:latest). En AutoGen Studio, el campo Model debe coincidir.
AutoGen Studio no arranca / puerto en uso
- Usa otro puerto:
autogenstudio ui --port 8082. Comprueba que ningún proceso use el puerto:lsof -i :8081.
ImportError o versión de autogen
- Verifica qué paquete tienes:
pip show autogen-core autogenstudio pyautogen. Sigue la guía de instalación oficial para la versión que uses (Core vs legacy); los nombres de módulos pueden cambiar.
Respuestas muy lentas con Ollama
- Prueba un modelo más pequeño (p. ej.
phi3,tinyllama) o reduce el contexto. En homelab, una GPU acelera notablemente la inferencia.
AutoGen Studio no encuentra la base de datos
- Por defecto usa
.autogenstudioen tu home ydatabase.sqlitedentro. Usa--appdirpara cambiar la ruta. Si actualizas de versión, prueba--upgrade-database.
Errores de permisos o rutas en Windows
- En Windows, asegúrate de que el path del
--appdirno tenga caracteres especiales y que el usuario tenga permisos de escritura. Si usas WSL, instalar AutoGen dentro de WSL suele evitar problemas de rutas.
—
📦 Descargar Ejemplos
Scripts de instalación, variables de entorno y un ejemplo conceptual de AgentChat con Ollama están en el repositorio:
🔗 Repositorio: https://github.com/ziruelen/learningaiagents/tree/main/ia/autogen-multi-agent-homelab
Incluye:
scripts/setup_autogen.sh— Instalación de AutoGen Studio en venvconfigs/autogen.env— Variables de entorno para Ollamaexamples/agent_chat_ollama.py— Esquema de uso de AgentChat con Ollama
—

Enlaces Relacionados
- CrewAI: Framework de Agentes Autónomos para Homelab
- AutoGPT: Agentes Autónomos con Auto-Loop
- LangGraph: State Machines para Agentes
- LocalAI: Cliente OpenAI Compatible 100% Local
- Mem0: Memoria Persistente para Agentes de IA
—
Preguntas Frecuentes
¿Qué es autogen multi-agent homelab?
Es montar Microsoft AutoGen en tu propio servidor (homelab) para orquestar varios agentes conversacionales que colaboran entre sí, normalmente usando LLMs locales como Ollama.
¿AutoGen es gratuito?
Sí, AutoGen es open-source (licencia MIT). AutoGen Studio y autogen-core se instalan desde PyPI sin coste.
¿Puedo usar AutoGen solo con Ollama, sin OpenAI?
Sí. Ollama expone una API compatible con OpenAI en http://localhost:11434/v1. Configura esa URL y el nombre del modelo en AutoGen Studio o en tu config de AgentChat; no necesitas API key.
¿Qué diferencia hay entre AutoGen y AutoGPT?
AutoGPT se centra en un solo agente que planifica y ejecuta tareas en bucle. AutoGen se centra en varios agentes que conversan entre sí (por ejemplo, asistente + proxy que ejecuta código). Son complementarios: AutoGen para diálogo multi-agente, AutoGPT para un agente autónomo.
¿AutoGen Studio funciona en Docker?
No hay imagen oficial única de Microsoft. Hay proyectos comunitarios que empaquetan AutoGen Studio (y a veces Ollama) en Docker; revisa la documentación de cada imagen para puertos y variables.
¿Puedo usar AutoGen con LocalAI?
Sí. LocalAI es compatible con la API de OpenAI. Configura en AutoGen la base URL de LocalAI (ej. http://localhost:8080/v1) y el nombre del modelo.
¿Qué requisitos de hardware tiene AutoGen?
AutoGen en sí es ligero. El consumo lo marcan los LLMs: Ollama/LocalAI y el tamaño del modelo. Para modelos 7B, 8 GB RAM suele bastar; para modelos grandes, 32–64 GB o GPU.
¿AutoGen Studio guarda mis conversaciones?
Sí. Por defecto usa una base SQLite en .autogenstudio. Puedes cambiar la ruta con --appdir y, en algunas configuraciones, usar PostgreSQL con --database-uri.
¿Cómo añado un nuevo agente en AutoGen Studio?
Desde la UI, en la sección de Agents (o Workflows), crea un nuevo agente y asígnale un modelo (config LLM). Luego inclúyelo en el workflow y en las sesiones.
¿Puedo usar autogen multi-agent homelab con GPU?
AutoGen no ejecuta el modelo; lo hace Ollama o LocalAI. Si Ollama/LocalAI usan GPU, todo el flujo se beneficia. Configura CUDA/ROCm en Ollama según la documentación de Ollama.
¿AutoGen soporta múltiples idiomas?
Sí. El idioma lo determina el LLM (Ollama, etc.). Puedes hablar en español o cualquier idioma que el modelo soporte.
¿Qué versión de Python necesito para AutoGen?
Python 3.10 o superior. Se recomienda usar un entorno virtual (venv o conda).
¿Puedo integrar AutoGen con n8n?
Sí, si expones AutoGen como API (por ejemplo con autogenstudio serve o un wrapper propio). Desde n8n usarías el nodo HTTP Request para llamar a ese endpoint.
¿AutoGen tiene memoria persistente entre sesiones?
Por defecto, cada sesión es independiente. Para memoria persistente entre conversaciones, puedes combinar AutoGen con un sistema de memoria (por ejemplo Mem0) o guardar contexto en tu propia capa; no viene integrado de fábrica. Si quieres que los agentes “recuerden” cosas entre sesiones, en el blog tienes una guía dedicada a Mem0 que puedes integrar con tu flujo de AutoGen.
¿Puedo usar varios modelos en el mismo workflow de AutoGen?
Sí. En AgentChat puedes asignar a cada agente un llm_config distinto (por ejemplo, un agente con Ollama/llama3.2 y otro con un modelo más pequeño para tareas rápidas). En AutoGen Studio, según la versión, puedes definir varias configuraciones de modelo y asignar una a cada agente del workflow.
—
Conclusión
Montar un autogen multi-agent homelab con Microsoft AutoGen te permite tener agentes conversacionales que colaboran entre sí usando Ollama o LocalAI, sin depender de APIs cloud. AutoGen Studio facilita el prototipado sin código, y AgentChat te da control total desde Python.
Próximos pasos:
- Instala AutoGen Studio con
pip install -U autogenstudioy arranca la UI en el puerto 8081. - Configura Ollama como LLM (base URL y modelo) en AutoGen Studio.
- Crea un workflow con dos agentes y prueba una sesión.
- Si necesitas integrar en código, instala
autogen-corey sigue la documentación de AgentChat para tu versión. - Revisa los ejemplos en GitHub para scripts y variables de entorno.
¿Ya usas AutoGen en tu homelab? Cuéntanos tu experiencia en los comentarios.
