AutoGen: Multi-Agent en Homelab con Ollama (Guía 2026)

📋 TL;DR

Montar un framework autogen multi-agent homelab con Microsoft AutoGen te permite orquestar agentes conversacionales que colaboran entre sí usando LLMs locales. En esta guía aprenderás a instalar AutoGen (AutoGen Studio y AgentChat), configurar Ollama como backend, crear conversaciones entre dos o más agentes y comparar AutoGen con CrewAI y LangGraph para elegir el framework adecuado en tu homelab.

Lo que conseguirás:

  • ✅ Instalar AutoGen Studio (interfaz no-code) en menos de 5 minutos
  • ✅ Configurar agentes conversacionales con Ollama 100% local
  • ✅ Entender AgentChat vs Core y cuándo usar cada uno
  • ✅ Comparar AutoGen con CrewAI y LangGraph
  • ✅ Resolver errores típicos de conexión y modelos

Tiempo de lectura: ~22 minutos | Nivel: Intermedio

Tabla de Contenidos

  1. Introducción
  2. ¿Qué es Microsoft AutoGen?
  3. Instalación: [Docker y Python](#instalación-docker-y-python)
  4. AutoGen Studio: interfaz no-code
  5. AgentChat vs Core: cuándo usar cada uno
  6. Integración con Ollama y LocalAI
  7. Ejemplos prácticos
  8. Comparativa AutoGen vs CrewAI vs LangGraph
  9. Troubleshooting común
  10. 📦 Descargar Ejemplos
  11. Enlaces Relacionados
  12. Preguntas Frecuentes
  13. Conclusión

> 📅 Última actualización: Febrero 2026

> ✅ Verificado con: AutoGen Studio (PyPI), autogen-core, Ollama 0.x

> 🔄 Próxima revisión: Mayo 2026

Introducción

Orquestar varios agentes de IA que conversan entre sí —en lugar de un único agente que ejecuta tareas en bucle— requiere un framework pensado para conversación multi-agente. Si ya usas CrewAI, LangGraph o AutoGPT y quieres explorar un enfoque más conversacional, con soporte para LLMs locales y una interfaz no-code, autogen multi-agent homelab con Microsoft AutoGen es una opción sólida.

El problema: Coordinar dos o más agentes (por ejemplo, un asistente que propone código y un proxy que lo ejecuta o pide aclaraciones) implica gestionar turnos, estado y backend LLM. Hacerlo a mano con scripts propios puede ser frágil y repetitivo.

La solución: Microsoft AutoGen ofrece dos caras: AutoGen Studio, una interfaz web para definir workflows y agentes sin código, y AgentChat (API en Python) para integrar agentes conversacionales en tus propios scripts. Ambos soportan endpoints compatibles con OpenAI, por lo que Ollama y LocalAI encajan de forma natural en tu homelab.

En esta guía aprenderás:

  • Qué es Microsoft AutoGen y en qué se diferencia de AutoGPT, CrewAI y LangGraph
  • Cómo instalar AutoGen Studio y el paquete autogen-core
  • Cómo configurar AutoGen Studio y AgentChat con Ollama
  • Cuándo usar AgentChat frente a Core y cuándo AutoGen Studio
  • Ejemplos prácticos: dos agentes colaborando, human-in-the-loop
  • Comparativa AutoGen vs CrewAI vs LangGraph
  • Troubleshooting de conexión, modelos y base de datos

Tanto si eres sysadmin que quiere probar agentes locales como si ya usas otros frameworks de agentes, esta guía te llevará de cero a tener un autogen multi-agent homelab operativo.

Imagen 1

¿Qué es Microsoft AutoGen?

Microsoft AutoGen es un framework open-source para construir aplicaciones multi-agente en las que varios agentes de IA conversan y colaboran para resolver tareas. A diferencia de un solo agente autónomo (como AutoGPT), AutoGen se centra en el diálogo entre agentes: por ejemplo, un AssistantAgent que genera código o respuestas y un UserProxyAgent que ejecuta código o hace de humano en el bucle.

Características principales

1. Dos interfaces

  • AutoGen Studio: Interfaz web no-code. Instalación con pip install autogenstudio y arranque con autogenstudio ui --port 8081. Permite definir agentes, workflows y sesiones desde el navegador.
  • AgentChat (API Python): Programación con autogen-core (o el paquete legacy pyautogen). Defines agentes, configuras el LLM (OpenAI, Ollama, Azure, etc.) y lanzas conversaciones con métodos como initiate_chat().

2. Soporte para LLMs locales

  • AutoGen usa clientes compatibles con la API de OpenAI. Ollama expone http://localhost:11434/v1, por lo que puedes usar modelos locales sin API key.
  • LocalAI y otros backends compatibles con OpenAI también funcionan configurando la base URL y el modelo.

3. Human-in-the-loop

  • El UserProxyAgent puede pedir entrada humana cuando hace falta, ideal para revisar código o decisiones antes de continuar.

4. Comunidad y documentación

  • Repositorio en GitHub con decenas de miles de estrellas, documentación estable en microsoft.github.io/autogen, y releases frecuentes.

Arquitectura resumida

  • AgentChat: Conversaciones entre agentes (AssistantAgent, UserProxyAgent, etc.) con un cliente de modelo (OpenAI, Ollama, Azure). Cada agente puede tener su propio modelo o compartir uno; los mensajes se pasan por turnos hasta que se cumple una condición de parada.
  • AutoGen Studio: Misma lógica bajo la capa; la UI genera configuraciones que el backend ejecuta. Los workflows que creas en la interfaz se pueden exportar y, en algunos casos, servir vía API para integrarlos con otras herramientas del homelab.
  • Core vs legacy: El paquete moderno es autogen-core; pyautogen es el nombre legacy. La documentación oficial indica qué paquete usar en cada guía. Si sigues tutoriales antiguos, comprueba la versión de la doc (estable vs 0.2) para evitar incompatibilidades de imports.

Instalación: Docker y Python

Puedes usar AutoGen de dos formas: solo Python (recomendado para empezar) o Docker si prefieres contenedores.

Instalación con Python (recomendada)

Requisito: Python 3.10+.

BASH
# Crear entorno virtual
python3 -m venv .venv
source .venv/bin/activate   # Linux/macOS
# .venv\Scripts\activate     # Windows

# Instalar AutoGen Studio (incluye la UI y dependencias)
pip install -U autogenstudio

Para usar solo la API de AgentChat en código (sin Studio):

BASH
pip install "autogen-core"
# Opcional: soporte OpenAI (o endpoints compatibles)
pip install "autogen-ext[openai]"

Arrancar AutoGen Studio

BASH
autogenstudio ui --port 8081

Abre http://localhost:8081 en el navegador. Por defecto la aplicación guarda datos en .autogenstudio en tu directorio de usuario. Puedes cambiar el directorio con --appdir y el puerto con --port.

Docker (opcional)

No hay imagen oficial única de Microsoft; la documentación recomienda instalar desde PyPI. Si quieres Docker, hay proyectos comunitarios (por ejemplo en GitHub: autogen-studio-docker) que empaquetan AutoGen Studio y, en algunos casos, Ollama. Revisa la documentación de cada imagen para puertos y variables de entorno. En un homelab típico, instalar con venv en el host o en un contenedor Python propio suele ser suficiente; asegúrate de que el contenedor pueda alcanzar el puerto de Ollama (misma red Docker o IP del host).

AutoGen Studio: interfaz no-code

AutoGen Studio te permite definir y ejecutar workflows de agentes sin escribir código.

Primer arranque

  1. Ejecuta autogenstudio ui --port 8081 y abre http://localhost:8081.
  2. En la interfaz verás opciones para Agents, Workflows y Sessions (o equivalentes según versión).
  3. Antes de crear conversaciones, configura el LLM: en Settings o en la configuración del workflow, indica:

Base URL: http://localhost:11434/v1 (Ollama local)

Model: el nombre exacto que devuelve ollama list (ej. llama3.2, mistral)

API Key: puede dejarse vacío para Ollama

Crear un workflow con dos agentes

  1. Crea un Workflow (o “Conversation” según la UI).
  2. Añade al menos dos agentes: uno que use el LLM (asistente) y otro que pueda ejecutar código o actuar como usuario.
  3. Asigna el model config que apunta a Ollama.
  4. Inicia una Session y escribe un mensaje; los agentes irán respondiendo por turnos.

La documentación estable de AutoGen Studio describe los pasos exactos de la UI actual; la idea es la misma: workflow → agentes → config LLM (Ollama) → sesión. Si es la primera vez que usas un framework multi-agente, conviene empezar con un solo asistente y un solo “usuario” (proxy); cuando lo tengas claro, añade más agentes o condiciones de parada para acercarte a flujos más complejos sin abrumarte.

Exportar y desplegar

AutoGen Studio permite exportar workflows (por ejemplo como JSON) y, en algunos flujos, servir una API con autogenstudio serve. Útil para integrar con n8n o otros servicios del homelab.

AgentChat vs Core: cuándo usar cada uno

  • AgentChat: Es el modelo de conversación entre agentes (métodos como initiate_chat()). Lo usas desde código Python con autogen-core o pyautogen. Ideal cuando quieres integrar agentes en scripts, pipelines o aplicaciones propias.
  • Core: En la documentación reciente, “Core” se refiere al paquete autogen-core y a la capa de bajo nivel (clientes de modelo, agentes, estado). AutoGen Studio se apoya en esta capa. No es “AgentChat vs Core” como dos productos distintos, sino: AutoGen Studio = UI sobre Core, AgentChat = API de conversación en Core.

Cuándo usar qué:

  • AutoGen Studio: Prototipado rápido, demos, y equipos que prefieren no-code.
  • AgentChat en Python: Integración en código, CI/CD, y control fino sobre agentes y flujo.

Imagen 2

Integración con Ollama y LocalAI

Tanto AutoGen Studio como AgentChat pueden usar Ollama y LocalAI porque exponen una API compatible con OpenAI.

Ollama

  1. Arranca Ollama y descarga un modelo:
BASH
ollama serve    # si no está como servicio
   ollama pull llama3.2
  1. En AutoGen Studio: En la config del LLM, Base URL = http://localhost:11434/v1, Model = llama3.2, API Key vacío. Si Studio corre en otro host o en Docker, usa la IP del host donde corre Ollama (ej. http://192.168.1.10:11434/v1).
  1. En código (AgentChat): Configura el cliente con base_url y modelo. Ejemplo conceptual (compatible con la API que use tu versión de autogen):

– Base URL: http://localhost:11434/v1

– Model: llama3.2

– API key: no necesaria (puedes usar un valor dummy si el cliente lo exige).

LocalAI

LocalAI es compatible con la API de OpenAI. Usa la misma idea: Base URL = http://localhost:8080/v1 (o la que use tu instancia), Model = nombre del modelo en LocalAI, API Key según documentación de LocalAI (a veces no necesaria).

Variables de entorno (homelab)

Puedes centralizar la configuración en un .env o script:

BASH
export OPENAI_BASE_URL="http://localhost:11434/v1"
export OPENAI_API_KEY="dummy"
export OPENAI_MODEL="llama3.2"

Así no hardcodeas IPs en el código y puedes cambiar entre Ollama en la misma máquina o en otro servidor del homelab.

Ejemplos prácticos

Dos agentes con AgentChat (conceptual)

El siguiente esquema ilustra el patrón típico: un asistente que responde y un proxy de usuario que puede ejecutar código o hacer de humano. La API exacta (nombres de clases y parámetros) puede variar según uses autogen-core o pyautogen; consulta la documentación estable.

PYTHON
# Configuración Ollama (conceptual)
import os
os.environ["OPENAI_BASE_URL"] = "http://localhost:11434/v1"
os.environ["OPENAI_API_KEY"] = "dummy"
os.environ["OPENAI_MODEL"] = "llama3.2"

# import autogen  # autogen-core o pyautogen
# config_list = [{"model": "llama3.2", "api_key": "dummy", "base_url": "http://localhost:11434/v1"}]
# llm_config = {"config_list": config_list}
# assistant = autogen.AssistantAgent(name="Assistant", llm_config=llm_config)
# user_proxy = autogen.UserProxyAgent(name="User", human_input_mode="NEVER", code_execution_config=False)
# user_proxy.initiate_chat(assistant, message="Explica qué es AutoGen en una frase.")

Human-in-the-loop

En muchos ejemplos de AutoGen, el UserProxyAgent admite human_input_mode="ALWAYS" o "TERMINATE" para pedir confirmación humana en puntos clave. Así puedes revisar código o respuestas antes de que el agente continúe, ideal en homelab para tareas sensibles. Por ejemplo, si el asistente genera un script que va a ejecutarse en tu máquina, puedes configurar el proxy para que pause y te pida aprobación antes de ejecutarlo, evitando que código no revisado se ejecute de forma automática.

Script de instalación rápida

Un script típico para homelab podría crear un venv, instalar AutoGen Studio y recordar el comando de arranque:

BASH
#!/usr/bin/env bash
python3 -m venv .venv
source .venv/bin/activate
pip install -U pip autogenstudio
echo "Listo. Ejecuta: autogenstudio ui --port 8081"

Comparativa AutoGen vs CrewAI vs LangGraph

CriterioAutoGenCrewAILangGraph
Modelo mentalConversación multi-agenteRoles y tareas (Crew)Grafo de estados
Interfaz no-codeAutoGen StudioLimitadaNo
Human-in-the-loopSí (UserProxyAgent)Sí (nodos)
Curva de aprendizajeMediaBaja–mediaAlta
Uso típicoDiálogo entre agentesWorkflows con rolesFlujos complejos

Elige AutoGen cuando quieras varios agentes que conversan entre sí y valoras una interfaz no-code (AutoGen Studio) además de la API en Python. CrewAI encaja mejor en workflows con roles fijos (investigador, redactor, etc.). LangGraph es ideal cuando necesitas un grafo de estados explícito y transiciones complejas. En la práctica, muchos usuarios de homelab combinan: AutoGen para prototipar y probar conversaciones con Ollama, y luego CrewAI o LangGraph para pipelines más estructurados en producción. No tienes que elegir solo uno; puedes usar AutoGen como puerta de entrada al mundo multi-agente y luego profundizar en el framework que mejor se adapte a tu caso.

Imagen 3

Troubleshooting común

Error: Connection refused al conectar a Ollama

  • Comprueba que Ollama está en marcha: curl http://localhost:11434/api/tags.
  • Si AutoGen Studio o tu script corren en Docker, usa la IP del host (p. ej. host.docker.internal o la IP de la red) en lugar de localhost.

Error: Model not found

  • Ejecuta ollama list y usa exactamente el nombre que aparece (ej. llama3.2:latest). En AutoGen Studio, el campo Model debe coincidir.

AutoGen Studio no arranca / puerto en uso

  • Usa otro puerto: autogenstudio ui --port 8082. Comprueba que ningún proceso use el puerto: lsof -i :8081.

ImportError o versión de autogen

  • Verifica qué paquete tienes: pip show autogen-core autogenstudio pyautogen. Sigue la guía de instalación oficial para la versión que uses (Core vs legacy); los nombres de módulos pueden cambiar.

Respuestas muy lentas con Ollama

  • Prueba un modelo más pequeño (p. ej. phi3, tinyllama) o reduce el contexto. En homelab, una GPU acelera notablemente la inferencia.

AutoGen Studio no encuentra la base de datos

  • Por defecto usa .autogenstudio en tu home y database.sqlite dentro. Usa --appdir para cambiar la ruta. Si actualizas de versión, prueba --upgrade-database.

Errores de permisos o rutas en Windows

  • En Windows, asegúrate de que el path del --appdir no tenga caracteres especiales y que el usuario tenga permisos de escritura. Si usas WSL, instalar AutoGen dentro de WSL suele evitar problemas de rutas.

📦 Descargar Ejemplos

Scripts de instalación, variables de entorno y un ejemplo conceptual de AgentChat con Ollama están en el repositorio:

🔗 Repositorio: https://github.com/ziruelen/learningaiagents/tree/main/ia/autogen-multi-agent-homelab

Incluye:

  • scripts/setup_autogen.sh — Instalación de AutoGen Studio en venv
  • configs/autogen.env — Variables de entorno para Ollama
  • examples/agent_chat_ollama.py — Esquema de uso de AgentChat con Ollama

Imagen 4

Enlaces Relacionados

Preguntas Frecuentes

¿Qué es autogen multi-agent homelab?

Es montar Microsoft AutoGen en tu propio servidor (homelab) para orquestar varios agentes conversacionales que colaboran entre sí, normalmente usando LLMs locales como Ollama.

¿AutoGen es gratuito?

Sí, AutoGen es open-source (licencia MIT). AutoGen Studio y autogen-core se instalan desde PyPI sin coste.

¿Puedo usar AutoGen solo con Ollama, sin OpenAI?

Sí. Ollama expone una API compatible con OpenAI en http://localhost:11434/v1. Configura esa URL y el nombre del modelo en AutoGen Studio o en tu config de AgentChat; no necesitas API key.

¿Qué diferencia hay entre AutoGen y AutoGPT?

AutoGPT se centra en un solo agente que planifica y ejecuta tareas en bucle. AutoGen se centra en varios agentes que conversan entre sí (por ejemplo, asistente + proxy que ejecuta código). Son complementarios: AutoGen para diálogo multi-agente, AutoGPT para un agente autónomo.

¿AutoGen Studio funciona en Docker?

No hay imagen oficial única de Microsoft. Hay proyectos comunitarios que empaquetan AutoGen Studio (y a veces Ollama) en Docker; revisa la documentación de cada imagen para puertos y variables.

¿Puedo usar AutoGen con LocalAI?

Sí. LocalAI es compatible con la API de OpenAI. Configura en AutoGen la base URL de LocalAI (ej. http://localhost:8080/v1) y el nombre del modelo.

¿Qué requisitos de hardware tiene AutoGen?

AutoGen en sí es ligero. El consumo lo marcan los LLMs: Ollama/LocalAI y el tamaño del modelo. Para modelos 7B, 8 GB RAM suele bastar; para modelos grandes, 32–64 GB o GPU.

¿AutoGen Studio guarda mis conversaciones?

Sí. Por defecto usa una base SQLite en .autogenstudio. Puedes cambiar la ruta con --appdir y, en algunas configuraciones, usar PostgreSQL con --database-uri.

¿Cómo añado un nuevo agente en AutoGen Studio?

Desde la UI, en la sección de Agents (o Workflows), crea un nuevo agente y asígnale un modelo (config LLM). Luego inclúyelo en el workflow y en las sesiones.

¿Puedo usar autogen multi-agent homelab con GPU?

AutoGen no ejecuta el modelo; lo hace Ollama o LocalAI. Si Ollama/LocalAI usan GPU, todo el flujo se beneficia. Configura CUDA/ROCm en Ollama según la documentación de Ollama.

¿AutoGen soporta múltiples idiomas?

Sí. El idioma lo determina el LLM (Ollama, etc.). Puedes hablar en español o cualquier idioma que el modelo soporte.

¿Qué versión de Python necesito para AutoGen?

Python 3.10 o superior. Se recomienda usar un entorno virtual (venv o conda).

¿Puedo integrar AutoGen con n8n?

Sí, si expones AutoGen como API (por ejemplo con autogenstudio serve o un wrapper propio). Desde n8n usarías el nodo HTTP Request para llamar a ese endpoint.

¿AutoGen tiene memoria persistente entre sesiones?

Por defecto, cada sesión es independiente. Para memoria persistente entre conversaciones, puedes combinar AutoGen con un sistema de memoria (por ejemplo Mem0) o guardar contexto en tu propia capa; no viene integrado de fábrica. Si quieres que los agentes “recuerden” cosas entre sesiones, en el blog tienes una guía dedicada a Mem0 que puedes integrar con tu flujo de AutoGen.

¿Puedo usar varios modelos en el mismo workflow de AutoGen?

Sí. En AgentChat puedes asignar a cada agente un llm_config distinto (por ejemplo, un agente con Ollama/llama3.2 y otro con un modelo más pequeño para tareas rápidas). En AutoGen Studio, según la versión, puedes definir varias configuraciones de modelo y asignar una a cada agente del workflow.

Conclusión

Montar un autogen multi-agent homelab con Microsoft AutoGen te permite tener agentes conversacionales que colaboran entre sí usando Ollama o LocalAI, sin depender de APIs cloud. AutoGen Studio facilita el prototipado sin código, y AgentChat te da control total desde Python.

Próximos pasos:

  1. Instala AutoGen Studio con pip install -U autogenstudio y arranca la UI en el puerto 8081.
  2. Configura Ollama como LLM (base URL y modelo) en AutoGen Studio.
  3. Crea un workflow con dos agentes y prueba una sesión.
  4. Si necesitas integrar en código, instala autogen-core y sigue la documentación de AgentChat para tu versión.
  5. Revisa los ejemplos en GitHub para scripts y variables de entorno.

¿Ya usas AutoGen en tu homelab? Cuéntanos tu experiencia en los comentarios.

Por ziru

0 0 votes
Article Rating
Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x
()
x
El Diario IA
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.