Perplexica (Vane): perplexica investigacion ia self hosted en tu homelab (Guía 2026)
TL;DR
Montar perplexica investigacion ia self hosted con Vane (itzcrazykns1337/vane) es hoy la forma práctica de desplegar el motor open source que combina SearXNG con modelos de chat locales (Ollama) o cloud. En 15–20 minutos tienes un answering engine con citas; el trabajo real está en SearXNG, TLS, costes de API y backups del volumen de datos. No olvides comunicar el cambio de marca internamente: muchos tutoriales antiguos siguen titulando “Perplexica” aunque el binario ya se llame Vane. Tiempo de lectura: ~18 minutos.
Tabla de contenidos
- TL;DR
- Introducción
- Qué es hoy Perplexica y por qué aparece Vane
- Arquitectura lógica
- Requisitos y sizing
- Instalación [Docker recomendada](#instalación-docker-recomendada)
- Variante slim y SearXNG externo
- Conectar Ollama y APIs compatibles con OpenAI)
- Seguridad: exposición, secretos y segmentación
- Integración con el resto del stack (proxy, VPN, automatización)
- Observabilidad y costes
- Mejores prácticas de operación
- Kubernetes y alta disponibilidad (visión SRE)
- Gobierno de datos para investigación IA self hosted
- Red Docker y ejemplo de red interna
- Matriz de riesgos (transparencia para el lector)
- Checklist de salida a “producción casera”
- Comparativas con otras piezas del ecosistema
- Troubleshooting y FAQ (Perplexica / Vane self-hosted)
- 📦 Descargar ejemplos
- Enlaces relacionados
- Preguntas frecuentes
- Conclusión
Introducción
Si buscas Perplexica para investigación IA self hosted, lo más probable es que quieras privacidad, citación de fuentes y un camino Docker reproducible. El proyecto que la comunidad sigue llamando Perplexica vive ahora en GitHub como Vane; las imágenes oficiales publican el nombre vane. Eso no cambia el patrón técnico: una interfaz Next.js, un backend que orquesta búsqueda y un LLM, y un volumen persistente donde caen historial y subidas. Lo que sí cambia es tu expectativa de marca: documenta internamente “Vane = motor Perplexica” para que tu equipo no abra tickets contra un binario inexistente.
Esta guía asume un homelab serio: quieres investigación con trazabilidad, no un chat anónimo sin logs. Por eso enlazamos con guías ya publicadas en ElDiarioIA sobre MCP, Open WebUI con Ollama, AnythingLLM y Flowise para que sepas dónde encaja Vane frente a RAG sobre tus PDFs o frente a orquestación de agentes.

Qué es hoy Perplexica y por qué aparece Vane
Perplexica investigacion ia self hosted describe un patrón: motor de respuestas con búsqueda web y modelo de lenguaje. El repositorio ItzCrazyKns/Vane mantiene licencia MIT, topics explícitos perplexica y searxng, y documentación de arquitectura e instalación. Desde homelab debes tratarlo como producto vivo: issues abiertos, roadmap con autenticación pendiente y expansiones de widgets. Tu runbook debe versionar tag de imagen, no solo latest.
Para lectores que llegan desde buscadores antiguos, deja claro en la primera página interna de tu wiki: “Perplexica → despliegue Vane”. Así reduces confusión cuando alguien copia tutoriales de 2024 con nombres viejos pero comandos nuevos.
Arquitectura lógica
En términos simples: UI + API en un contenedor, SearXNG integrado o remoto, y proveedores LLM configurables. El valor diferencial frente a un chat plano es la cadena búsqueda → extracción → síntesis con citas. Cuando activas modos profundos, aumentas llamadas a SearXNG y tokens del modelo; no es “gratis” solo por ser self-hosted si pagas APIs externas.
La investigación IA aquí no sustituye a un analista: reduce tiempo de ir y venir entre pestañas, pero mantiene sesgos de los buscadores que configures en SearXNG. Si tu instancia SearXNG solo indexa tres motores lentos, el resultado será pobre aunque montes un modelo 70B local.
Piensa en este patrón Perplexica + Vane self-hosted como un “cocinero” que solo puede preparar platos con los ingredientes que le compres: el LLM es técnica de cocina, pero SearXNG y los motores remotos son la despensa. Si la despensa está vacía o caducada, el plato será bonito y poco nutritivo.
Requisitos y sizing
CPU/RAM: arranca con 2 vCPU y 4–8 GiB RAM para el stack completo sin modelos enormes en el mismo host. Si convives con Ollama frente a LM Studio y modelos grandes, separa nodos o limita concurrencia.
Disco: el volumen vane-data crece con historial y archivos subidos; planifica 20 GiB mínimos en SSD.
Red: salida HTTPS hacia buscadores; DNS estable; MTU coherente si usas WireGuard o bridges Docker raros (véase Tailscale homelab).

Instalación Docker recomendada
El README oficial propone un docker run directo:
Para homelab persistente preferimos Compose (está en el repo de ejemplos del artículo). Así versionas el mismo patrón perplexica investigacion ia self hosted que documentas en Git:
Tras docker compose up -d, abre http://127.0.0.1:3000 y completa el asistente: modelos, claves y preferencias. Guarda capturas de la configuración en tu wiki; Vane no es un fichero único de infraestructura como un config.yml de Pi-hole.
Variante slim y SearXNG externo
Si ya tienes SearXNG interno, la imagen slim reduce duplicidad:
Checklist SearXNG: salida JSON habilitada en ajustes, motores que realmente respondan desde tu red, y prueba con curl desde dentro del contenedor Vane. Muchos tickets de “no hay resultados” son DNS interno mal resuelto, no fallos del LLM.

Conectar Ollama y APIs compatibles con OpenAI
Ollama es el camino natural en homelab; sigue las mismas reglas que ya documentamos para Open WebUI y LocalAI: el backend del contenedor debe alcanzar ollama:11434 o la IP del bridge, y Ollama debe escuchar en 0.0.0.0 si atiendes desde Docker (ver FAQ oficial de Ollama sobre OLLAMA_HOST).
Para nubes (OpenAI, Anthropic, Google, Groq…), rota claves, separa proyectos de facturación y activa límites de gasto donde el proveedor lo permita. Incluso con perplexica investigacion ia self hosted, si eliges modelos cloud las respuestas no dejan de implicar salida a Internet bajo las políticas del proveedor.
Seguridad: exposición, secretos y segmentación
Hoy el proyecto lista autenticación como pendiente: asume frontal obligatorio (Authelia, SSO corporativo o VPN) si expones el puerto. Coloca Vane detrás de Traefik o Caddy con TLS y Basic/ForwardAuth mínimo.
Los usuarios suben PDFs e imágenes: trata el volumen como dato sensible, cifrado en reposo si tu hipervisor lo permite, y excluye copias en backups públicos. Para equipos regulados, enlaza con tu política de retención y con guías de Authelia + LLDAP si unificas login.
Integración con el resto del stack (proxy, VPN, automatización)
Patrones útiles:
- Reverse proxy con cabeceras HSTS y rate limit por IP.
- VPN (Tailscale, Headscale-self-hosted-homelab/)) para acceso admin sin abrir el servicio a todo Internet.
- n8n para jobs batch: lee la API de búsqueda documentada en el repo y guarda resultados en Postgres si necesitas auditoría (concepto similar a pipelines de n8n database).

Observabilidad y costes
Mide dos cosas: latencia SearXNG y tokens LLM. Prometheus + Grafana (stack homelab) con métricas de contenedor y logs en Loki bastan. Si mezclas modelos cloud, exporta coste diario a una hoja: la investigación profunda dispara factura. Si escalas a varias réplicas, revisa también vLLM en producción-2025/) para no mezclar colas de inferencia con la UI de investigación sin límites.
Mejores prácticas de operación
La etiqueta perplexica investigacion ia self hosted (búsqueda + marca histórica) resume intención, no magia operativa. En producción interna conviene un runbook de tres páginas: cómo arrancar, cómo aislar fallos entre SearXNG y LLM, y cómo hacer rollback de imagen. Versiona el docker-compose.yml en Git; evita editar a mano en el servidor sin commit.
Define perfiles de modelo: uno barato para preguntas rápidas y otro profundo para informes mensuales. Así reduces el “impulse research” que dispara tokens en cualquier despliegue perplexica investigacion ia self hosted. Si compartes el servicio con compañeros de equipo, acuerda un cupo diario por persona cuando uses APIs cloud.
Programa backups incrementales del volumen vane-data en la misma ventana que ya usas para otros servicios Docker; documenta cómo restaurar en un host limpio. Si pruebas motores nuevos en SearXNG, hazlo primero en una instancia staging y copia solo la configuración validada a producción.
Kubernetes y alta disponibilidad (visión SRE)
En Kubernetes el patrón habitual es un Deployment con PersistentVolumeClaim para vane-data, Service ClusterIP y Ingress con TLS. Antes de soñar con “HA perfecta”, recuerda que el cuello de botella suele ser SearXNG o el rate limit de buscadores remotos, no el número de réplicas de Vane.
Si necesitas varias réplicas de la UI, asegura sesiones sticky o almacenamiento compartido coherente para el volumen; Next.js en contenedor puede asumir estado local si no diseñas bien el backend. Para la mayoría de homelabs, una réplica con buen proxy y backups es más honesto que duplicar complejidad.
Gobierno de datos para investigación IA self hosted
Aquí “self hosted” significa que tú eres el responsable del tratamiento de consultas, historiales y ficheros subidos. Inventaria qué datos salen hacia buscadores externos y qué prompts se envían a proveedores cloud. Si tu organización ya trabaja con DPIA o registros de actividades, enlaza Vane a ese marco: la investigación con IA genera trazas tan sensibles como un ticket interno.
Para retención, decide políticas claras: ¿30 días de historial? ¿borrado manual por proyecto? Comunícalo en la wiki donde explicas el despliegue self-hosted a negocio. Si necesitas memoria de largo plazo entre sistemas, valora patrones de Mem0 como complemento, no como sustituto del historial local de Vane.
Comparativas con otras piezas del ecosistema
| Criterio | Vane / Perplexica | AnythingLLM | Flowise |
|---|---|---|---|
| Enfoque | Web + citas + chat | RAG sobre corpus | Flujos visuales |
| SearXNG | Núcleo / integrado | No central | No central |
| Curva Docker | Baja | Media | Media |
| Criterio | Vane / Perplexica | Open WebUI | |
| ———- | ——————- | ———— | |
| Investigación web | Principal | Secundaria/plugins | |
| Citas | Diseño del producto | Depende de flujo | |
| Criterio | Self hosted Vane | SaaS tipo “answer engine” | |
| ———- | ——————- | ————————— | |
| Control de datos | Alto en tu disco | Bajo | |
| Operación | Tú mantienes SearXNG+TLS | Vendor |
Red Docker y ejemplo de red interna
Cuando Vane, SearXNG y Ollama conviven en el mismo host, crea una red bridge dedicada para que los nombres DNS sean estables. Ejemplo mínimo (ilustrativo; ajusta nombres de servicio):
En la UI de Vane, la URL de Ollama será http://ollama:11434 si comparten red. Si Ollama vive fuera de Compose, usa la IP del bridge o host.docker.internal según SO. Este patrón reduce incidentes de “funciona en mi máquina” cuando alguien copia localhost literal dentro del contenedor.
Matriz de riesgos (transparencia para el lector)
| Riesgo | Impacto | Mitigación |
|---|---|---|
| SearXNG mal configurado | Respuestas pobres o sesgadas | Staging + pruebas curl internas |
| APIs cloud sin cuotas | Factura alta | Claves separadas y alertas |
| Exposición pública sin auth | Abuso o scraping | VPN / SSO / rate limit |
| Volumen sin backup | Pérdida de historial | Restic/Kopia programado |
Imagen latest rota | Regresión silenciosa | Pin por digest o tag revisado |
Checklist de salida a “producción casera”
Antes de anunciar el servicio a tu equipo, recorre esta lista cuando montes Perplexica (Vane) self-hosted:
- DNS interno:
docker execal contenedor y resuelve SearXNG y Ollama por nombre. - TLS: certificado válido en el proxy; cadena completa sin warnings en navegadores corporativos.
- Límites: rate limit en Traefik/Caddy y timeouts acordes a modos profundos.
- Secretos: ninguna clave en capturas de pantalla ni en el repo de ejemplos públicos.
- Backups: job nocturno del volumen y restauración probada al menos una vez al trimestre.
- Runbook: una página con “si cae SearXNG haz X; si cae el LLM haz Y”.
- Coste: tablero simple (hoja o Grafana) con tokens/día si usas nube.
Esta disciplina es la que separa un experimento de fin de semana de un servicio en el que tus compañeros confían para preparar reuniones reales.
Plantilla mínima de “definición de listo”
Para cerrar el ticket de despliegue, deja constancia escrita de: versión de imagen desplegada, URL del proxy, responsable de rotación de claves y fecha de la última prueba de restauración del volumen. Si alguien pregunta “¿está en producción?”, la respuesta debe ser un enlace a esa nota, no un “sí” verbal. Esa formalidad ligera escala mejor que documentación enorme que nadie lee.
Qué no prometas a negocio
Evita vender el stack Perplexica/Vane self-hosted como “100 % privado” si en la práctica usas motores de búsqueda remotos y modelos cloud: es honesto decir “controlamos el disco y el proxy, pero parte del tráfico sale a terceros bajo estas políticas”. Ese matiz evita incidentes de compliance cuando alguien asume cero salida a Internet.
Troubleshooting y FAQ (Perplexica / Vane self-hosted)
- 502/504 al buscar: revisa SearXNG primero; luego mira logs de Vane.
- “No hay proveedor de chat”: URL del servidor OpenAI-compatible incorrecta o bind en localhost.
- Ollama desde contenedor: usa IP bridge o
host.docker.internalsegún SO; valida firewall. - Resultados sesgados: cambia motores SearXNG y limita regiones.
- Histórico sensible: borra volumen con consciencia; no hay “undo” mágico.
Prueba de humo rápida tras despliegue:
Si el código no es 200/301/302, revisa primero publicación de puertos y luego logs; en muchos homelabs el fallo es un IPv6 escuchando distinto al 127.0.0.1 que estás probando. Anota el resultado en el ticket de despliegue.
📦 Descargar ejemplos
Repo público (Compose + script de humo):
Enlaces relacionados
- MCP: Model Context Protocol
- LangChain vs LlamaIndex (RAG)
- Dify.AI sin código
- Mem0 memoria persistente
- vLLM en producción
- AutoGen + Ollama
Preguntas frecuentes
¿Sigue llamándose Perplexica el proyecto?
Es el nombre histórico en la comunidad; el repositorio y las imágenes Docker usan Vane. Documenta ambos en tu wiki interna para que soporte y desarrollo hablen el mismo idioma cuando lean logs o issues públicos.
¿Es viable Perplexica (Vane) self hosted solo con CPU para investigación IA?
Sí para pruebas con modelos pequeños vía APIs cloud; para modelos locales grandes necesitas GPU o paciencia. Si insistes en CPU para modelos medianos, acepta tiempos de respuesta largos y desactiva modos “calidad” para usuarios concurrentes.
¿Qué diferencia a Vane de un chat con plugin de búsqueda?
La UX y el pipeline están optimizados para respuestas con fuentes y modos de calidad, no solo un plugin opcional. La diferencia práctica es gobernanza: aquí el buscador y el LLM son ciudadanos de primera clase, no un añadido oculto en el menú.
¿Puedo usar solo Ollama sin APIs cloud?
Sí, si el modelo cabe en tu hardware y aceptas menor calidad en tareas largas. Valora cuantización y contexto: una investigación con muchas fuentes consume ventana de contexto rápidamente.
¿Debo exponer el puerto 3000 a Internet?
No sin capa de autenticación; el roadmap aún menciona auth nativa pendiente. En entornos personales, preferimos VPN o portal SSO antes que “seguridad por oscuridad”.
¿Cómo integro SearXNG ya existente?
Usa la imagen slim y SEARXNG_API_URL, validando JSON en SearXNG. Desde el contenedor Vane ejecuta wget/curl contra la URL interna; si falla ahí, fallará en la app.
¿Dónde guarda el historial?
En el volumen Docker vane-data; inclúyelo en backups. Si clonas el volumen a otro host, revisa permisos UID/GID del contenedor.
¿Puedo meterlo detrás de Traefik?
Sí; añade TLS y límites de tasa; revisa timeouts para búsquedas largas. Ajusta readTimeout del backend para que consultas profundas no corten a mitad.
¿Qué pasa con archivos subidos?
Quedan en el volumen; trátalos como datos sensibles. Si borras el volumen sin snapshot, pierdes también historial y adjuntos.
¿Es compatible con OpenAI-like servers (vLLM, LocalAI)?
Sí, si responden como OpenAI API y son alcanzables desde el contenedor. Verifica nombres de modelo exactos y que el servidor escuche en 0.0.0.0 cuando corresponda.
¿Cómo evito sorpresas de facturación?
Separa claves por entorno, límites de cuota y alertas en el proveedor. Para equipos, crea proyectos distintos “lab” vs “prod” y rota claves si alguien se va.
¿Qué monitorizo primero?
Latencia de SearXNG y errores 429/5xx del buscador, luego tokens LLM. Sin SearXNG sano, el LLM solo inventa excusas elegantes.
¿Tiene API para automatizar?
Sí; revisa la carpeta docs/API del repositorio oficial. Encaja con patrones de automatización que ya uses en n8n u otros orquestadores.
¿Cómo migro de latest a un tag fijo?
Cambia la etiqueta en Compose, docker compose pull, recrea el contenedor y verifica smoke tests. Anota en el changelog qué versión probaste y qué regressions viste.
¿Dónde profundizo en RAG “clásico” sobre mis PDFs?
En AnythingLLM o Flowise. Son complementos, no competencia directa con el enfoque web+citas de Vane.
¿Cómo encaja Perplexica (Vane) self hosted con MCP para investigación IA?
MCP estandariza herramientas para agentes; Vane responde preguntas con fuentes. Puedes combinarlos: MCP para acciones internas, Vane para síntesis documentada. Lee la guía de MCP antes de exponer herramientas críticas.
Conclusión
Perplexica como investigacion ia self hosted sigue siendo un patrón excelente para homelab: controlas buscador y modelo, y obtienes respuestas citadas sin depender de un SaaS opaco. Con Vane ganas un camino Docker mantenido y documentación viva, pero asumes operación adulta: SearXNG sano, TLS delante, backups del volumen y política de costes si mezclas nube. No subestimes el trabajo de “hacer buena búsqueda”: un LLM brillante con un SearXNG mediocre produce respuestas bien redactadas y mal fundamentadas.
Si quieres el siguiente salto, combina este motor con agentes (OpenAI Agents SDK) solo cuando tengas trazabilidad clara de cada herramienta externa y límites de permisos. Mientras tanto, Vane es una pieza sólida para investigación reproducible en tu red: poco glamour, mucha utilidad, y un coste predecible si gobiernas tokens y motores de búsqueda con la misma disciplina que ya aplicas al resto del homelab.
