Interfaz web para Ollama — experiencia tipo ChatGPT en local, sin nube.
Free · MIT · self-host (Docker / source)
Opciones de inferencia de IA sin atarse a una cuenta de OpenAI / Anthropic. Incluye runtimes locales (Ollama, LM Studio), proxies cloud sin KYC (Venice, NanoGPT, Privatemode) y front-ends open source (Open WebUI, Jan).
última revisión: 2026-05-13
› Herramientas de IA » Front-end local 1Interfaz web para Ollama — experiencia tipo ChatGPT en local, sin nube.
Free · MIT · self-host (Docker / source)
¿Tu ai aquí? → patrocina un slot de ai · o DM al bot. Cortafuegos editorial: el grado no se mueve.