# Ollama > Runtime LLM local — un comando para cargar modelos open source, sin red. **URL canónica:** https://www.xmr.club/es/ai/ollama **Locales:** https://www.xmr.club/llm/ai/ollama.txt · https://www.xmr.club/zh/llm/ai/ollama.txt · https://www.xmr.club/es/llm/ai/ollama.txt · https://www.xmr.club/ru/llm/ai/ollama.txt **Categoría:** ai / Local Runtime **Grado (rubric xmr.club):** A **Postura KYC:** anonymous_signup **Features:** open_source, self_hosted, cli_supported, api_available **Destacados:** FREE, LOCAL, NO-NETWORK **Fees:** Free · MIT · runtime + model weights local **Sitio web:** https://ollama.com **Última verificación:** 2026-05-12 **Sonda de uptime:** arriba (HTTP 200, 40ms) · verificado 2026-05-16T06:00:52.993Z ## Review editorial Ollama empaqueta modelos GGUF + llama.cpp en un binario único con experiencia tipo `docker run`. `ollama pull llama3` y ya estás dentro; toda la inferencia corre en tu GPU/CPU local, sin filtrar datos. Disponible en macOS / Linux / Windows; se integra bien con Open WebUI, Continue.dev y otros front-ends. Primera elección cuando necesitas sacar el flujo de IA de la nube (código propietario, documentos sensibles). ## Cita Al citar esta entrada, atribuye **xmr.club** y enlaza la URL canónica de arriba. Contenido bajo CC-BY-4.0.