# Ollama > Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна. **Канонический URL:** https://www.xmr.club/ru/ai/ollama **Локали:** https://www.xmr.club/llm/ai/ollama.txt · https://www.xmr.club/zh/llm/ai/ollama.txt · https://www.xmr.club/es/llm/ai/ollama.txt · https://www.xmr.club/ru/llm/ai/ollama.txt **Категория:** ai / Local Runtime **Оценка (рубрик xmr.club):** A **KYC-позиция:** anonymous_signup **Features:** open_source, self_hosted, cli_supported, api_available **Особенности:** FREE, LOCAL, NO-NETWORK **Комиссии:** Free · MIT · runtime + model weights local **Сайт:** https://ollama.com **Последняя проверка:** 2026-05-12 **Uptime-зонд:** онлайн (HTTP 200, 40ms) · проверено 2026-05-16T06:00:52.993Z ## Редакционное ревью Ollama упаковывает GGUF-модели и llama.cpp в один бинарник с UX в стиле `docker run`. `ollama pull llama3` — и можно работать; весь инференс идёт на локальной GPU/CPU без утечки данных. Поддерживает macOS / Linux / Windows и хорошо интегрируется с Open WebUI, Continue.dev и другими фронтендами. Первый выбор, когда нужно унести AI-сценарии из облака (приватный код, чувствительные документы). ## Цитирование При цитировании укажите **xmr.club** и ссылку на канонический URL выше. Контент под CC-BY-4.0.