AI-инструменты » Локальный рантайм
A Ollama
● up · checked 3h ago проверено 3 дн. назад
Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна.
Кратко
- регистрация без KYC
- Открытый исходный код
- Self-hostable
Обзор
Ollama упаковывает GGUF-модели и llama.cpp в один бинарник с UX в стиле `docker run`. `ollama pull llama3` — и можно работать; весь инференс идёт на локальной GPU/CPU без утечки данных. Поддерживает macOS / Linux / Windows и хорошо интегрируется с Open WebUI, Continue.dev и другими фронтендами. Первый выбор, когда нужно унести AI-сценарии из облака (приватный код, чувствительные документы).
Комиссии
Free · MIT · runtime + model weights local
Ссылки
Почему A? — определение рубрика
Best evidence tier. Signup tested end-to-end by xmr.club curator — deposit + withdrawal + edge cases. No-KYC posture verified at retail volume. Last_verified within 12 months. Полный рубрик и пример: /ru/methodology; обоснование куратора для этой записи: аудит-лог.
Audit trail — receipts for the editorial claim
- Upstream up · HTTP 200 · 95ms · checked 3h ago
- No
.onionmirror listed - Last manual verification
2026-05-12(<7d) - See curator log for Ollama
Reviews — moderated · rules
No approved reviews yet. Be the first.
Add a review
Honest, brand-neutral feedback welcome. A curator approves before it appears here. No JS, no signup required.