●
Ollama
Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна.
Free · MIT · runtime + model weights local
Варианты AI-инференса без привязки к аккаунту OpenAI / Anthropic. Включает локальные рантаймы (Ollama, LM Studio), облачные прокси без KYC (Venice, NanoGPT, Privatemode) и open-source фронтенды (Open WebUI, Jan).
последний пересмотр: 2026-05-13
› AI-инструменты » Локальный рантайм 1Локальный LLM-рантайм — одна команда подтянет open-source модель, сеть не нужна.
Free · MIT · runtime + model weights local
Хотите видеть здесь свой ai? → забронируйте слот ai · или напишите боту. Редакционный firewall: оценка не меняется.