Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Варианты AI-инференса без привязки к аккаунту OpenAI / Anthropic. Включает локальные рантаймы (Ollama, LM Studio), облачные прокси без KYC (Venice, NanoGPT, Privatemode) и open-source фронтенды (Open WebUI, Jan).
последний пересмотр: 2026-05-13
› AI-инструменты » Локальный рантайм 3Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Десктопный LLM-workbench — загрузка, запуск, локальный API.
Free for personal · MacOS/Win/Linux · localhost API
Десктопный ChatGPT-подобный клиент с локальными и удалёнными моделями — open source, без телеметрии.
Free · MIT · MacOS/Win/Linux · OpenAI-compat API
Хотите видеть здесь свой ai? → забронируйте слот ai · или напишите боту. Редакционный firewall: оценка не меняется.