Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Варианты AI-инференса без привязки к аккаунту OpenAI / Anthropic. Включает локальные рантаймы (Ollama, LM Studio), облачные прокси без KYC (Venice, NanoGPT, Privatemode) и open-source фронтенды (Open WebUI, Jan).
последний пересмотр: 2026-05-13
› AI-инструменты » Локальный рантайм 1Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU.
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Your ai here? → sponsor a ai slot · or DM the bot. Editorial firewall: grade never moves.