xmr.club спросить поиск гайды EN 中文 ES RU
← на главную

Сравнить провайдеров

Сравнение бок о бок любых двух записей. Выбирайте по id провайдера (например mullvad, ivpn, feather). Обновляется в реальном времени при переоценке куратором.

llama.cppContinue.dev
КатегорияAI-инструментыAI-инструменты
ПодкатегорияLocal RuntimeCoding Assistant
ОценкаAA
Выбор редакции
TaglineC++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack.Open-source VS Code / JetBrains AI extension. Point at any local or cloud model, no vendor lock-in.
КомиссииFree · MIT · C++ · CPU/CUDA/ROCm/MetalFree · Apache · VS Code / JetBrains
KYC-постураanonymous_signupanonymous_signup
Хайлайт-тегиLOCALOPEN-SOURCEREFERENCELOCALOPEN-SOURCEIDE
Теги-фичиnon_custodialopen_sourceself_hostedcli_supportednon_custodialopen_sourceself_hostedapi_available
Webhttps://github.com/ggml-org/llama.cpphttps://continue.dev
Tor
Последняя проверка2026-05-132026-05-13