xmr.club preguntar buscar guías EN 中文 ES RU
← volver al inicio

Comparar proveedores

Comparación side-by-side de dos entradas cualesquiera. Selecciona por id de proveedor (p. ej. mullvad, ivpn, feather). Se actualiza en vivo cuando el curador re-califica.

llama.cppContinue.dev
CategoríaHerramientas de IAHerramientas de IA
SubcategoríaLocal RuntimeCoding Assistant
GradoAA
Selección editorial
TaglineC++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack.Open-source VS Code / JetBrains AI extension. Point at any local or cloud model, no vendor lock-in.
ComisionesFree · MIT · C++ · CPU/CUDA/ROCm/MetalFree · Apache · VS Code / JetBrains
Postura KYCanonymous_signupanonymous_signup
Etiquetas destacadasLOCALOPEN-SOURCEREFERENCELOCALOPEN-SOURCEIDE
Etiquetas de funcionesnon_custodialopen_sourceself_hostedcli_supportednon_custodialopen_sourceself_hostedapi_available
Webhttps://github.com/ggml-org/llama.cpphttps://continue.dev
Tor
Última verificación2026-05-132026-05-13