xmr.club preguntar buscar guías EN 中文 ES RU
← volver al inicio

Comparar proveedores

Comparación side-by-side de dos entradas cualesquiera. Selecciona por id de proveedor (p. ej. mullvad, ivpn, feather). Se actualiza en vivo cuando el curador re-califica.

LM Studiollama.cpp
CategoríaHerramientas de IAHerramientas de IA
SubcategoríaLocal RuntimeLocal Runtime
GradoBA
Selección editorial
TaglineDesktop GUI for local LLMs. Drag-drop GGUF models, OpenAI-compatible local API, no cloud.C++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack.
ComisionesFree for personal · MacOS/Win/Linux · localhost APIFree · MIT · C++ · CPU/CUDA/ROCm/Metal
Postura KYCanonymous_signupanonymous_signup
Etiquetas destacadasLOCALGUIOPENAI-COMPATLOCALOPEN-SOURCEREFERENCE
Etiquetas de funcionesnon_custodialself_hostedapi_availablenon_custodialopen_sourceself_hostedcli_supported
Webhttps://lmstudio.aihttps://github.com/ggml-org/llama.cpp
Tor
Última verificación2026-05-132026-05-13