Comparar proveedores
Comparación side-by-side de dos entradas cualesquiera. Selecciona por id de proveedor (p. ej. mullvad, ivpn, feather). Se actualiza en vivo cuando el curador re-califica.
| Ollama | llama.cpp | |
|---|---|---|
| Categoría | Herramientas de IA | Herramientas de IA |
| Subcategoría | Local Runtime | Local Runtime |
| Grado | A | A |
| Selección editorial | — | — |
| Tagline | Run open-source LLMs locally — no network, no API key, no telemetry. | C++ runtime for running LLMs locally on CPU + GPU. The backbone of every privacy-LLM stack. |
| Comisiones | Free · MIT · runtime + model weights local | Free · MIT · C++ · CPU/CUDA/ROCm/Metal |
| Postura KYC | anonymous_signup | anonymous_signup |
| Etiquetas destacadas | FREELOCALNO-NETWORK | LOCALOPEN-SOURCEREFERENCE |
| Etiquetas de funciones | open_sourceself_hostedcli_supportedapi_available | non_custodialopen_sourceself_hostedcli_supported |
| Web | https://ollama.com | https://github.com/ggml-org/llama.cpp |
| Tor | — | — |
| Última verificación | 2026-05-12 | 2026-05-13 |