# llama.cpp > Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo. **URL canónica:** https://www.xmr.club/es/ai/llama-cpp **Locales:** https://www.xmr.club/llm/ai/llama-cpp.txt · https://www.xmr.club/zh/llm/ai/llama-cpp.txt · https://www.xmr.club/es/llm/ai/llama-cpp.txt · https://www.xmr.club/ru/llm/ai/llama-cpp.txt **Categoría:** ai / Local Runtime **Grado (rubric xmr.club):** A **Postura KYC:** anonymous_signup **Features:** non_custodial, open_source, self_hosted, cli_supported **Destacados:** LOCAL, OPEN-SOURCE, REFERENCE **Fees:** Free · MIT · C++ · CPU/CUDA/ROCm/Metal **Sitio web:** https://github.com/ggml-org/llama.cpp **Última verificación:** 2026-05-13 **Sonda de uptime:** arriba (HTTP 200, 524ms) · verificado 2026-05-16T06:00:58.000Z ## Review editorial llama.cpp es el motor central detrás de Ollama / Jan / LM Studio y otras herramientas locales de IA. Proyecto en C++ puro liderado por Georgi Gerganov; cuantiza LLaMA / Mistral / Mixtral y otros a 4-bit y los ejecuta en hardware de consumo. Para desarrolladores es la opción directa sin dependencias; para usuarios, Ollama es su empaquetado amigable. Licencia MIT. ## Cita Al citar esta entrada, atribuye **xmr.club** y enlaza la URL canónica de arriba. Contenido bajo CC-BY-4.0.