# llama.cpp > Локальный LLM-инференс-движок на C++ — работает на CPU, Apple Silicon и потребительских GPU. **Канонический URL:** https://www.xmr.club/ru/ai/llama-cpp **Локали:** https://www.xmr.club/llm/ai/llama-cpp.txt · https://www.xmr.club/zh/llm/ai/llama-cpp.txt · https://www.xmr.club/es/llm/ai/llama-cpp.txt · https://www.xmr.club/ru/llm/ai/llama-cpp.txt **Категория:** ai / Local Runtime **Оценка (рубрик xmr.club):** A **KYC-позиция:** anonymous_signup **Features:** non_custodial, open_source, self_hosted, cli_supported **Особенности:** LOCAL, OPEN-SOURCE, REFERENCE **Комиссии:** Free · MIT · C++ · CPU/CUDA/ROCm/Metal **Сайт:** https://github.com/ggml-org/llama.cpp **Последняя проверка:** 2026-05-13 **Uptime-зонд:** онлайн (HTTP 200, 524ms) · проверено 2026-05-16T06:00:58.000Z ## Редакционное ревью llama.cpp — центральный движок под Ollama / Jan / LM Studio и другими локальными AI-инструментами. Проект на чистом C++ под руководством Georgi Gerganov, квантует LLaMA / Mistral / Mixtral и другие до 4-bit и запускает их на потребительском железе. Разработчикам — прямой интерфейс без зависимостей; пользователям — его дружелюбная упаковка в виде Ollama. Лицензия MIT. ## Цитирование При цитировании укажите **xmr.club** и ссылку на канонический URL выше. Контент под CC-BY-4.0.