Herramientas de IA » Runtime local
A llama.cpp
● up · checked 6h ago verificado hace 3 días
Motor de inferencia LLM local en C++ — corre en CPU, Apple Silicon o GPU de consumo.
De un vistazo
- registro sin KYC
- Código open source
- No custodial — tus llaves
- Auto-alojable
Reseña
llama.cpp es el motor central detrás de Ollama / Jan / LM Studio y otras herramientas locales de IA. Proyecto en C++ puro liderado por Georgi Gerganov; cuantiza LLaMA / Mistral / Mixtral y otros a 4-bit y los ejecuta en hardware de consumo. Para desarrolladores es la opción directa sin dependencias; para usuarios, Ollama es su empaquetado amigable. Licencia MIT.
Comisiones
Free · MIT · C++ · CPU/CUDA/ROCm/Metal
Enlaces
¿Por qué A? — definición del rubric
Best evidence tier. Signup tested end-to-end by xmr.club curator — deposit + withdrawal + edge cases. No-KYC posture verified at retail volume. Last_verified within 12 months. Rubric completo + ejemplo en /es/methodology; el razonamiento del curador para esta entrada en el log de auditoría.
Rastro de auditoría — recibos del juicio editorial
- Upstream activo · HTTP 200 · 655ms · comprobado 6h ago
- Sin espejo
.onionlistado - Última verificación manual
2026-05-13(<7d) - Ver log del curador para llama.cpp
Reseñas — moderado · reglas
Aún no hay reseñas aprobadas. Sé el primero.
Añadir una reseña
Bienvenida la retroalimentación honesta y neutral. Un curador aprueba antes de publicar. Sin JS, sin registro.