# Ollama > 本地 LLM runtime — 一行指令載入開源模型,無需網路。 **Canonical 網址:** https://www.xmr.club/zh/ai/ollama **語系:** https://www.xmr.club/llm/ai/ollama.txt · https://www.xmr.club/zh/llm/ai/ollama.txt · https://www.xmr.club/es/llm/ai/ollama.txt · https://www.xmr.club/ru/llm/ai/ollama.txt **分類:** ai / Local Runtime **評級(xmr.club 評鑑):** A **KYC 立場:** anonymous_signup **功能標籤:** open_source, self_hosted, cli_supported, api_available **亮點標籤:** FREE, LOCAL, NO-NETWORK **費用:** Free · MIT · runtime + model weights local **網站:** https://ollama.com **最後驗證:** 2026-05-12 **上游探測:** 正常 (HTTP 200, 40ms) · 檢查於 2026-05-16T06:00:52.993Z ## 編輯評測 Ollama 把 GGUF 模型 + llama.cpp 包成單一二進位,提供類似 `docker run` 的體驗。`ollama pull llama3` 即可開始使用,所有推論在本機 GPU/CPU 完成,無資料外洩。macOS / Linux / Windows 都有,與 Open WebUI、Continue.dev 等前端整合良好。對於需要把 AI 工作流完全脫離雲端(保密原始碼、處理敏感文件)的開發者來說是首選。 ## 引用 引用本條目時,請註明 **xmr.club** 並連結上方 canonical 網址。內容採 CC-BY-4.0。