本地端運行 LLM:Ollama + Open WebUI 完整安裝指南
Ollama 是一款開源工具,讓開發者能夠在 macOS、Linux 及 Windows 本機上輕鬆下載並運行各種開源大型語言模型,無需複雜的環境配置。支援模型包含 Meta 的 Llama 3.1/3.2、Mistral、Phi-4、Gemma 2 及 Qwen 等主流選項。
安裝步驟相當簡便:下載 Ollama 安裝包後,透過命令列執行 `ollama pull llama3.1` 即可下載模型,`ollama run llama3.1` 則可直接在終端機進行對話。配合 Open WebUI,可在本機架設與 ChatGPT 介面相近的視覺化聊天界面。
本地運行的主要優勢包含資料隱私(敏感資料不離開本機)、無使用費用及離線可用性。建議配備至少 16GB RAM 及具備 GPU 加速能力(NVIDIA 顯卡)的系統,以獲得流暢的推理體驗。

