Upvotes
0
Upvotes: 0幫我整理好在linux各種方式要怎麼開啟 ollama 還有 open webui
可以,我幫你整理成一份 Linux 上啟動 Ollama 與 Open WebUI 的實用總表。
先記住這三個常見位址:
Ollama 啟動後主要提供本機 API,預設是 http://localhost:11434;Open WebUI 如果用 Docker 快速啟動,通常開在 http://localhost:3000;如果用 Python 方式啟動,通常是 http://localhost:8080。 (Ollama Docs)
這是最基本、最直觀的方式。你安裝好 Ollama 後,直接跑:
ollama serve
然後另一個終端機可以用:
ollama run gemma3
或先確認指令可用:
ollama -v
官方 Linux 文件把 ollama serve 當成手動啟動方式;CLI 文件也提供 ollama run <model> 的基本用法。(Ollama Docs)
這是 Linux 上最適合「開機自動跑、平常不用手動開」的方式。官方文件有提供把 Ollama 加成 startup service 的做法,核心就是建立 ollama.service,然後啟用與啟動:
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama
看 log:
journalctl -u ollama --no-pager --follow --pager-end
這是官方推薦的 Linux 常駐方式。(Ollama Docs)
如果你不想把 Ollama 直接裝在系統裡,也可以跑官方 Docker 容器:
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
如果你沒有 NVIDIA GPU,可以先拿掉 --gpus=all 試。官方 Docker 文件有提供這個基本啟動方式。(Ollama Docs)
這通常只有你在改 Ollama 原始碼時才需要:
go run . serve
這是官方 development 文件提供的開法。(Ollama Docs)
這是 Open WebUI 官方最推薦、也最常見的 Linux 用法。基本指令:
docker pull ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
開好之後用瀏覽器打:
http://localhost:3000
Open WebUI 官方文件明確寫 Docker 是「recommended for most users」,而首頁 quick start 也直接給了帶 --add-host=host.docker.internal:host-gateway 的 Linux 啟動範例。(Open WebUI)
如果你不想用 Docker,想走比較輕量的 Python 方式:
pip install open-webui
open-webui serve
瀏覽器開:
http://localhost:8080
如果出現 open-webui: command not found,官方建議可改用:
python -m open_webui serve
這是官方 quick start 的 Python 路線。(Open WebUI)
如果你有 uv,這也是官方支援的啟動法:
curl -LsSf https://astral.sh/uv/install.sh | sh
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
這樣也是用瀏覽器開:
http://localhost:8080
官方特別提醒最好設 DATA_DIR,不然資料可能落在暫時位置。(Open WebUI)
如果你習慣 Python 虛擬環境,本質上還是同一件事:最後都用 open-webui serve 開。
Conda 範例:
conda create -n open-webui python=3.11
conda activate open-webui
pip install open-webui
open-webui serve
venv 範例:
python3 -m venv venv
source venv/bin/activate
pip install open-webui
open-webui serve
這些都是官方 quick start 裡列出的方式。(Open WebUI)
如果你想最省事,Open WebUI 官方還有提供 把 Ollama 一起包在同一個容器 的映像:
GPU 版:
docker run -d -p 3000:8080 --gpus=all \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
CPU 版:
docker run -d -p 3000:8080 \
-v ollama:/root/.ollama \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:ollama
這適合你不想分開管兩個服務的情況。(Open WebUI)
這是很常見也很好維護的組合。
先開 Ollama:
ollama serve
再開 Open WebUI:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
然後瀏覽器開:
http://localhost:3000
Open WebUI 的官方文件有寫 Docker 使用者連到主機上的 Ollama 時,可以用 http://host.docker.internal:11434;官方首頁的 Docker 指令也示範了 Linux 要加 --add-host=host.docker.internal:host-gateway。(Open WebUI)
這是 Linux 很常見的坑。官方 troubleshooting 給的修法是:
127.0.0.1,而是設成 OLLAMA_HOST=0.0.0.0:11434例如:
docker run -d --network=host \
-v open-webui:/app/backend/data \
-e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
這種情況下 Open WebUI 會開在:
http://localhost:8080
Ollama 官方 FAQ 也有寫,Linux 上如果是 systemd service,可用 systemctl edit ollama.service 加 Environment="OLLAMA_HOST=0.0.0.0:11434"。(Ollama Docs)
如果你在低資源環境、distrobox、或就是不想碰 Docker,這樣最直接:
# terminal 1
ollama serve
# terminal 2
pip install open-webui
open-webui serve
然後開:
http://localhost:8080
這是最簡單、最容易除錯的一組。Ollama 用 serve,Open WebUI 用 Python serve。(Ollama Docs)
如果你要我直接給建議:
最省事:
用 ghcr.io/open-webui/open-webui:ollama 一體式 Docker。(Open WebUI)
最好維護: Ollama 用 systemd,Open WebUI 用 Docker。(Ollama Docs)
最容易除錯:
兩個都原生跑,ollama serve + open-webui serve。(Ollama Docs)
低資源 / distrobox 比較直觀: 先不要一開始就混 Docker in distrobox,先用原生方式把兩個都跑起來。這是根據官方提供的原生啟動路徑做的實務建議。(Ollama Docs)
# Ollama 直接開
ollama serve
# Ollama systemd
sudo systemctl start ollama
sudo systemctl status ollama
# Ollama Docker
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
# Open WebUI Docker
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main
# Open WebUI pip
pip install open-webui
open-webui serve
# Open WebUI uv
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
# Open WebUI + Ollama 一體式
docker run -d -p 3000:8080 -v ollama:/root/.ollama \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:ollama
上面這些都對應官方文件中的啟動方式或其直接組合。(Ollama Docs)
如果你要,我下一則可以直接幫你整理成 「Linux / Docker / distrobox 三種情境的最推薦指令清單」,你只要複製貼上就能用。
Comments
Login to add a comment.
No comments yet.