Linux 啟動 Ollama, Open WebUI

Votes

Upvotes

0

Upvotes: 0

Downvotes

0

Downvotes: 0

Net votes

+0

Prompt

幫我整理好在linux各種方式要怎麼開啟 ollama 還有 open webui

Response

可以,我幫你整理成一份 Linux 上啟動 Ollama 與 Open WebUI 的實用總表

先記住這三個常見位址: Ollama 啟動後主要提供本機 API,預設是 http://localhost:11434;Open WebUI 如果用 Docker 快速啟動,通常開在 http://localhost:3000;如果用 Python 方式啟動,通常是 http://localhost:8080。 (Ollama Docs)

1. Ollama 怎麼開

方式 A:直接在終端機前景執行

這是最基本、最直觀的方式。你安裝好 Ollama 後,直接跑:

ollama serve

然後另一個終端機可以用:

ollama run gemma3

或先確認指令可用:

ollama -v

官方 Linux 文件把 ollama serve 當成手動啟動方式;CLI 文件也提供 ollama run <model> 的基本用法。(Ollama Docs)

方式 B:用 systemd 當背景服務

這是 Linux 上最適合「開機自動跑、平常不用手動開」的方式。官方文件有提供把 Ollama 加成 startup service 的做法,核心就是建立 ollama.service,然後啟用與啟動:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama

看 log:

journalctl -u ollama --no-pager --follow --pager-end

這是官方推薦的 Linux 常駐方式。(Ollama Docs)

方式 C:用 Docker 跑 Ollama

如果你不想把 Ollama 直接裝在系統裡,也可以跑官方 Docker 容器:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

如果你沒有 NVIDIA GPU,可以先拿掉 --gpus=all 試。官方 Docker 文件有提供這個基本啟動方式。(Ollama Docs)

方式 D:從原始碼開發模式啟動

這通常只有你在改 Ollama 原始碼時才需要:

go run . serve

這是官方 development 文件提供的開法。(Ollama Docs)

2. Open WebUI 怎麼開

方式 A:Docker 啟動

這是 Open WebUI 官方最推薦、也最常見的 Linux 用法。基本指令:

docker pull ghcr.io/open-webui/open-webui:main

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

開好之後用瀏覽器打:

http://localhost:3000

Open WebUI 官方文件明確寫 Docker 是「recommended for most users」,而首頁 quick start 也直接給了帶 --add-host=host.docker.internal:host-gateway 的 Linux 啟動範例。(Open WebUI)

方式 B:用 pip 安裝後直接開

如果你不想用 Docker,想走比較輕量的 Python 方式:

pip install open-webui
open-webui serve

瀏覽器開:

http://localhost:8080

如果出現 open-webui: command not found,官方建議可改用:

python -m open_webui serve

這是官方 quick start 的 Python 路線。(Open WebUI)

方式 C:用 uvx 直接跑

如果你有 uv,這也是官方支援的啟動法:

curl -LsSf https://astral.sh/uv/install.sh | sh
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

這樣也是用瀏覽器開:

http://localhost:8080

官方特別提醒最好設 DATA_DIR,不然資料可能落在暫時位置。(Open WebUI)

方式 D:Conda / venv

如果你習慣 Python 虛擬環境,本質上還是同一件事:最後都用 open-webui serve 開。

Conda 範例:

conda create -n open-webui python=3.11
conda activate open-webui
pip install open-webui
open-webui serve

venv 範例:

python3 -m venv venv
source venv/bin/activate
pip install open-webui
open-webui serve

這些都是官方 quick start 裡列出的方式。(Open WebUI)

方式 E:Open WebUI + Ollama 一體式 Docker

如果你想最省事,Open WebUI 官方還有提供 把 Ollama 一起包在同一個容器 的映像:

GPU 版:

docker run -d -p 3000:8080 --gpus=all \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

CPU 版:

docker run -d -p 3000:8080 \
  -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:ollama

這適合你不想分開管兩個服務的情況。(Open WebUI)

3. 最常見的 Linux 組合怎麼開

組合 1:Ollama 裝在主機,Open WebUI 用 Docker

這是很常見也很好維護的組合。

先開 Ollama:

ollama serve

再開 Open WebUI:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

然後瀏覽器開:

http://localhost:3000

Open WebUI 的官方文件有寫 Docker 使用者連到主機上的 Ollama 時,可以用 http://host.docker.internal:11434;官方首頁的 Docker 指令也示範了 Linux 要加 --add-host=host.docker.internal:host-gateway。(Open WebUI)

組合 2:如果 Open WebUI 容器連不到主機上的 Ollama

這是 Linux 很常見的坑。官方 troubleshooting 給的修法是:

  1. 讓 Ollama 不只綁 127.0.0.1,而是設成 OLLAMA_HOST=0.0.0.0:11434
  2. 或把 Open WebUI 改成 host network 跑

例如:

docker run -d --network=host \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

這種情況下 Open WebUI 會開在:

http://localhost:8080

Ollama 官方 FAQ 也有寫,Linux 上如果是 systemd service,可用 systemctl edit ollama.serviceEnvironment="OLLAMA_HOST=0.0.0.0:11434"。(Ollama Docs)

組合 3:兩個都用原生方式跑

如果你在低資源環境、distrobox、或就是不想碰 Docker,這樣最直接:

# terminal 1
ollama serve
# terminal 2
pip install open-webui
open-webui serve

然後開:

http://localhost:8080

這是最簡單、最容易除錯的一組。Ollama 用 serve,Open WebUI 用 Python serve。(Ollama Docs)

4. 你可以怎麼選

如果你要我直接給建議:

最省事: 用 ghcr.io/open-webui/open-webui:ollama 一體式 Docker。(Open WebUI)

最好維護: Ollama 用 systemd,Open WebUI 用 Docker。(Ollama Docs)

最容易除錯: 兩個都原生跑,ollama serve + open-webui serve。(Ollama Docs)

低資源 / distrobox 比較直觀: 先不要一開始就混 Docker in distrobox,先用原生方式把兩個都跑起來。這是根據官方提供的原生啟動路徑做的實務建議。(Ollama Docs)

5. 一份超短速查表

# Ollama 直接開
ollama serve

# Ollama systemd
sudo systemctl start ollama
sudo systemctl status ollama

# Ollama Docker
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# Open WebUI Docker
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data --name open-webui --restart always \
  ghcr.io/open-webui/open-webui:main

# Open WebUI pip
pip install open-webui
open-webui serve

# Open WebUI uv
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

# Open WebUI + Ollama 一體式
docker run -d -p 3000:8080 -v ollama:/root/.ollama \
  -v open-webui:/app/backend/data --name open-webui --restart always \
  ghcr.io/open-webui/open-webui:ollama

上面這些都對應官方文件中的啟動方式或其直接組合。(Ollama Docs)

如果你要,我下一則可以直接幫你整理成 「Linux / Docker / distrobox 三種情境的最推薦指令清單」,你只要複製貼上就能用。

Comments

Login to add a comment.

No comments yet.