AI 繪圖

Stable Diffusion 本地部署教學:免費 AI 繪圖

2026 年 3 月 3 日(更新) 14 分鐘閱讀

Midjourney 和 DALL-E 雖然好用,但每月的訂閱費用不低,而且你的創作自由度始終受到平台規則的限制。如果你希望擁有完全自主的 AI 繪圖能力——不限次數、不受審查、可以自由調整模型——那麼在自己的電腦上部署 Stable Diffusion 是最佳選擇。本文將從零開始,手把手帶你完成本地部署,讓你擁有一個屬於自己的免費 AI 繪圖工作站。

什麼是 Stable Diffusion?

Stable Diffusion 是由 Stability AI 開發並開源的文字轉圖片(Text-to-Image)AI 模型。與 Midjourney 或 DALL-E 等閉源服務不同,Stable Diffusion 的模型權重完全公開,任何人都可以免費下載並在自己的硬體上運行。這意味著你不需要支付任何月費,也不需要將創作資料上傳到第三方伺服器。

2025 年 8 月,Stability AI 正式發布了 Stable Diffusion 4(SD4),這是該系列迄今最大幅度的升級。SD4 不僅在圖像生成品質上再次突破,更首次引入了影片合成能力,最長可生成 10 分鐘的連續影片,徹底改變了創作者的工作流程。在此之前,SDXL 和 SD 3.5 已經在圖像品質和文字理解上有顯著提升。SD4 則在架構層面採用了全新的 DiT(Diffusion Transformer)設計,大幅提升了語意理解和構圖精準度。此外,SD4 還推出了輕量版(SD4 Lite),專為消費級硬體最佳化,讓入門玩家也能享受新世代的生成品質。社群也持續開發出數以千計的微調模型(Checkpoint)和風格模型(LoRA),涵蓋從寫實攝影到動漫插畫的各種風格。

硬體需求

本地運行 Stable Diffusion 最重要的硬體是顯示卡(GPU)。以下是不同等級的建議配置:

入門配置(SD4 Lite / SDXL 基本可用)

推薦配置(SD4 流暢體驗)

高階配置(SD4 影片合成最佳體驗)

AMD 顯卡注意事項:雖然透過 DirectML 或 ROCm 可以在 AMD 顯卡上運行 Stable Diffusion,但相容性和效能仍不及 NVIDIA。如果你還在考慮購買新顯卡,強烈建議選擇 NVIDIA。

Mac 使用者:搭載 Apple Silicon(M1/M2/M3/M4)晶片的 Mac 可以透過 MPS(Metal Performance Shaders)運行 Stable Diffusion。最新的 M4 Pro/Max 晶片在統一記憶體架構下表現亮眼,配備 48GB 以上記憶體的機型甚至可以流暢運行 SD4 Lite。M4 Max 搭配 128GB 記憶體的頂配機型,在圖像生成效能上已接近 RTX 4080 級別。

安裝方式一:Stable Diffusion WebUI(AUTOMATIC1111)

AUTOMATIC1111 的 Stable Diffusion WebUI 是目前最受歡迎的本地介面,擁有龐大的社群生態和豐富的擴充功能。安裝步驟如下:

Windows 安裝

  1. 安裝 Python 3.10.x(務必勾選「Add Python to PATH」)
  2. 安裝 Git
  3. 開啟命令提示字元,執行:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  4. 進入資料夾後執行 webui-user.bat
  5. 首次啟動會自動下載相依套件,耗時約 10-20 分鐘
  6. 出現 Running on local URL: http://127.0.0.1:7860 即表示啟動成功

macOS / Linux 安裝

  1. 確認已安裝 Python 3.10+ 和 Git
  2. 終端機執行:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  3. 進入資料夾後執行:./webui.sh
  4. Mac 使用者會自動使用 MPS 加速

安裝方式二:ComfyUI(進階使用者)

ComfyUI 是另一個熱門的 Stable Diffusion 前端介面,採用節點式(Node-based)工作流設計。如果你有影像處理或 3D 軟體的背景,對節點式介面不陌生,ComfyUI 會給你更大的靈活度。

ComfyUI 的優勢在於:

缺點是學習曲線較陡峭,初學者建議先從 WebUI 開始。

模型下載與管理

安裝好介面後,你需要下載 AI 模型(Checkpoint)才能開始生圖。以下是幾個推薦的模型來源和熱門模型:

模型下載平台

推薦模型

下載後將模型檔案(.safetensors 格式)放入 models/Stable-diffusion/ 資料夾中,重新整理介面即可選用。

基礎參數調整

開始生圖前,了解幾個關鍵參數會幫助你獲得更好的結果:

新手提示:一開始不需要記住所有參數。先用預設值生幾張圖,觀察結果後再逐步調整。每次只改變一個參數,這樣你才能清楚知道每個參數的影響。

ControlNet:進階構圖控制

ControlNet 是 Stable Diffusion 生態系中最重要的進階功能之一。它允許你透過各種條件圖(如邊緣偵測、人體姿勢、深度圖)來精確控制生成圖片的構圖。

常用的 ControlNet 模式

安裝 ControlNet 擴充功能後,你可以在 WebUI 的「ControlNet」面板中上傳控制圖片並選擇模式。這讓 AI 繪圖從「隨機生成」進化為「精確設計」,是專業創作者不可或缺的工具。

常見問題排解

本地部署 Stable Diffusion 時常遇到的問題與解決方案:

  1. CUDA out of memory(顯存不足):降低圖片解析度、啟用 --medvram--lowvram 參數,或在啟動命令中加入 --xformers 來優化記憶體使用
  2. 生成速度過慢:確認是否正確使用 GPU(而非 CPU)運算。在 WebUI 的終端輸出中應該能看到 CUDA 或 MPS 的相關訊息
  3. 生成的圖片全黑或全白:可能是 VAE 模型問題,嘗試在設定中更換 VAE,或下載推薦的 vae-ft-mse-840000
  4. 人物手指畸形:這是 AI 繪圖的已知弱點。使用 ADetailer 擴充功能可以自動修復手部細節,效果顯著
  5. 安裝時出現 Python 套件衝突:建議使用虛擬環境(venv)隔離,或重新執行安裝腳本讓它自動處理依賴

推薦社群資源

Stable Diffusion 社群是目前 AI 繪圖領域最活躍的開源社群之一。以下資源可以幫助你持續學習:

SD4 影片合成:全新創作維度

SD4 最令人興奮的新功能莫過於影片合成能力。透過文字描述或參考圖片,SD4 可以生成最長 10 分鐘的連續影片,支援 720p 至 1080p 解析度。這項功能在 ComfyUI 上的支援最為完善,社群已經開發出專門的影片工作流節點。

影片合成的主要應用場景包括:

SD4 Lite 的影片合成功能雖然限制在 30 秒以內且最高 720p,但在 RTX 4060 8GB 等消費級顯卡上也能順暢運行,大幅降低了入門門檻。

本地部署 Stable Diffusion 的初始設定確實需要一些時間和耐心,但一旦完成,你就擁有了一個完全免費、不限次數、可以無限客製化的 AI 繪圖與影片創作工具。隨著 SD4 的推出,本地 AI 創作已經從靜態圖像邁入動態影片的新時代。無論是創作插畫、設計概念圖、製作短影音,還是純粹的藝術探索,它都能成為你強大的創作夥伴。