虾米一家
分享生活,分享技术,我们一直在努力

2026年NAS用户必看:群晖+Docker部署AI工具的完整指南

为什么在NAS上部署AI工具?

NAS(网络附加存储)不仅是文件存储设备,更是24小时运行的家庭服务器。群晖(Synology)凭借其友好的Docker支持和稳定的系统,成为部署AI工具的理想平台。本文将详细介绍如何在群晖NAS上部署各种AI工具。

硬件要求评估

群晖型号 CPU 推荐AI用途
DS224+ 双核 轻量模型、文本AI
DS923+ 四核 Ollama、WebUI
DS1621+ 六核 多模型并行、RAG系统
RS系列+GPU 带GPU 图像生成、视频处理

第一步:启用Docker

  1. 打开群晖DSM → 套件中心 → 搜索「Container Manager」(原Docker)
  2. 安装Container Manager
  3. 打开Container Manager,确认Docker服务运行正常

第二步:部署Ollama(本地大模型)

方法一:通过Container Manager图形界面

  1. 注册表 → 搜索「ollama/ollama」→ 下载latest
  2. 映像 → 右键「ollama/ollama」→ 启动
  3. 高级设置:
    • 端口设置:11434 → 11434
    • 卷设置:创建文件夹 /docker/ollama 映射到 /root/.ollama
  4. 完成并启动

方法二:通过SSH命令行

# SSH登录群晖
ssh admin@your-nas-ip

# 创建数据目录
mkdir -p /volume1/docker/ollama

# 启动Ollama
docker run -d   --name ollama   -p 11434:11434   -v /volume1/docker/ollama:/root/.ollama   --restart unless-stopped   ollama/ollama:latest

# 拉取模型
docker exec ollama ollama pull llama3.2:3b
docker exec ollama ollama pull qwen2.5:7b
docker exec ollama ollama pull nomic-embed-text

第三步:部署Open WebUI

# 创建数据目录
mkdir -p /volume1/docker/open-webui

# 启动WebUI
docker run -d   --name open-webui   -p 3000:8080   -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434   -v /volume1/docker/open-webui:/app/backend/data   --restart unless-stopped   ghcr.io/open-webui/open-webui:main

访问 http://your-nas-ip:3000 即可使用AI对话界面。

第四步:部署Qdrant(向量数据库)

# 创建数据目录
mkdir -p /volume1/docker/qdrant/storage

# 启动Qdrant
docker run -d   --name qdrant   -p 6333:6333   -p 6334:6334   -v /volume1/docker/qdrant/storage:/qdrant/storage   --restart unless-stopped   qdrant/qdrant:latest

第五步:部署RAG知识库系统

结合Ollama和Qdrant,搭建企业知识库:

# docker-compose.yml(通过SSH创建)
version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    ports:
      - "11434:11434"
    volumes:
      - /volume1/docker/ollama:/root/.ollama
    restart: unless-stopped

  qdrant:
    image: qdrant/qdrant:latest
    ports:
      - "6333:6333"
    volumes:
      - /volume1/docker/qdrant/storage:/qdrant/storage
    restart: unless-stopped

  rag-app:
    image: your-registry/rag-app:latest
    ports:
      - "8000:8000"
    environment:
      - OLLAMA_URL=http://ollama:11434
      - QDRANT_URL=http://qdrant:6333
    depends_on:
      - ollama
      - qdrant
    restart: unless-stopped

进阶:GPU加速(如支持)

部分群晖型号支持GPU扩展卡:

# 检查GPU是否可用
docker run --rm --gpus all nvidia/cuda:12.1-base nvidia-smi

# 启用GPU的Ollama启动命令
docker run -d   --name ollama   --gpus all   -p 11434:11434   -v /volume1/docker/ollama:/root/.ollama   ollama/ollama:latest

网络访问配置

内网访问

直接在浏览器访问 http://your-nas-ip:3000 即可。

外网访问(推荐反向代理)

  1. DSM → 控制面板 → 登录门户 → DSM → 启用HTTP/2压力和HSTS
  2. DSM → 控制面板 → 应用门户 → 反向代理服务器
  3. 添加规则:
    • 来源:HTTPS, your-domain.com, /ai
    • 目标:HTTP, localhost, 3000

性能优化建议

  • 选择小模型:NAS资源有限,优先使用3B-7B量化模型
  • 限制并发:设置OLLAMA_NUM_PARALLEL=1避免资源争用
  • 定时任务:用群晖Task Scheduler定时清理不用的模型
  • 监控资源:用群晖Resource Monitor监控CPU和内存使用

推荐的NAS AI工具组合

工具 用途 资源需求
Ollama + WebUI AI对话
Qdrant 向量数据库
RAG应用 知识库问答
Stable Diffusion 图片生成 高(需GPU)
Whisper 语音识别

通过群晖NAS部署AI工具,你可以在家中搭建一个私有的AI服务平台,既保护隐私又节省云端API费用。

赞(0) 打赏
未经允许不得转载:虾米生活分享 » 2026年NAS用户必看:群晖+Docker部署AI工具的完整指南

评论 抢沙发

评论前必须登录!

 

虾米一家,生活分享!

关于我们收藏本站

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续给力更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫打赏

微信扫一扫打赏