为什么在NAS上部署AI工具?
NAS(网络附加存储)不仅是文件存储设备,更是24小时运行的家庭服务器。群晖(Synology)凭借其友好的Docker支持和稳定的系统,成为部署AI工具的理想平台。本文将详细介绍如何在群晖NAS上部署各种AI工具。
硬件要求评估
| 群晖型号 | CPU | 推荐AI用途 |
|---|---|---|
| DS224+ | 双核 | 轻量模型、文本AI |
| DS923+ | 四核 | Ollama、WebUI |
| DS1621+ | 六核 | 多模型并行、RAG系统 |
| RS系列+GPU | 带GPU | 图像生成、视频处理 |
第一步:启用Docker
- 打开群晖DSM → 套件中心 → 搜索「Container Manager」(原Docker)
- 安装Container Manager
- 打开Container Manager,确认Docker服务运行正常
第二步:部署Ollama(本地大模型)
方法一:通过Container Manager图形界面
- 注册表 → 搜索「ollama/ollama」→ 下载latest
- 映像 → 右键「ollama/ollama」→ 启动
- 高级设置:
- 端口设置:11434 → 11434
- 卷设置:创建文件夹 /docker/ollama 映射到 /root/.ollama
- 完成并启动
方法二:通过SSH命令行
# SSH登录群晖
ssh admin@your-nas-ip
# 创建数据目录
mkdir -p /volume1/docker/ollama
# 启动Ollama
docker run -d --name ollama -p 11434:11434 -v /volume1/docker/ollama:/root/.ollama --restart unless-stopped ollama/ollama:latest
# 拉取模型
docker exec ollama ollama pull llama3.2:3b
docker exec ollama ollama pull qwen2.5:7b
docker exec ollama ollama pull nomic-embed-text
第三步:部署Open WebUI
# 创建数据目录
mkdir -p /volume1/docker/open-webui
# 启动WebUI
docker run -d --name open-webui -p 3000:8080 -e OLLAMA_API_BASE_URL=http://host.docker.internal:11434 -v /volume1/docker/open-webui:/app/backend/data --restart unless-stopped ghcr.io/open-webui/open-webui:main
访问 http://your-nas-ip:3000 即可使用AI对话界面。
第四步:部署Qdrant(向量数据库)
# 创建数据目录
mkdir -p /volume1/docker/qdrant/storage
# 启动Qdrant
docker run -d --name qdrant -p 6333:6333 -p 6334:6334 -v /volume1/docker/qdrant/storage:/qdrant/storage --restart unless-stopped qdrant/qdrant:latest
第五步:部署RAG知识库系统
结合Ollama和Qdrant,搭建企业知识库:
# docker-compose.yml(通过SSH创建)
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
ports:
- "11434:11434"
volumes:
- /volume1/docker/ollama:/root/.ollama
restart: unless-stopped
qdrant:
image: qdrant/qdrant:latest
ports:
- "6333:6333"
volumes:
- /volume1/docker/qdrant/storage:/qdrant/storage
restart: unless-stopped
rag-app:
image: your-registry/rag-app:latest
ports:
- "8000:8000"
environment:
- OLLAMA_URL=http://ollama:11434
- QDRANT_URL=http://qdrant:6333
depends_on:
- ollama
- qdrant
restart: unless-stopped
进阶:GPU加速(如支持)
部分群晖型号支持GPU扩展卡:
# 检查GPU是否可用
docker run --rm --gpus all nvidia/cuda:12.1-base nvidia-smi
# 启用GPU的Ollama启动命令
docker run -d --name ollama --gpus all -p 11434:11434 -v /volume1/docker/ollama:/root/.ollama ollama/ollama:latest
网络访问配置
内网访问
直接在浏览器访问 http://your-nas-ip:3000 即可。
外网访问(推荐反向代理)
- DSM → 控制面板 → 登录门户 → DSM → 启用HTTP/2压力和HSTS
- DSM → 控制面板 → 应用门户 → 反向代理服务器
- 添加规则:
- 来源:HTTPS, your-domain.com, /ai
- 目标:HTTP, localhost, 3000
性能优化建议
- 选择小模型:NAS资源有限,优先使用3B-7B量化模型
- 限制并发:设置OLLAMA_NUM_PARALLEL=1避免资源争用
- 定时任务:用群晖Task Scheduler定时清理不用的模型
- 监控资源:用群晖Resource Monitor监控CPU和内存使用
推荐的NAS AI工具组合
| 工具 | 用途 | 资源需求 |
|---|---|---|
| Ollama + WebUI | AI对话 | 低 |
| Qdrant | 向量数据库 | 低 |
| RAG应用 | 知识库问答 | 中 |
| Stable Diffusion | 图片生成 | 高(需GPU) |
| Whisper | 语音识别 | 中 |
通过群晖NAS部署AI工具,你可以在家中搭建一个私有的AI服务平台,既保护隐私又节省云端API费用。
虾米生活分享

评论前必须登录!
注册