gpt-oss + Ollama 本地化部署指南
一、引言
- gpt-oss 系列是 OpenAI 于 2025 年 8 月首次发布的开源模型。
gpt-oss:20b(适用于约 16GB 的内存) gpt-oss:120b(适用于≥ 60GB 的内存)
- 使用 Ollama 在本地部署,无需向云端发送 API 请求。数据始终在本地运行,适用于对隐私和响应速度有要求的场景。
- LangChat Pro 是一个开源的 LLM 应用平台,支持集成本地模型、快速构建 AI 应用程序和 RAG 流程。
二、环境准备
第一步:使用 Ollama 本地部署 gpt-oss 模型
- 安装 Ollama
- 拉取 gpt-oss 模型
-
gpt-oss:20b(推荐日常开发机器,需 ≥ 16 GB 显存或统一内存)
ollama pull gpt-oss:20b -
gpt-oss:120b(需 ≥ 60 GB 显存或多 GPU 支持)
ollama pull gpt-oss:120b
- 启动 Ollama 服务
五、附录
常见问题及建议- 模型下载速度慢
- GPU 内存不足
- 端口访问问题

