
如何本地部署DeepSeek大模型
首先祝大家新年快乐,心想事成,阖家欢乐。
DeepSeek 前段时间发布了,据说算力堪比 o1 模型,拥有自我审查功能,擅长代码、推理等专业领域。在网上看了很多使用它的视频,貌似效果很不错,这里教大家如何本地部署。
下载 Ollama
Ollama 是一个运行本地模型的应用,官网为 https://ollama.com/ ,图标是一只很可爱的小羊驼。
前往 https://ollama.com/download 获取下载方式,它支持 Windows、Linux 和 MacOS。
我的操作系统为 Ubuntu,下载命令为:
curl -fsSL https://ollama.com/install.sh | sh
我是直接将 install.sh 下载到本地,然后运行。
sh ./install.sh

下载完成后启动服务,有的系统任务栏会出现一个小羊驼的图标。
运行模型
接下来,在 Ollama 官网搜索 “deepseek-r1”,你会发现有很多不同大小的模型,大的模型对系统的要求也很高,这里放一个表格给大家参考一下。
| 模型大小 | 显存需求 | 推荐显卡 | MacOS需要的RAM |
|---|---|---|---|
| 1.5B | ~3GB(FP16推理) ~14GB(INT8推理) |
RTX 2060 / Mac GPU 可运行 | 8GB |
| 7B | ~3GB(FP16推理) ~14GB(INT8推理) |
RTX 3060 12GB/ 4070 ti | 16GB |
| 8B | ~6GB(FP16推理) ~16GB(INT8推理) |
RTX 4070 / Mac GPU 高效运行 | 16GB |
| 14B | ~28GB(FP16推理) ~20GB(INT8推理) |
RTX 4090 / Mac GPU 高效运行 | 32GB |
| 32B | ~64GB(FP16推理) ~48GB(INT8推理) |
A100-80G / 2x Gtx 4090 | 64GB |
我下载的是 7B 级别的模型。事实上,Ollama 给我推荐的模型也是 7B 级别。

复制命令到终端中,运行,当进度条跑满时,我们的电脑就有了运行模型的能力。
ollama run deepseek-r1

浏览器使用
终端可以使用模型,但是显然不太方便,我们可以在浏览器中使用。
浏览器搜 Chatbox 并打开网页版,并将语言设置为中文,然后启用本地模型,选择 Ollama API。

为了确认 Chatbox 能够连接本地服务,我们需要根据它提供的教程设置一下。

我的是 Ubuntu 系统,就先修改 Ollama 配置:
systemctl edit ollama.service
可以看到配置项中没有任何有效项,全被注释了。在配置项中添加下面的代码。
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
然后重启 systemctl 和 Ollama,通过浏览器访问 http://localhost:11434,如果出现“Ollama is running”字样就说明配置成功了。
可能会有防火墙等服务阻止 Chatbox 网页端和本地的 Ollama 通信,各位需要检查一下。
回到 Chatbox 网页端,可以看到 Ollama 本地的模型可以使用了。

为方便,我下载了 Linux 版本的 Chatbox 应用,这样就相当于真正地在本地使用 DeepSeek 大模型了。
创建属于自己的 GPT
在 Chatbox 网页端,选择“我的搭档”,输入你期望的 GPT 的样子,比如:

你可以将其嵌入到编辑器中,拥有一个离线免费的 AI 编程工具,也可以用它编写自动化测试工具,亦或是当你的私人知识库。关键是全程免费,断网也能用。

加载评论中...