最全的deepseek本地部署教程分享_最全的deepseek本地部署教程一览
时间:2025-03-19
最全的deepseek本地部署教程一览
最全的deepseek本地部署教程分享:DeepSeek凭一己之力推动国内Ai大模型跨越式发展。作为一款现象级的Ai产品,用户量暴增,经常出现服务器繁忙,将DeepSeek部署在本地电脑就方便很多,以下是小编为大家整理的最全的deepseek本地部署教程分享,需要的小伙伴不要错过啊。
最全的deepseek本地部署教程分享:
第一步:安装Ollama
Ollama是一个支持大模型本地调用的工具,DeepSeek这种大模型的调用就是基于Ollama,所以大家首先双击“windows-OllamaSetup.exe”
Ollama是支持Windows端,Mac端和Linux端。
Ollama官网:https://ollama.com/download
我以Windows为例,其安装过程是全英文,点击【Install】然后根据提示完成安装即可。
安装完成后,在电脑开始菜单,输入“Ollama”点击软件即可启动。
第二步:安装DeepSeek模型
安装完Ollama以后,我们就要开始安装模型了。
打开网页https://ollama.com/library/deepseek-r1
我们可以看到模型。
大家可以根据自己的电脑性能进行选择。
・1.5B:入门级别,硬件配置“4GB内存+核显”即可运行;
・7B:进阶级别,“8GB内存+4GB显存”可运行;
・32B:高性能设备推荐,“32GB内存+12GB显存”
这里推荐大家使用7B,绝大部分电脑都能运行。
如果选择7B,则复制“ollama run deepseek-r1:7b”按下“Win键+R”,输入“cmd”打开命令行窗口。
然后输入上面的那串文字“ollama run deepseek-r1:7b”,下图软妹电脑选择了32B,但事实是选择7B更好。
然后软件就开始下载大模型,我选择的32B需要下载19G的模型(再强调,大家不要选择32B,一般性能的电脑用7B即可),下载的速度有点慢,大家耐心等待即可。
当出现“success”时,就代表下载安装成功了,就可以运行了。
这时候你如果不要UI运行,则用命令窗口直接输入你想要的问题,DeepSeek就开始深度搜索,然后给出你想要的答案。
除了要调用cmd,输入你的模型的命令,操作有一丢丢麻烦。而且界面不好看,使用方面一点也不受影响!
如果不用界面,到这里大家部署完成,可以愉快的使用,下面的步骤都可以不用去安装了。
而如果想要界面,就得往下安装了。
通过Cherry Studio调用模型
昨天文章有给大家介绍一款名为「Cherry Studio」开源的AI客户端,还没看的可以去看看昨天文章,这里就不多BB了,直接放上下载地址。
官网下载(Win+Mac+Linux):
https://cherry-ai.com/download
下载后打开客户端,进入设置,选择「Ollama」,API地址会自动填写,需要与下图中的地址保持一致,然后点击“管理”。
在弹出的窗口中可以看到自己本地的模型,点击右侧的按钮添加模型即可。
最后进入对话页面,点击顶部模型名称切换成本地部署的模型,至此大功告成。
以上就是关于最全的deepseek本地部署教程分享的全部内容,想要了解更多内容,就来游家吧!