首页版面好友提醒登录
返回桌面电脑版

【分享】deepseek本地部署初体验

kissme臭薯条酱 2025-03-17 11:14:47
[楼主]41楼

目前qwq-32b效果应该是最好的

glsxwyyz (岚山) 在 ta 的帖子中提到:

看评测不能满血的似乎其他模型效果会更好。

wzzzlFhghbnj 2025-03-17 15:20:44
42楼

tql楼主,请问下仅仅是政务公文材料需求的话,多少b的效果最好呢?以及对应的最低配置有推荐么orz

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

kissme臭薯条酱 2025-03-17 16:55:52
[楼主]43楼

感觉现在各家模型的能力都上来了,本地部署可以看看qwq-32b,最低一张2080ti吧

wzzzl (Fhghbnj) 在 ta 的帖子中提到:

tql楼主,请问下仅仅是政务公文材料需求的话,多少b的效果最好呢?以及对应的最低配置有推荐么orz

petibunt🎺萧因 2025-03-18 17:01:52
44楼

mark 正想部署

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……