【分享】deepseek本地部署初体验 - 桌面电脑(Computer)版 - 北大未名BBS
返回本版
< 上一页
1
2
3
下一页 >
/ 3
跳转

【分享】deepseek本地部署初体验

[复制链接]

loutre [离线]

打工鹅

3.4声名鹊起

发帖数:472 原创分:0
<只看ta> <ASCIIArt>
21楼

看来工作量还是不够饱满啊

kissme (臭薯条酱) 在 ta 的帖子中提到:

上班摸鱼间抽空写的,回头我找找靠谱点的教程整合发一点吧。

签名档

楼观沧海日,门对浙江潮。

发表于2025-02-14 11:18:13

yxlixiang [在线]

Alfred.Lee

4.2维尼熊

发帖数:2268 原创分:6
<只看ta> <ASCIIArt>
22楼

这个倒是不太怕,国内宽带提供商很少有给你公网ip的,不做内网穿透根本扫不到你。

WekFer (芒果:欢迎来 Story 版玩耍~) 在 ta 的帖子中提到:

刚好今天刷到篇文章提到一个安全风险,安装之后本地模型的接口有可能暴露在公网而被别人用◉‿◉

签名档

幸好我是大魔法师~

发表于2025-02-14 12:33:18

Anomal [离线]

Segment

1.9古近纪

发帖数:37 原创分:0
<只看ta> <ASCIIArt>
23楼

假如组里有服务器,内存管够,但是没有GPU可以部署到服务器的节点上吗,只有CPU的话会不会太慢

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-02-14 14:00:20
楼主

kissme [离线]

臭薯条酱

4.9昆吾

发帖数:7443 原创分:6
<只看ta> <ASCIIArt>
24楼

内存管够的话,可以看看github上面的一个项目,搜索KTransformers,大概需要24g显存和382g内存,还是要至少买一张3090或者两张3060 12g的(我也是偶然间刷到,没有具体了解支不支持多GPU跑)。



Anomal (Segment) 在 ta 的帖子中提到:

假如组里有服务器,内存管够,但是没有GPU可以部署到服务器的节点上吗,只有CPU的话会不会太慢

 最后修改于2025-02-14 15:10:06
  • 发表于2025-02-14 15:08:25
楼主

kissme [离线]

臭薯条酱

4.9昆吾

发帖数:7443 原创分:6
<只看ta> <ASCIIArt>
25楼



kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

这里给大家推荐几个比较详细和友好的教程,以下教程都建议根据个人情况开倍速观看(大部分下载都需要挂载梯子)。


1.新手小白和核显用户想要简单体验deepseek本地部署,可以试试lm studio,猪王这篇教程就足够了。

【可能是最简单的DeepSeek R1本地运行教程】 https://www.bilibili.com/video/BV1DsNueLE72/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


2.希望更深入学习和使用deepseek本地部署,电脑性能又过得去的,可以参考这个视频进行ollama的本地部署,并且学会使用chatbox来调用本地模型。

【这应该是在本地部署DeepSeek最简单的方法了,普通人用什么Docker,完全不需要!】 https://www.bilibili.com/video/BV1giFTeaEeZ/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


3.如果你和我一样是AMD显卡用户,那么你应该看这篇教程,部署AMD版本的ollama。

【AMD显卡本地部署deepseek吃满显存教程】 https://www.bilibili.com/video/BV1cbPQeSEdA/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


4.有本地知识库使用需求的小伙伴,可以看看这篇视频,通过AnythingLLM来建立你的个人工作区

【4K | 本地部署DeepSeek-R1后,搭建自己的知识库】 https://www.bilibili.com/video/BV1QyFoeuE3e/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


5.还想深入了解如何优化本地模型的,可以参考这位博主的视频,稍微长一些,但是讲得很好。

【DeepSeek R1 推理模型 性能调优 收官之作 完全本地部署 保姆级教程 无惧隐私威胁 使用正确的参数 让你的R1快上2倍】 https://www.bilibili.com/video/BV1qoFGepEhL/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


以上,如果你都学会了的话,那么相信你也可以自由的在网络资源的海洋里面遨游和搜索学习了,希望这些链接对你有一定的帮助。

发表于2025-02-14 16:06:30
楼主

kissme [离线]

臭薯条酱

4.9昆吾

发帖数:7443 原创分:6
<只看ta> <ASCIIArt>
26楼

已更新,请翻楼查看

wellwell (vv) 在 ta 的帖子中提到:

配置低一点的台式机能布吗,靠谱的教程求分享

发表于2025-02-14 16:13:23

Anomal [离线]

Segment

1.9古近纪

发帖数:37 原创分:0
<只看ta> <ASCIIArt>
27楼

感谢!

kissme (臭薯条酱) 在 ta 的帖子中提到:

内存管够的话,可以看看github上面的一个项目,搜索KTransformers,大概需要24g显存和382g内存,还是要至少买一张3090或者两张3060 12g的(我也是偶然间刷到,没有具体了解支不支持多GPU跑)。


发表于2025-02-14 16:47:39

Abramou [离线]

好名字可以让朋友更容易的记住你

4.0高级站友

发帖数:1684 原创分:0
<只看ta> <ASCIIArt>
28楼

我也看到ktransformer这个了

kissme (臭薯条酱) 在 ta 的帖子中提到:

内存管够的话,可以看看github上面的一个项目,搜索KTransformers,大概需要24g显存和382g内存,还是要至少买一张3090或者两张3060 12g的(我也是偶然间刷到,没有具体了解支不支持多GPU跑)。


发表于2025-02-14 19:48:32

brainstorm [离线]

火星人

3.1扬州炒饭

发帖数:277 原创分:0
<只看ta> <ASCIIArt>
29楼

我是12600kf+32G D5内存+7900xtx,想问下楼主跑32b模型的时候内存占用大概有多少呢?我也是用ollama,显存占满24G的情况下内存还是会吃满,但是生成速度是正常的,在20token/s左右

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-02-14 20:26:12
楼主

kissme [离线]

臭薯条酱

4.9昆吾

发帖数:7443 原创分:6
<只看ta> <ASCIIArt>
30楼

会刚好吃到33G这样子,如果只跑32b,可以考虑48g内存。

brainstorm (火星人) 在 ta 的帖子中提到:

我是12600kf+32G D5内存+7900xtx,想问下楼主跑32b模型的时候内存占用大概有多少呢?我也是用ollama,显存占满24G的情况下内存还是会吃满,但是生成速度是正常的,在20token/s左右

发表于2025-02-14 20:28:26

brainstorm [离线]

火星人

3.1扬州炒饭

发帖数:277 原创分:0
<只看ta> <ASCIIArt>
31楼

感谢回复!之前我看其他人用q4km的32b量化版本,说只需要19GB显存就可以完全卸载到GPU里,还以为自己跑的时候哪里出错了。看来目前内存是已经爆了

kissme (臭薯条酱) 在 ta 的帖子中提到:

会刚好吃到33G这样子,如果只跑32b,可以考虑48g内存。

发表于2025-02-14 20:35:45

LYMing [离线]

老玉米

4.0高级站友

发帖数:1688 原创分:0
<只看ta> <ASCIIArt>
32楼

ollama models的目录是可以拷贝的

Immo (中远海控在逃股东) 在 ta 的帖子中提到:

想请问下,能否脱网部署?有没有教程?

毕竟ollama run的时候是ollama帮忙下载的,但是不能联网的地方还是不好弄0.0

发表于2025-03-03 15:51:43

zhufengyixue [在线]

zhufengyixue

2.7一般站友

发帖数:81 原创分:0
<只看ta> <ASCIIArt>
33楼

求问大佬们我台式机 CPU I5 14600KF,48GDDR5内存,4070显卡可以玩本地部署吗? 

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-03-16 21:27:20
楼主

kissme [离线]

臭薯条酱

4.9昆吾

发帖数:7443 原创分:6
<只看ta> <ASCIIArt>
34楼

可以啊

zhufengyixue (zhufengyixue) 在 ta 的帖子中提到:

求问大佬们我台式机 CPU I5 14600KF,48GDDR5内存,4070显卡可以玩本地部署吗? 

发表于2025-03-16 23:12:54

Yosef [离线]

Yosef

该用户不存在
<只看ta> <ASCIIArt>
35楼

对,俺也刷到了,大家部署的时候小心点。纯玩几下的话,玩完就删了吧。长期使用得小心

https://news.qq.com/rain/a/20250305A080IB00

搜ollama相关新闻就有

WekFer (芒果:欢迎来 Story 版玩耍~) 在 ta 的帖子中提到:

刚好今天刷到篇文章提到一个安全风险,安装之后本地模型的接口有可能暴露在公网而被别人用◉‿◉

发表于2025-03-17 03:13:29

Yosef [离线]

Yosef

该用户不存在
<只看ta> <ASCIIArt>
36楼

应该够了,14b稳跑,32b也可以用。

选的时候大概是显存多少就选接近的,或者选大一点量化位数低的

zhufengyixue (zhufengyixue) 在 ta 的帖子中提到:

求问大佬们我台式机 CPU I5 14600KF,48GDDR5内存,4070显卡可以玩本地部署吗? 

发表于2025-03-17 03:19:34

Yosef [离线]

Yosef

该用户不存在
<只看ta> <ASCIIArt>
37楼

个人体验,1.5b纯史,严重逻辑错误,比如回答不了1+1

7b简单逻辑还行,听个响,思考不够,只有现有数据的罗列

14b日常使用可以了,可以讨论一些哲学问题,或者根据已有知识回答一种可能未提出的新方案。比如问20系列显卡支持到cuda的版本。写着的支持cuda大概7.多,但因为有图灵架构,更新官方驱动后实际可支持到11甚至12。(7b在回答时没有提到这一点)

32b,在14b的基础上反思好了点,我指出他回答不足时,及时改正了,14b认错不积极x

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-03-17 03:27:00

glsxwyyz [离线]

岚山

4.0高级站友

发帖数:1691 原创分:0
<只看ta> <ASCIIArt>
38楼

看评测不能满血的似乎其他模型效果会更好。

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-03-17 06:59:59

liujiaabcde [离线]

此魂何甘归故土

4.2高级站友

发帖数:2222 原创分:7
<只看ta> <ASCIIArt>
39楼

Cherry studio有联网搜索功能

kissme (臭薯条酱) 在 ta 的帖子中提到:

其实网上有相当多教程,而且内容都较为简单,这里简单说一下:

在模型方面,部署统一选ollama没什么好说的,点击ollama.com就可以进去下载安装(注意需要翻墙才能访问),然后到cmd直接输入ollama pull deepseek-r1:1.5b,系统会自动开始下载1.5b的模型,也可以根据个人电脑配置选择7b,8b,14b,32b和70b等等更大的模型。

另外还需要选择一个embedding模型来实现知识库功能,这里简单用一个,到ollama官网模型页面找到shaw/dmeta-embedding-zh,复制对应下载代码一样输入到cmd里面下载安装。

……

签名档


发表于2025-03-17 08:34:57

oliviaL [离线]

面条

2.9一般站友

发帖数:143 原创分:0
<只看ta> <ASCIIArt>
40楼

感谢楼主,顶

kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

发表于2025-03-17 08:49:49
返回本版
< 上一页
1
2
3
下一页 >
/ 3
跳转

请您先 登录 再进行发帖

快速回复楼主
标题
建议:≤ 24个字
签名档
发布(Ctrl+回车)

您输入的密码有误,请重新输入