首页版面好友提醒登录
返回桌面电脑版 同主题展开

Re: 【分享】deepseek本地部署初体验

kissme臭薯条酱 2025-02-14 16:06:30
#44044



kissme (臭薯条酱) 在 ta 的帖子中提到:

鉴于我喜欢装电脑,而工作上也有使用deepseek的需求,就研究了几天,在家自己本地部署了deepseek r1的蒸馏模型,分享一下以供参考。

首先是我的配置,CPU是amd的7700,内存是64g的ddr5 6200mhz内存,硬盘是三星的980Pro 2tb,显卡是7900xtx 24GB。

配置的方法使用了ollama(amd版本需要额外到github下载,并替换部分文件),当然lm studio也是可以的(我在笔记本上面就是用lm studio,好处是更多的模型选择,可以使用核显加速,并且不用挂梯子),分别尝试了ollama官网上提供的14b,32b和70b三个模型。

……

这里给大家推荐几个比较详细和友好的教程,以下教程都建议根据个人情况开倍速观看(大部分下载都需要挂载梯子)。


1.新手小白和核显用户想要简单体验deepseek本地部署,可以试试lm studio,猪王这篇教程就足够了。

【可能是最简单的DeepSeek R1本地运行教程】 https://www.bilibili.com/video/BV1DsNueLE72/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


2.希望更深入学习和使用deepseek本地部署,电脑性能又过得去的,可以参考这个视频进行ollama的本地部署,并且学会使用chatbox来调用本地模型。

【这应该是在本地部署DeepSeek最简单的方法了,普通人用什么Docker,完全不需要!】 https://www.bilibili.com/video/BV1giFTeaEeZ/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


3.如果你和我一样是AMD显卡用户,那么你应该看这篇教程,部署AMD版本的ollama。

【AMD显卡本地部署deepseek吃满显存教程】 https://www.bilibili.com/video/BV1cbPQeSEdA/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


4.有本地知识库使用需求的小伙伴,可以看看这篇视频,通过AnythingLLM来建立你的个人工作区

【4K | 本地部署DeepSeek-R1后,搭建自己的知识库】 https://www.bilibili.com/video/BV1QyFoeuE3e/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


5.还想深入了解如何优化本地模型的,可以参考这位博主的视频,稍微长一些,但是讲得很好。

【DeepSeek R1 推理模型 性能调优 收官之作 完全本地部署 保姆级教程 无惧隐私威胁 使用正确的参数 让你的R1快上2倍】 https://www.bilibili.com/video/BV1qoFGepEhL/?share_source=copy_web&vd_source=73a1f7c038a328565d47a2d3a866001a


以上,如果你都学会了的话,那么相信你也可以自由的在网络资源的海洋里面遨游和搜索学习了,希望这些链接对你有一定的帮助。