Re: 学校要不要组建一个基于deepseek的模型服务器啊 - 信息科学技术学院(EECS)版 - 北大未名BBS

Re: 学校要不要组建一个基于deepseek的模型服务器啊

[复制链接] 浏览该主题帖

LYMing [离线]

老玉米

4.0高级站友

发帖数:1688 原创分:0
关注
<ASCIIArt> #17829

可以低成本部署

现在有4090 48g的涡轮卡,2.x万一张随便买

一套epyc的4u 8卡机箱,里面塞上48g x 8就能上deepseek 671b的q4km 

全套下来可以压缩在25w以内

GALENCIAGA (akagi) 在 ta 的帖子中提到:

想要自己推理合法的gpu为H20,最低推理要求2台H20服务器,大约需要200万+

发表于2025-02-01 16:34:42

请您先 登录 再进行发帖

快捷回帖
标题
建议:≤ 24个字
签名档
发布(Ctrl+回车)

您输入的密码有误,请重新输入