学校要不要组建一个基于deepseek的模型服务器啊 - 信息科学技术学院(EECS)版 - 北大未名BBS
返回本版
1
2
下一页 >
/ 2
跳转

学校要不要组建一个基于deepseek的模型服务器啊

[复制链接]
楼主

PukinDogs [离线]

放手

4.2流氓兔

发帖数:2155 原创分:0
<只看ta> <ASCIIArt>
1楼

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

签名档

凡咨询感情问题的,一律劝分!

发表于2025-01-29 13:42:01

WWGGWWGG [在线]

汪汪狗狗

2.4一般站友

发帖数:557 原创分:0
<只看ta> <ASCIIArt>
2楼

成本再低,一块钱也是成本,也要走账的

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-01-29 14:55:24

nedway [离线]

小锅贴

3.1中级站友

发帖数:277 原创分:0
<只看ta> <ASCIIArt>
3楼

这里的核心问题在于官方上,正规渠道H卡是禁售的。所以学校要怎么解释突然多出来的卡,以及通过“第三方”购买差价怎么报销……

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-01-30 16:18:32

GALENCIAGA [离线]

akagi

2.8主序星

发帖数:129 原创分:0
<只看ta> <ASCIIArt>
4楼

想要自己推理合法的gpu为H20,最低推理要求2台H20服务器,大约需要200万+

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

签名档

EVERYBODY LIES

NO EXCEPTIONS

发表于2025-01-30 16:59:12

MrNerd [在线]

wsltxgd

2.8主序星

发帖数:396 原创分:0
<只看ta> <ASCIIArt>
5楼

官网能用为啥要有学校的,又不是像overleaf一样的外国网站偶尔会被墙。。

而且671B完整模型要顶全校访问压力还是要不少计算资源的

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-01-31 16:27:22

MrNerd [在线]

wsltxgd

2.8主序星

发帖数:396 原创分:0
<只看ta> <ASCIIArt>
6楼

大清计算机经费比较足,我建议大清搭一个然后给清北人三校一块用(确信)

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-01-31 16:28:01

FCBer [离线]

FCBer

2.0一般站友

发帖数:125 原创分:0
<只看ta> <ASCIIArt>
7楼

所以overleaf学校有嘛(

MrNerd (wsltxgd) 在 ta 的帖子中提到:

官网能用为啥要有学校的,又不是像overleaf一样的外国网站偶尔会被墙。。

而且671B完整模型要顶全校访问压力还是要不少计算资源的

签名档

来自北大未名BBS微信小程序 (http://t.cn/A67L9Lm2)

--

发表于2025-01-31 17:57:39

AllanChain [在线]

此ID尚未消失

3.0北京市

发帖数:194 原创分:0
<只看ta> <ASCIIArt>
8楼

https://latex.pku.edu.cn 需校园网访问

FCBer (FCBer) 在 ta 的帖子中提到:

所以overleaf学校有嘛(

发表于2025-01-31 18:56:14

FCBer [离线]

FCBer

2.0一般站友

发帖数:125 原创分:0
<只看ta> <ASCIIArt>
9楼

哦哦,感谢!

AllanChain (此ID尚未消失) 在 ta 的帖子中提到:

https://latex.pku.edu.cn 需校园网访问

签名档

来自北大未名BBS微信小程序 (http://t.cn/A67L9Lm2)

--

发表于2025-01-31 19:37:56

huayuankou [离线]

盏搞

8.0本站元老

发帖数:8454 原创分:7
<只看ta> <ASCIIArt>
10楼

先给青研装一个试试全自动删帖

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-02-01 13:07:53

KennethPKU [离线]

Ken

3.5树袋熊

发帖数:648 原创分:0
<只看ta> <ASCIIArt>
11楼

哈哈哈哈哈,我觉得如果这样,青年研究中心的人可以不需要连续工作好几天值班删帖了

huayuankou (盏搞) 在 ta 的帖子中提到:

先给青研装一个试试全自动删帖

签名档

In my younger and more vulnerable years my father gave me some advice that I’ve been turning over in my mind ever since.

“Wherever you feel like criticising anyone," he told me, "just remember that all the people in this world haven’t had the advantages that you’ve had.”

发表于2025-02-01 13:47:53

LYMing [在线]

老玉米

4.0高级站友

发帖数:1681 原创分:0
<只看ta> <ASCIIArt>
12楼

可以低成本部署

现在有4090 48g的涡轮卡,2.x万一张随便买

一套epyc的4u 8卡机箱,里面塞上48g x 8就能上deepseek 671b的q4km 

全套下来可以压缩在25w以内

GALENCIAGA (akagi) 在 ta 的帖子中提到:

想要自己推理合法的gpu为H20,最低推理要求2台H20服务器,大约需要200万+

发表于2025-02-01 16:34:42

GALENCIAGA [离线]

akagi

2.8主序星

发帖数:129 原创分:0
<只看ta> <ASCIIArt>
13楼

4bit量化精度损失太大,而且你不能只考虑能塞下权重需要多少显存,r1类模型输出长度比较大,很吃kvcahe的 

LYMing (老玉米) 在 ta 的帖子中提到:

可以低成本部署

现在有4090 48g的涡轮卡,2.x万一张随便买

一套epyc的4u 8卡机箱,里面塞上48g x 8就能上deepseek 671b的q4km 

……

签名档

EVERYBODY LIES

NO EXCEPTIONS

发表于2025-02-01 16:56:34

wumao [离线]

axiba

2.8一般站友

发帖数:111 原创分:0
<只看ta> <ASCIIArt>
14楼

成本有多低

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-02-01 18:08:33

peiyangium [离线]

生建办主任助理|柯带宜居办主任|副团级

8.6超新星

发帖数:1.8万 原创分:14
<只看ta> <ASCIIArt>
15楼

@linuxclub

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

签名档

发信人: gerald (小G|死亡是伊露维塔的礼物), 信区: Love

标  题: Re: 第一次看到活的gay。。。

发信站: 北大未名站 (2015年09月26日10:44:48 星期六), 转信

。。。改天给你表演个?。。。

【 在 freejoy (pika||Chem@THU15||想加入燕解) 的大作中提到: 】

: 我待了四年都没有碰到过=。=

发表于2025-02-01 19:25:58

Mrxhao [离线]

asdpbi

2.6一般站友

发帖数:60 原创分:0
<只看ta> <ASCIIArt>
16楼

同济就有这个平台

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-02-01 22:17:33

LYMing [在线]

老玉米

4.0高级站友

发帖数:1681 原创分:0
<只看ta> <ASCIIArt>
17楼

也是

最好还是大家各自还是用api,有赠费,没多贵

比如官方的和硅基流动的


私有化部署成本都不低

替代的廉价方案是scnet.cn用昇腾GPU, 64GB * 7 云服务器,只要7元/小时,kv cache也4b量化,能放多一些

一样存在量化损失精度问题


啥时候能有廉价的NVL72啊,那样就不用扣来扣去了。。

GALENCIAGA (akagi) 在 ta 的帖子中提到:

4bit量化精度损失太大,而且你不能只考虑能塞下权重需要多少显存,r1类模型输出长度比较大,很吃kvcahe的 

 最后修改于2025-02-02 14:11:41
  • 发表于2025-02-02 14:08:41

jacksonfu [离线]

超级蛋丨老苗子和小光肉的呆滴

4.6高级站友

发帖数:4371 原创分:0
<只看ta> <ASCIIArt>
18楼

珍贵!


GALENCIAGA (akagi) 在 ta 的帖子中提到:

想要自己推理合法的gpu为H20,最低推理要求2台H20服务器,大约需要200万+

签名档

繁华三千, 看淡即是云烟;

烦恼无数, 想开就是晴天!

发表于2025-02-02 14:48:24

tobiaslee [离线]

斯通斯黎

2.5浣熊

发帖数:50 原创分:0
<只看ta> <ASCIIArt>
19楼

硅基流动上线了 API 基于华为昇腾系列,点赞! 

现在注册 https://cloud.siliconflow.cn/i/rYfeQZ6A 赠送 2000 万 token (邀请注册双方都有)

可以尝试一下

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

发表于2025-02-02 22:53:16

Angelapku [离线]

心往

3.6中级站友

发帖数:711 原创分:0
<只看ta> <ASCIIArt>
20楼

本地部署了一个8B的,反应很快,准备上14b

PukinDogs (放手) 在 ta 的帖子中提到:

毕竟成本这么低,学校完全有实力负担得起。训练一个校内自己用,这可真是全校师生的福音了

签名档

知道自己不要什么,十年后再回头看看

发表于2025-02-03 00:46:47
返回本版
1
2
下一页 >
/ 2
跳转

请您先 登录 再进行发帖

快速回复楼主
标题
建议:≤ 24个字
签名档
发布(Ctrl+回车)

您输入的密码有误,请重新输入