【实习】360大模型实习生(贡献最好的开源模型)
我们是360大模型推理团队,我们团队致力于构建最前沿的慢思考模型,并将相关模型和技术开源。比如前段时间做了慢思考模型的初步开源:TinyR1-32B-preivew(前三天huggingface下载量曲线是50,500,2000),牛刀小试便以32B参数量达到接近671B R1模型的效果。在显卡资源方面,这里有充足的H卡。
工作内容:
1. 你在加入后,将贡献到我们的下一版更强大和完整的慢思考模型开源项目中;
2. 你可以应用或者提出有趣的SFT或RL算法;
3. 你也可以从数据角度提升模型,比如参与构建最完整和推理深度的科学数据。
对应聘者的期待(加分项):
1. 有丰富的NLP,深度学习或强化学习基础知识和使用经验;
2. 完整的参与或主导过一个大作业之外的项目;
3. 计算机或者理科专业硕士或博士在读;
4. 在人工智能相关会议发表过论文;
5. 获得过信息学,物理学,数学三个竞赛省一以上奖牌。
联系方式: 赵光香 2001111311@pku.edu.cn
想做有影响力的项目的同学可以过来
guangxiang (花然) 在 ta 的帖子中提到:
我们是360大模型推理团队,我们团队致力于构建最前沿的慢思考模型,并将相关模型和技术开源。比如前段时间做了慢思考模型的初步开源:Tiny-R1-32B-preivew,牛刀小试便以32B参数量达到接近671B R1模型的效果。在显卡资源方面,这里有充足的H卡。
工作内容:
1. 你在加入后,将贡献到我们的下一版更强大和完整的慢思考模型开源项目中;
……
还有名额
guangxiang (花然) 在 ta 的帖子中提到:
我们是360大模型推理团队,我们团队致力于构建最前沿的慢思考模型,并将相关模型和技术开源。比如前段时间做了慢思考模型的初步开源:TinyR1-32B-preivew(前三天huggingface下载量曲线是50,500,2000),牛刀小试便以32B参数量达到接近671B R1模型的效果。在显卡资源方面,这里有充足的H卡。
工作内容:
1. 你在加入后,将贡献到我们的下一版更强大和完整的慢思考模型开源项目中;
……