【实习】腾讯混元大模型X团队青云实习生招聘
[复制链接] 浏览该主题帖我们正在寻找优秀青云实习生与我们携手,共同探索迈向通用人工智能的关键之路。我们坚持长期主义,鼓励基于兴趣的研究,并给予充分自由度和算力支持。
1. 大模型强化学习研发实习生
岗位职责:
● 在 RL 和推理方面进行关键研发:包括数据探索与增强、奖励模型优化、RL策略迭代及算法评估等,扩展 RL 和/或推理时间计算以改进模型。
● 跟进并复现业界前沿的RL算法,并结合混元模型的特性进行创新,探索更高效、更稳定的模型优化策略,产出具备影响力的成果。
● 担任混元主模型研发角色:参与万亿参数模型的RL训练和优化,直接为混元主模型研究做出贡献。
岗位要求:
● 计算机、数学、相关 STEM 领域的硕士/博士学位。
● 具有大型语言模型(LLM)和强化学习 (RL) 研究训练经验。
● 有AI方向顶会(包括但不限NeurIPS/ICML/ICLR/ACL/EMNLP/NAACL/COLM等)一作发表记录。
● 一周4-5天,持续实习4个月及以上。
加分项:
● 在ACM/ICPC/NOIP/NOI/IOI等比赛获奖
● 热衷开源,对著名开源项目有贡献
2. 大模型英文及小语种后训练研发实习生
岗位职责:
● 在英文及小语种方面进行关键研发:包括英文及小语种优化算法的研究、数据质量认知体系的建设、训练策略迭代及算法评估等。
● 多语言能力建设与国际化适配:设计并实施英文及小语种模型的综合训练和评估框架,包括语言任务分类、文化适应性、地域化表达等多维度;协助构建多语言对齐机制,确保模型在不同语言环境下的一致性表现,为混元模型的全球化部署提供技术保障。
● 担任混元主模型研发角色:参与万亿参数模型的后训练和优化,直接为混元主模型研究做出贡献。
岗位要求:
● 计算机、数学、相关 STEM 领域的硕士/博士学位。
● 具有大型语言模型(LLM)后训练研究经验。
● 有AI方向顶会(包括但不限NeurIPS/ICML/ICLR/ACL/EMNLP/NAACL/COLM等)一作发表记录。
● 一周4-5天,持续实习4个月及以上。
加分项:
● 在ACM/ICPC/NOIP/NOI/IOI等比赛获奖
● 热衷开源,对著名开源项目有贡献
● 熟悉或掌握中英以外第三语种
3. 大模型高质量合成数据研发实习生
岗位职责:
● 深入研究并设计大模型数据侧关键技术:包括Mid-train和Post-train阶段,调研并实践业界先进合成数据算法的追踪与创新,研究合成亿级别高质量,高难度,高多样性的训练数据等。
● 建立Data-Centric的智能化数据飞轮机制:系统性研究数据配比策略、评测方法论及基准数据集构建的协同效应,通过持续迭代优化形成闭环反馈。
● 担任混元主模型研发角色:参与万亿参数模型的Mid-train和Post-train阶段和优化,直接为混元主模型多语言能力做出贡献。
岗位要求:
● 计算机、数学、相关 STEM 领域的硕士/博士学位。
● 具有大型语言模型(LLM)数据合成,预训练或后训练研究经验。
● 有AI方向顶会(包括但不限NeurIPS/ICML/ICLR/ACL/EMNLP/NAACL/COLM等)一作发表记录。
● 一周4-5天,持续实习4个月及以上。
加分项:
● 在ACM/ICPC/NOIP/NOI/IOI等比赛获奖
● 热衷开源,对著名开源项目有贡献
● 申请方式:
○ 发送邮件到 victorqsun@tencent.com
○ 标题: 姓名-混元X青云实习-学校
○ 来件请注明年级,可到岗实习时间,实习时长,兴趣岗位。
