[研究实习] 腾讯AI Lab-下一代大模型设计
我们正在探索 下一代大型语言模型(LLM)与全模态模型的未来,致力于突破当前大模型在 推理效率、长序列理解与生成、多模态融合 等方面的瓶颈。我们隶属于胡瀚老师团队,拥有充足的计算与数据资源、自由开放的科研氛围、与顶尖研究者共事的机会——欢迎加入我们!
💡 研究方向
1️⃣ 下一代 LLM 架构探索
研究方向涵盖 Diffusion Language Models、Looped Transformers、Linear Attention 等新型范式
从 架构创新、Attention 设计、预训练与后训练策略 等多角度提升模型能力
目标:高效处理长文本、快速生成高质量内容
2️⃣ 全模态统一模型构建
探索任意模态输入(语音 / 图像 / 视频 / 3D / 文本等)的统一编码与对齐
聚焦 模态冲突缓解、跨模态泛化与协同建模
✅ 我们希望你具备
拥有 大语言模型或多模态模型 相关研究背景
具备扎实的 编码能力(Python / PyTorch 等)
在 顶会(ACL / NeurIPS / ICML / CVPR / ICLR / EMNLP) 发表论文者优先
有 模型架构设计或大模型训练落地经验 者加分
📍 工作地点
北京腾讯总部大楼
📮 投递方式
请将简历发送至:
eduoguo@tencent.com
或yiduo@stu.pku.edu.cn
(邮件标题请注明:“研究实习生申请 - 姓名 - 学校")