腾讯AI Lab招聘研究实习生 - AI Memory & Agent
🌟关于我们需要的人
在大模型(LLM)向 Autonomous Agents 进化的过程中,Memory(记忆) 是核心瓶颈,也是通往 AGI 的关键钥匙。
我们正在寻找对 Long-term Memory、Active Context Management 以及 Efficient Memory Architecture 有极高热情和深入理解的同学,加入我们探索下一代具备“更强记忆能力”的智能体。
在这里,你将拥有充足的 GPU 计算资源,与顶尖研究员合作,挑战 AI 领域最前沿的课题。
🎯 研究方向与职责
你将主要参与以下一个或多个方向的研究与落地:
1. Agent 主动上下文管理 (Active Context Management)
探索 Agent 在长周期交互中的信息筛选与压缩机制。
设计基于强化学习(RL)或规划(Planning)的策略,让 Agent 能够“主动”决定记住什么、遗忘什么,而非被动依赖滑动窗口。
研究 Dynamic Context Selection 和 Hierarchical Memory 系统,优化 Agent 在复杂任务中的上下文利用效率。
2. 模型记忆架构设计 (Model Memory Architecture)
突破 Transformer 的架构限制,设计新型的 Internal Memory 机制(如 Recurrent Memory, Memory Tokens, Linear Attention 变体等)。
研究 KV Cache 的高效管理与压缩算法,探索非参数化记忆(Non-parametric Memory)与模型参数的深度融合。
针对 Infinite Context 场景,优化模型的检索与推理性能。
💻 岗位要求
基础背景:计算机、人工智能、数学等相关专业,硕士或博士在读(博士优先)。
编程能力:熟练掌握 Python 和 PyTorch,具备优秀的工程实现能力,熟悉 HuggingFace Transformers 库。
科研能力:在 NLP / ML / RL 顶级会议(如 ACL, NeurIPS, ICLR, ICML, EMNLP 等)发表过论文者优先。
领域知识:
熟悉 LLM 的训练(Pre-training/SFT/RLHF)及推理机制。
对 RAG (Retrieval-Augmented Generation)、Long-context LLMs、Vector Database 或 Recurrent Neural Networks 有深入理解。
实习时长:全职实习 6 个月以上者优先。
地点: 北京 / 深圳
请将简历发送至:eduoguo@tencent.com 邮件标题格式:【实习投递】姓名 - 学校 - 年级 - 最快入职时间 - 意向城市(北/深)