腾讯AI Lab招聘研究实习生 - AI Memory & Agent  - 实习(Intern)版 - 北大未名BBS
返回本版
1
/ 1
跳转

腾讯AI Lab招聘研究实习生 - AI Memory & Agent 

[复制链接]
楼主

DGUOYXI [在线]

有听说

3.0中级站友

发帖数:196 原创分:0
<只看ta> <ASCIIArt>
1楼

🌟关于我们需要的人

在大模型(LLM)向 Autonomous Agents 进化的过程中,Memory(记忆) 是核心瓶颈,也是通往 AGI 的关键钥匙。

我们正在寻找对 Long-term Memory、Active Context Management 以及 Efficient Memory Architecture 有极高热情和深入理解的同学,加入我们探索下一代具备“更强记忆能力”的智能体。


在这里,你将拥有充足的 GPU 计算资源,与顶尖研究员合作,挑战 AI 领域最前沿的课题。


🎯 研究方向与职责

你将主要参与以下一个或多个方向的研究与落地:


1. Agent 主动上下文管理 (Active Context Management)


探索 Agent 在长周期交互中的信息筛选与压缩机制。


设计基于强化学习(RL)或规划(Planning)的策略,让 Agent 能够“主动”决定记住什么、遗忘什么,而非被动依赖滑动窗口。


研究 Dynamic Context Selection 和 Hierarchical Memory 系统,优化 Agent 在复杂任务中的上下文利用效率。


2. 模型记忆架构设计 (Model Memory Architecture)


突破 Transformer 的架构限制,设计新型的 Internal Memory 机制(如 Recurrent Memory, Memory Tokens, Linear Attention 变体等)。


研究 KV Cache 的高效管理与压缩算法,探索非参数化记忆(Non-parametric Memory)与模型参数的深度融合。


针对 Infinite Context 场景,优化模型的检索与推理性能。


💻 岗位要求

基础背景:计算机、人工智能、数学等相关专业,硕士或博士在读(博士优先)。


编程能力:熟练掌握 Python 和 PyTorch,具备优秀的工程实现能力,熟悉 HuggingFace Transformers 库。


科研能力:在 NLP / ML / RL 顶级会议(如 ACL, NeurIPS, ICLR, ICML, EMNLP 等)发表过论文者优先。


领域知识:


熟悉 LLM 的训练(Pre-training/SFT/RLHF)及推理机制。


对 RAG (Retrieval-Augmented Generation)、Long-context LLMs、Vector Database 或 Recurrent Neural Networks 有深入理解。


实习时长:全职实习 6 个月以上者优先。


地点: 北京 / 深圳 

请将简历发送至:eduoguo@tencent.com 邮件标题格式:【实习投递】姓名 - 学校 - 年级 - 最快入职时间 - 意向城市(北/深)

发表于2026-01-13 16:05:43
返回本版
1
/ 1
跳转

请您先 登录 再进行发帖

快速回复楼主
标题
建议:≤ 24个字
签名档
发布(Ctrl+回车)

您输入的密码有误,请重新输入