📝 本期播客简介本期我们克隆了LangChain创始工程师Lance与Manus联合创始人兼首席科学家Peak的一场精彩对话。他们深入探讨了AI Agent领域前沿的“上下文工程”概念。Lance首先介绍了上下文工程的兴起,指出随着Agent自主运行和频繁调用工具,上下文信息会无限增长,导致模型性能下降。他分享了五大核心策略:将不必要的信息“卸载”到外部文件系统、对上下文进行“精简”或“总结”、根据需要“检索”关键信息、通过子Agent实现“上下文隔离”,以及“缓存”上下文以提高效率。Peak则从Manus的实践出发,分享了更多独到见解。他强调初创公司应优先依赖通用大模型和上下文工程,而非过早微调。Peak详细区分了“压缩”和“总结”两种精简方式,前者可逆且保留关键信息,后者则在上下文达到阈值时谨慎使用。在上下文隔离方面,他借鉴Go语言理念,区分了“通过通信”和“通过共享上下文”两种模式。最引人注目的是Manus的“分层动作空间”:将工具卸载为原子“函数调用”、沙箱内的“命令行工具”和可编写Python脚本调用的“代码包与API”,极大地扩展了Agent的能力,同时避免了上下文混淆。他们还探讨了如何通过结构化输出优化总结和Agent间通信,以及在实践中简化架构、信任模型所带来的巨大提升。这是一场关于如何构建高效、智能AI Agent的深度思考,为开发者提供了宝贵的实战经验。(主播:迭代版本没迭代出来,,,效果没达到预期,重新用老版本复更了 qwq)👨⚕️ 本期嘉宾Lance,LangChain 的创始工程师之一。Peak,Manus 的联合创始人和首席科学家。⏱️ 时间戳00:00 开场 & 播客简介00:00 欢迎收听跨国串门计划 & 本期内容简介02:35 嘉宾介绍:Lance (LangChain) & Peak (Manus)03:03 上下文工程:Lance 铺垫,Peak 深入分享新想法03:46 上下文工程的兴起与挑战03:46 从提示工程到上下文工程的演变04:46 Agent 运行中上下文无限增长的问题06:17 上下文过长导致模型性能下降的矛盾06:30 Lance: 上下文工程五大策略06:30 策略一:上下文卸载 (Offloading)07:47 策略二:上下文精简 (Compaction/Summarization)09:03 策略三:上下文检索 (Retrieval)10:03 策略四:上下文隔离 (Isolation)10:36 策略五:上下文缓存 (Caching)11:00 OpenDevin Research 项目中的应用实例13:09 Peak: Manus 的上下文工程实践14:04 为何初创公司应依赖通用大模型和上下文工程17:29 上下文精简:可逆的“压缩”与谨慎的“总结”21:33 上下文隔离:Go 语言启发的“通过通信”与“通过共享上下文”模式24:07 上下文卸载:解决工具上下文混淆25:00 Manus 的分层动作空间:函数调用、命令行工具、代码包/API30:37 上下文工程的平衡艺术:避免过度工程,信任模型31:12 Q&A 环节31:48 工具与沙箱:Agent 如何调用沙箱中的 Shell 工具32:43 记忆与评估:索引 vs. 文件系统,Agent 的长期记忆与用户反馈机制34:45 模型选择与架构演进:架构演进,模型进步下的持续重构与评估36:46 模型选择与架构演进:上下文数据格式,优先选择基于行的纯文本38:03 模型选择与架构演进:结构化输出,优化总结和 Agent 间通信39:32 模型选择与架构演进:复杂搜索场景下的“Agent 即工具”范式42:09 模型选择与架构演进:Agent 间通信,Manus 的“Agentic MapReduce”与模式约束43:57 模型选择与架构演进:模型选择,旗舰模型成本效益与任务级路由45:56 模型选择与架构演进:工具选择与分层动作空间的优势48:56 规划策略:从 todo.md 到独立的规划器 Agent50:28 多 Agent 设计:避免角色拟人化,聚焦核心功能 Agent51:44 知识管理器:回顾对话,识别长期记忆内容52:24 安全与护栏:沙箱、出站流量检查、用户手动确认敏感操作53:48 评估方法:用户反馈、内部自动化测试与人工评估55:36 强化学习与可验证奖励:当前不适用非固定动作空间57:23 模仿模型提供商工具:不建议使用相同名称58:45 结束语58:45 Peak 感谢与呼吁试用 Manus🌟 精彩内容💡 上下文工程:Agent 时代的核心挑战Lance 解释了“上下文工程”的兴起,指出随着 AI Agent 的自主运行和工具调用,上下文信息会无限增长,导致模型性能显著下降。这门艺术与科学旨在精确管理上下文窗口,确保 Agent 始终获得下一步决策所需的关键信息。“Agent 需要利用大量上下文信息来调用工具,但我们又知道上下文越长,模型性能就会下降。这是一个很棘手的局面。”🛠️ Manus 的分层动作空间:扩展 Agent 能力Peak 介绍了 Manus 独特的“分层动作空间”,将工具分为三层:原子“函数调用”(如读写文件)、沙箱内的“命令行工具”(如格式转换器)和可编写 Python 脚本调用的“代码包与 API”。这一设计极大地扩展了 Agent 的能力,同时避免了上下文混淆,并保持了模型接口的简洁性。“我们不把 MCP 工具注入到函数调用空间,而是在沙箱内通过命令行界面来完成所有操作。”🚀 上下文精简:可逆“压缩”与谨慎“总结”Manus 区分了两种上下文精简方式:“压缩”是可逆的,通过移除可重建信息(如文件内容,只保留路径)来减少上下文,确保信息不丢失。而“总结”是不可逆的,仅在上下文达到性能衰减阈值时谨慎使用,并会先将完整上下文卸载到文件系统以备恢复。“我们认为这种‘可逆性’至关重要,因为 Agent 的预测是基于之前的动作和观察结果链式进行的,你永远不知道哪个过去的动作会在十步之后突然变得超级重要。”💬 结构化输出:优化 Agent 间通信与总结在 Q&A 环节,Peak 强调了使用结构化输出(模式/Schema)的重要性。无论是 Agent 间的通信(如 Manus 的“Agentic MapReduce”中子 Agent 提交结果),还是对上下文进行总结,定义清晰的模式都能确保信息以稳定、完整的方式传递,避免自由格式总结可能带来的信息丢失或不一致。“不要用一个自由格式的提示让 AI 生成所有东西。相反,你可以定义一种模式(schema),就像一个表单,有很多字段,然后让 AI 去填充。”❤️ 信任模型与简化架构Peak 总结道,上下文工程是一门平衡的艺术,但 Manus 最大的进步来自于简化架构和对模型更多的信任。他建议开发者避免过度工程,因为模型能力在不断提升,移除不必要的复杂层反而能让系统更快、更稳定、更智能。“每一次我们简化架构,系统都会变得更快、更稳定、更智能。因为我们认为,上下文工程的目标是让模型的工作变得更简单,而不是更难。”🌐 播客信息补充翻译克隆自:Context Engineering for AI Agents with LangChain and Manus本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的使用 AI 进行翻译,因此可能会有一些地方不通顺;如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
Trump $82 Million Bond Spree, Brazil Tariffs 'Too High,' More
16 Nov 2025
Bloomberg News Now
Ex-Fed Gov Resigned After Rules Violations, Trump Buys $82 Mil of Bonds, More
16 Nov 2025
Bloomberg News Now
THIS TRUMP INTERVIEW WAS INSANE!
16 Nov 2025
HasanAbi
Epstein Emails and Trump's Alleged Involvement
15 Nov 2025
Conspiracy Theories Exploring The Unseen
New Epstein Emails Directly Implicate Trump - H3 Show #211
15 Nov 2025
H3 Podcast
Trump Humiliates Himself on FOX as They Call Him Out
15 Nov 2025
IHIP News