W42-对 Agent 和 LLM 的认知迭代
最近投入在 Agentic 相关的技术学习上,对大模型也有一些新的理解。
先推荐这篇Getting AI to Work in Complex Codebases, AI Coding 探索了这么久,我把它看作是纲领综述类的文章,会引导团队以此为基础逐渐形成共识。
Agentic 技术的重要性正在凸显。它的意义在于,让我们能真正利用好大模型的“智能”,让模型从“全知”变为“全能”。要能区分两个方向:一是“构建 Agent”,二是“使用 Agent”。以后边界可能会越来越模糊,想做好一件事就要在构建和使用上两位一体,但也需要能区别是在谈构建还是在谈使用。像 AI Coding 我大多看到的是“使用 Agent”,而不是在构建新的智能体。
对 MCP 协议的理解,最初认为它类似 RPC,是服务调用的应用层协议。但现在更倾向于把它看作 TCP 一样的传输层协议。因为 MCP 更多地是模仿传统服务调用的范式,而非为多 Agent 协作而生。真正的应用应该建立在 MCP 之上,通过 Agent 间的总分、调度与编排,构建复杂的策略关系。这才是最大化利用模型能力的方式。Agent 与 Agent 之间不能只是简单调用,而要像 HTTP 之于 TCP 一样,具备更丰富的协议语义,比如协商缓存策略等。因此,未来值得关注的,是 MCP 之上的新一层协议,比如当前正在发展的 Agent2Agent。
不要把大模型当成纯工具去思考。大脑不是硬盘,而是一个网状的神经网络,所有输出都是实时生成的。大模型也一样,它不是数据库,而是一组经过训练得到的参数权重。粗浅的理解,模型尺寸越大,智能水平越高。过去我们的研发体系和交付流程,都是围绕“人”为中心设计的,现在我们需要以大模型为核心,重新思考研发的结构和分工。核心的变化在于,人类的杠杆作用发生了迁移。我们要把注意力集中在 research 与 planning 这两个最高杠杆阶段,把“人类的可维护性”标准前置为“Agent 的可协作性”标准。
同时要认识到大模型的局限,萨顿依然在警示我们并没有逃出 The Bitter Lesson,大模型并不具备真正意义上的智能。它无法像松鼠一样在未知环境中自主探索,也无法生成超出输入知识域的新知识。它能做的,是在既有知识域中展现出规划、推理和决策的能力。
最后更新于