W44-构思明年 AI Coding 技术决策

最近在思考明年在AI Coding上如何设定目标、要投入多少,构思一下这类技术决策的框架。今年AI Coding还处于个人提效阶段,如果从构建组织能力的视角去看,我们的资源投入度约等于 0。

先看内外部环境能给我们多大的成本空间。

业务的成本空间是决定性变量。明年AI大概率不会有今年如此的热度了,内外部环境决定的成本宽容度都会衰减,今年错过的明年就不会再有了。

对于全栈工程师应该分级讨论。一名能在各专栈都达到平均期望水平的全栈工程师,培养成本和周期都非常高。更现实的做法是圈定一个场景范围,设定可达成的目标。比如在半年内能培养具备某个泛化业务场景的全栈工程师,比专栈协同模式能缩短交付周期多少倍,或节约多少人力。

再摸清工程极限。

不断深入认识一簇技术和工程的边界与极限,要知道自己手里的刀能切多大块的肉。当前 LLM 和 Agent 的工程极限正在收敛。

模型能力撞墙,这是从众多信息中倒推出的观点。原因主要有三:

一是Sutton近期讲的“大世界与小世界”,大模型不是真正的智能,是小世界,而且无法通过观察持续学习;

二是scaling law这个重要的法则在Grok上印证了撞墙。Grok4已经是 20 万卡的算力规模了,马斯克又是一个绝对信仰工程的人, 最后市场反响一般,模型能力并没有拉开绝对差距。很显然,模型能力差不多的情况下, xAI在如何 deliver 给用户的能力没有OpenAI 和 Claude 强;

三是业界对跳出Transformer路径依赖的期待迟迟未兑现,很多人期待的 Thinking Machine 大半年过去仍无突破;

由此我觉得模型能力的跨越式发展机会在收窄,蹲一蹲就好。这就好比从 Intel 到 M1 的跨越已经结束了,剩下的就是等 M2、M3...,再过几年没人记得现在是 M 几了。

今年很多研究工作帮助我们更清楚地认识了大模型的边界,比如为什么数不清 strawberry 中有多少个 r,为什么存在幻觉以及不确定性,Context Rot等问题。

Agent作为一个工程的极限也在被逐步摸清,Agent与现实世界任务还有很大鸿沟。比如当代码出问题时,简单问题(语法错误)让 AI 自己修,但复杂问题(逻辑错误、unexpected 错误)需要人先搞清楚问题,明确告诉 AI 该怎么修,而不是把错误信息一股脑扔给 AI。如果你都不知道怎么办,把所有错误信息粘进去说”AI 你修吧”,结果 AI 瞎改一通,只会越搞越糟。

明年产业关注度会更加向效益和应用倾斜。一个可能是成本,现在大模型的调用还是贵,最终有可能走向边际成本递减,比如像DeepSeek-OCR这类工作不断涌现。另一个是Agent生态的构建可能会有更大体量的爆发。

最后找到合适的场景和路径。

AI Coding 虽然代理了一部分工作、加速了学习周期,但最终能胜任的人还是要补全知识体系并构建新的认知,这个过程依然少不了。务实的工程师都能理解这需要一个周期,每一次探索都是新旧之间的博弈,博弈的结果就是找到自己最具性价比的场景和定位。前端曾经历过 Node 全栈的浪潮,虽未成为主流,但“Node 应该做什么”如今已无需争论,这个过程用了 3–5 年。此外,是不是真的懂服务端也决定了能走多深,有一些问题域前端是没有经验的,比如进程模型与并发控制、数据库与事务、身份验证与安全模型、服务扩展与容灾等。这些都决定了全栈不是一个跳变,而是一个连续博弈的光谱。

最后更新于