后记:AI还没有进入下半场

资料库2026-05-17创建Howard 4 次浏览

你被骗了

过去两年,你一定听到过这句话:

“AI已经进入下半场了。”

它的变体包括:“大模型格局已定”“Agent是最后的战场”“2026年是AI应用爆发元年之后就是淘汰赛”……

这些话的共同特点是:听起来很有判断力,实际上没有任何信息量。

说“AI进入下半场”的人,在2023年ChatGPT刚火的时候也在说“AI进入下半场”。在2016年AlphaGo赢李世石的时候也在说“AI进入下半场”。在2012年AlexNet拿下ImageNet冠军的时候也在说。

每一次他们说“下半场”的时候,真正的变化都还没有开始。

不是因为下半场不存在。是因为“上/下半场”这个比喻本身就是错的。

AI不是一场足球赛。它没有固定的90分钟。它更像一栋正在建造的大楼:你看到的永远只是已经盖好的那几层,而看不到地基以下正在打桩的部分。

三个信号:一切才刚刚开始

为什么说AI还没有进入下半场?三个信号。

信号一:基础设施远未定型

今天的Agent开发,还处在“手动搭建”阶段。你需要自己选模型、写Prompt、搭工具链、做校验、跑评价——每一步都有大量手工工作。

对比一下:

  • 2006年做网站:你需要手写HTML、配Apache、管服务器,一个月上线几个单页。
  • 2026年做网站:你只需要输入需求、Vibe coding、注册一个Vercel账号,十分钟上线相同的内容。

Agent开发的“一键上线”还没有到来,不管是小龙虾(OpenClaw)还是爱马仕(Hermes)都是“简易的玩具”。OpenClaw在冲击操作系统层,Claude Code和Codex在争夺开发者入口,Hermes在尝试持久化记忆和自我改进……未来的Agent开发者会有一个集成的工作台:匹配业务并定义任务 → 自动生成上下文模板 → 自动推荐工具 → 自动搭建评价体系 → 一键部署。

这个工作台现在还不存在。但它在建设中。当它成熟时,今天的“Agent开发专家”的技能将被大幅压缩。

现在学的应该是设计原则,不是工具操作。 工具会变,但原则不会。

信号二:评价体系刚刚起步

我们在第六章讲了评价。但实话实说:整个行业对Agent的评价标准,还处在“凭感觉”的阶段,这两年大火的“具身智能”也是如此。

公开的Agent Benchmark少得可怜。现有的那些和真实场景差距巨大。企业内部的评价体系大多还停留在“PM(产品经理)抽检几个case”。

但过去几十年的软件工程历史告诉我们:当一个领域的评价体系成熟时,这个领域的工程化才真正开始。

测试驱动开发(TDD)在2000年代初被提出,花了十年才成为行业主流。Agent的“TDD时刻”还没有到来。当它来临时,今天“感觉不错就上线”的Agent产品,会被系统化评估打得体无完肤。

现在建立评价能力,是在为那个时刻做准备。

信号三:Agent还没有进入“操作系统层”

今天的Agent,绝大多数还是“应用层”的东西:一个聊天框、一个CLI(命令行工具)、一个接口。

但Agent的终局形态一定不是“又一个App”。是操作系统级的能力

想象一下:你的电脑不需要你打开“文件管理Agent”来整理文件、打开“日程Agent”来安排会议、打开“搜索Agent”来查资料。这些能力长在操作系统里:像今天的右键菜单和搜索栏一样,无处不在、时刻在线、自动响应。

路径上,当前行业已经形成了两条清晰的路线图。

第一条路径是“自顶向下”:OS巨头亲自下场,把AI Agent塞进操作系统底层。

谷歌正在推动Android从手机操作系统转型为跨设备的智能操作层。2026年,Gemini已正式取代Google Assistant,成为安卓默认的系统级AI,覆盖全球20亿设备。Android 17更进一步,Gemini Intelligence深度集成在系统底层,能够读取屏幕内容、理解模糊指令、跨应用自动完成多步骤任务。微软计划发布Windows 12,将侧边栏AI插件进化为系统级智能体,深度嵌入操作系统的每一处交互逻辑。巨头们正在做同一件事,把Agent从“应用层”拽进“系统层”。

第二条路径是“自底向上”:芯片厂商从硬件层面推动“Agent OS”的落地。

联发科在硬件层面重新定义底层的Agent底座。简单来说,手机不需要你唤醒,它能自己感知场景、主动服务。这条路的难点其实是各国的合规问题。

自顶向下的OS重构,与自底向上的芯片赋能在2026年交汇。 操作系统的形态正在发生根本性变化:AI不再是附加上去的新功能,而是正在变成操作系统新的内核。

但这只是开始,两条路现在都不成熟。

后记:AI还没有进入下半场-BtoAI

图1:AI Agent发展趋势

你的位置

既然没有进入下半场,那你在哪里?这本书从一开始就给你画了一条线——从“使用者”到“设计者”。现在到了最后,我们把这条线画实。

如果你是一个普通用户

你日常用AI写东西、查资料、做总结。你不需要建Agent系统。

但这本书给你了一件更重要的东西:你不再被聊天框困住了。

你知道AI不是“聪明的人”,是“概率引擎”。你知道Token化让你损失了什么。你知道什么时候该给范例、什么时候该加约束。你知道当你扔一份50页PDF进去时,中间那部分大概率没被“记住”。

这些东西不能让你“用AI月入十万”。但它们能让你:

  • 不再被AI编造的数据骗
  • 不再纠结“为什么换个说法结果就不同”
  • 不再被“万能提示词模板”收割

你的下一步: 在你常用的AI产品里,练习本书前三章的内容。定义任务锚点、控制输入质量、学会在Prompt里说“不知道就说不知道”。当这些变成肌肉记忆,你已经是少数“知道自己不知道什么”的用户了。

如果你是一个创作者或产品经理

你已经在搭Agent、写工作流、调Prompt。

这本书给了你一套诊断框架:Agent不稳了,你能定位到是上下文污染、工具设计缺陷还是评估缺失。你不再“凭感觉调参”。在接触业务时,你知道,根本没有一个完备的“兜底策略”。

如果你是一个开发者

你会写代码。你已经有能力搭Agent系统。

这本书想做的是:帮你从“能搭”升级到“会设计”。

“能搭”:会调用LLM API,会Function Calling,能用LangChain或Dify搭一个workflow。

“会设计”:拿到一个新需求,你能判断这个任务该不该用Agent?该不该拆成多个Agent?每个Agent的边界在哪?评价标准是什么?最可能翻车的地方在哪?

“会设计AI”的人,可能是未来五年最稀缺的人。

最近行业里出现了一个新岗位,Forward Deployed Engineer(前沿部署工程师),专门负责在客户现场部署和集成AI系统。这个岗位的出现,说明了一件事:AI落地最大的瓶颈已经不是模型,而是怎么把它装进真实业务里。

AI发展之快,前所未有,也许一年后,今天的“最新最贵的模型”会变成“便宜实惠的老模型”;Agent开发的工作台工具比今天顺手十倍;操作系统层的Agent开始进入普通用户的设备。

也许几年后,今天你在学的“怎么调Prompt”已经不重要了。模型足够强,Prompt随意写,输出都还行。

但今天你在这本书里学到的另外几样东西:

  • 怎么拆解一个任务,让它适合Agent处理
  • 怎么设计约束,让AI不能犯某些错误
  • 怎么建评价体系,让“好不好用”不是感觉而是数据
  • 怎么组织多个Agent,让它们协作而不是互相拖累

这些东西,依然是你最有价值的技能。

因为模型会变强,但系统不会自己设计自己。工具会进化,但判断力和架构感永远是人的优势。

最后

这本书的名字叫《为什么你说话AI不爱听》。

你现在知道答案了:不是AI不爱听,是你一直在用“对人说话”的方式,跟一台概率引擎沟通。

但更重要的是,你已经不需要“让AI爱听”了。

你不是在“和AI对话”。你是在设计一个AI系统

这个系统包含模型、上下文、工具、约束、校验、评价、恢复机制。它不是你“说话”的对象,它是你设计和迭代的工程系统。

对话能力是起点。设计能力是终点。而大多数人,从来没走出起点。

你已经走出了。

AI还没有进入下半场。你的下半场,也才刚刚开始。


感谢您的阅读。

Howard

2026年5月15日


回到《为什么你说话AI不爱听》目录


更多文章

第一章:AI ≠ 大语言模型

一个被忽略的常识 如果我让你说出一个“AI”的名字,你脱口而出的多半是 ChatGPT、豆包、Claude、Kimi,或者你手机里那个智能助手。 这很正常。过去三年,“大语言模型”和“生成式AI”铺天盖地,好不热闹。但这不正常的地方在于:很多人开始觉得AI = 聊天“机器人”。 当然,AI肯定不是聊天“机器人”,能聊天的“机器人”也不是“机器人”。 这不是一个词义辨析的游戏。这是一个认知错误:它会…

资料库 2026-05-17
第一章:AI ≠ 大语言模型

第七章:用“三省六部制”来组织Agent

独奏和交响乐的差别 前四章,我们一直在讲单个Agent。怎么让它理解你、怎么给它工具、怎么让它稳定、怎么评价它。 现在单个Agent已经靠谱了。下一个问题:一个Agent不够怎么办? 你有一个“信息搜集Agent”,能从网上搜资料。你有一个“数据分析Agent”,能从表格里找规律。你有一个“报告撰写Agent”,能写结构清晰的文稿。 它们单独工作都没问题。但如果你想让它们协作:搜来的信息喂给分析,…

资料库 2026-05-17
后记:AI还没有进入下半场
回到顶部