Latest
0 %
Explore the future relationship between robots, artificial intelligence and human beings.

后记:AI还没有进入下半场

你被骗了 过去两年,你一定听到过这句话: “AI已经进入下半场了。” 它的变体包括:“大模型格局已定”“Agent是最后的战场”“2026年是AI应用爆发元年之后就是淘汰赛”…… 这些话的共同特点是:听起来很有判断力,实际上没有任何信息量。 说“AI进入下半场”的人,在2023年ChatGPT刚火的时候也在说“AI进入下半场”。在2016年AlphaGo赢李世石的时候也在说“AI进入下半场”。在2…

资料库 2026-05-17
后记:AI还没有进入下半场

第八章:天下没有免费的午餐

免费的真相 经济学里有一个古老的原则:天下没有免费的午餐。 如果有人请你吃饭,总有人买单。如果没人为这顿饭付钱,那顿饭就是你。 在AI领域,这个原则不仅成立,还格外隐蔽。 你每天在用的免费AI,比如豆包、ChatGPT免费版、DeepSeek,它们的供应商没有向你收钱。但这些供应商有服务器要维护,有工程师要发工资,有电费要交。 这笔钱从哪来? 有四个来源,每一个都值得你认真对待。 免费模型的四个真…

资料库 2026-05-17
第八章:天下没有免费的午餐

第七章:用“三省六部制”来组织Agent

独奏和交响乐的差别 前四章,我们一直在讲单个Agent。怎么让它理解你、怎么给它工具、怎么让它稳定、怎么评价它。 现在单个Agent已经靠谱了。下一个问题:一个Agent不够怎么办? 你有一个“信息搜集Agent”,能从网上搜资料。你有一个“数据分析Agent”,能从表格里找规律。你有一个“报告撰写Agent”,能写结构清晰的文稿。 它们单独工作都没问题。但如果你想让它们协作:搜来的信息喂给分析,…

资料库 2026-05-17
第七章:用“三省六部制”来组织Agent

第六章:科学评价 Agent 的一二三四

Demo总是骗人的 过去几年,你肯定见过这样的视频: 一个人在屏幕上打字:“帮我分析这份销售数据,做一个下周的策略建议。”30秒后,AI Agent自动打开数据表、跑分析、做图表、写了一份看起来像模像样的报告。弹幕刷满“太强了”“取代打工人”。 你也见过这种场景: 你照着视频里的方法搭了一个Agent。第一次跑,结果惊艳。第二次跑同一个任务,输出格式全乱。第三次,它查了一个不存在的数据源,给了一份…

资料库 2026-05-17
第六章:科学评价 Agent 的一二三四

第五章:不是模型不好,是产品没做好

同一个错误,为什么永远改不掉 一个你一定经历过的场景: 你让AI写一份竞品分析报告。第一版,格式对,但把某公司产品定位搞反了。你纠正了。 第二版,定位对了,但又犯了同样的格式错误。你耐着性子改了Prompt,加了三行说明。 第三版,格式和定位都对了。但你发现它把你一周前在另一个对话里明确说过的数据引用错了。你盯着屏幕,深吸一口气,关掉窗口,自己写了。 然后你跟所有人说:“AI就这样,Demo惊艳,…

资料库 2026-05-17
第五章:不是模型不好,是产品没做好

第四章:没有工具,AI只是答题机器

一个悖论 前两章我们建立了一个认知:LLM是概率预测引擎,没有“事实”概念,输出天然不可靠。 现在我们要面对一个悖论: 如果AI的输出天然不可靠,为什么还要让它去做事? 答案藏在“做事”这个词里。 当AI只能“说话”时,它的错误是不可验证的:一段文字里有没有编造的数据,你只能靠自己的知识来判断。但当AI能“做事”时,很多错误会立刻暴露:调用的API返回了错误码,执行代码抛出了异常,生成的SQL语法…

资料库 2026-05-17
第四章:没有工具,AI只是答题机器
回到顶部