为什么你的AI系统会开始记错

AI工具实战

为什么你的AI系统会开始记错

Eason Zhang · 2026-03-05

上周看到 a16z 领投了一家叫 Sentra 的公司,500万美元种子轮,做的事情叫"组织记忆"。

他们要解决的问题很具体:公司里真正影响决策的信息,大部分发生在非正式对话里——走廊聊两句、Slack 上吐个槽、开会时随口提一嘴。但工具只记录正式文档。人一走,这些东西就蒸发了。

Sentra 管这个叫"上下文衰减"

他们解决的是几百人公司的协调问题,难度和我碰到的完全不是一个量级。但这个概念击中了我——因为我自己的 AI 系统,刚刚经历了一模一样的事。

只不过规模小得多。小到只有我一个人。

A 它开始记错了

大概两周前,我发现一个问题:我的 AI 助手开始给出前后矛盾的答案。

同一个问题,上午问一次,下午问一次,回答不一样。不是那种"换个说法"的不一样,是逻辑上打架。

一开始我以为是模型的问题。换了个模型,还是一样。

后来才搞明白:不是模型变笨了,是我给它塞了太多东西

一个 Agent 同时管内容、管数据、管日程、管知识库。每个任务都往 context 里堆信息。堆到一定程度,它不是不知道答案——它是分不清哪个答案对应哪个问题了。

这就是个人版的"上下文衰减"。知识还在,但执行已经走样。

P 知识不等于存档,规则不等于执行

Sentra 的核心洞察有一句话我觉得说得特别准:知识 ≠ 存档,规则 ≠ 执行。

你把规则写在文档里,不代表系统会遵守。你把知识存进数据库,不代表它能在对的时间被调用。

我的系统就是这样。规则写了一堆,但写在哪里?写在各种散落的文件里。Agent 启动的时候不一定读到,读到了也可能被后面的 context 冲掉。

更要命的是:当 context 窗口快满的时候,最先被挤掉的,恰恰是最早加载的那些规则。

规则的位置,决定规则能不能被执行。

这句话是我踩了坑之后总结的。放在被操作的文件里没用——Agent 操作文件的时候,注意力全在内容上,不会回头看规则。规则必须放在它启动时第一步就读取的地方。

A 四步修好了这个问题

发现问题之后,我花了大概两天时间重构。做了四件事:

第一步
拆 Agent
把内容创作从主 Agent 里剥离出来,交给一个专门的 sub-agent。主 Agent 只负责协调和质量检查。一个 Agent 做一件事,context 干净,输出稳定。
第二步
规则写进前置文件
所有核心规则写进一个叫 AGENTS.md 的文件。每个 Agent 启动时,第一步就是读这个文件。不是"建议读",是系统设计上强制读。
第三步
规则放对位置
之前我把规则写在各种地方——有的在配置文件里,有的在提示词里,有的在被操作的文档里。全部收拢到前置读取的文件中。一个地方,一个版本,没有歧义。
第四步
建 context 预警
给系统加了三级预警:context 占用 60% 黄灯,75% 橙灯,85% 红灯。不等它崩溃才发现,提前处理。到了橙灯就开始清理无关 context,红灯直接切换新会话。

四步做完,矛盾回答的问题基本消失了。

不是模型变聪明了,是系统设计对了。

G 你的 AI 系统迟早也会碰到这个

如果你在用任何形式的 AI 助手——不管是自己搭的还是现成的产品——迟早会碰到类似的问题。

一开始很好用,慢慢变得不太对,最后你发现它在"记错"。

这不是 AI 的 bug,这是所有基于 context window 的系统的物理限制。窗口有限,塞得越多,质量越差。

Sentra 在企业层面解决这个问题,需要几百万美元和一整个团队。我在个人层面解决它,只需要想清楚两件事:

第一,一个 Agent 不要做太多事。

第二,规则放在系统读得到的地方,不是你觉得合理的地方。

规模不同,逻辑一样。


AI 系统不会告诉你它快撑不住了。它只会悄悄地开始给你错误的答案。

等你发现的时候,你已经基于错误的信息做了好几个决定。

所以,别等它记错。提前设计。

我叫 Eason
CFA持证人 · 前战略咨询合伙人 · 创业者 · 投资人
在东京,投了几家麻辣烫,现在在用 AI 管系统、做决策、写内容——踩的坑比写的代码多
X · 发布简介

我的AI助手开始给出前后矛盾的答案。不是模型变笨了,是context堆太多,规则被挤掉了。四步修好,核心发现:规则的位置,决定规则能不能被执行。全文在博客:

Read more

今天用了不到一小时搭好双Agent

AI工具实战 · 创业日记 今天用了不到一小时,搭好了一个AI双Agent协作系统 Eason Zhang · 2026-03-04 今天下午,我把自己的AI助手系统升级了一下——让两个Agent分工配合。 整个过程不到一小时。昨天同样的事搞了一整天,差点把系统搞崩。 上周 vs 今天,到底差在哪里 上一篇我写过,第一次搭Multi-Agent系统,踩了5个坑,从早上10点到晚上10点都没彻底解决。 今天为什么快了这么多? 因为搞清楚了一件事:权限,才是第一道门。 大多数人想到"给AI加一个助手",脑子里浮现的画面是:告诉它去做什么,它就做了。但实际上,AI系统里的每一个Agent,默认是相互隔离的。主Agent想调用子Agent,需要显式授权——就像你要给员工开系统权限,不是入职就自动有的。 ↑ 在群里讨论InSight subagent的配置问题 今天具体怎么做的 第一步:确认子Agent已配置 我们的子Agent叫InSight,专门负责内容生产。它的workspace、身份、系

By Eason

我给自己的AI系统,加了一个内容团队

AI工具实战 我给自己的AI系统,加了一个内容团队 Eason Zhang · 2026-03-04 今天我的AI助手系统里,多了一个新成员。 它不做投研,不管餐厅,它只做一件事——帮我把脑子里的想法变成博客文章。 从早上10点到下午5点,它和我一起处理了5篇文章的格式、签名、字体、内容结构。我说需求,它执行,出了问题它自己找原因,找到了再修。 我没有动手写一个字。 P — 你可能也有这个误解 你可能觉得:「这不就是让AI帮你写文章吗?ChatGPT不就能做?」 不一样。 用ChatGPT写文章,每次都是一次性的。你开一个对话,它写完,这件事就结束了。它不知道你的品牌规则,不知道你上次用了什么格式,不知道你这篇和那篇之间有什么关系。 它没有记忆,没有角色,没有你的风格。 我想要的是一个懂我的内容助理——知道我不提品牌名,知道我用什么结构,知道我的签名是什么,知道字体要用苹方而不是宋体。 这些东西,不是每次都要重新教的。 A — 我们实际做了什么 我们今天做的,是给AI系统加了第二层—

By Eason

我的AI投研团队,今天升级了

AI投资实战 我的AI投研团队,今天升级了 Eason Zhang · 2026-03-04 今天,我把自己的AI投研系统做了一次比较大的升级。 不是加功能,不是跑新脚本——是把整个系统的分析逻辑从头想了一遍。 结论:旧版设计有一个根本性的问题,我一直没有正视它。 一个目标价,解决不了三种决策 旧版系统给出的是一个结论:「未来12个月,目标价 XX 元。」 听起来很专业。但这个结论有一个致命的缺陷:A股的节奏根本不是12个月。 板块轮动快则两周,慢则两个月。一只股票能不能在下一个催化剂窗口前涨,和它6个月后的基本面几乎无关。 一个12个月的目标价,无法告诉我下周要不要加仓,也无法告诉我下季度财报前该怎么处理仓位。 我在用一个为长期价值投资设计的框架,做短中期轮动的决策。工具对了,用法错了,结论也会错。 三段式:短期、中期、长期,各自回答各自的问题 今天的改动,是把分析拆成三个独立的时间维度: 维度时间跨度核心依据验证方式 🔴 短期 1–2 周 技术面 + 量能

By Eason