我的AI投研团队,今天升级了

AI投资实战

我的AI投研团队,今天升级了

Eason Zhang · 2026-03-04

今天,我把自己的AI投研系统做了一次比较大的升级。

不是加功能,不是跑新脚本——是把整个系统的分析逻辑从头想了一遍。

结论:旧版设计有一个根本性的问题,我一直没有正视它。

一个目标价,解决不了三种决策

旧版系统给出的是一个结论:「未来12个月,目标价 XX 元。」

听起来很专业。但这个结论有一个致命的缺陷:A股的节奏根本不是12个月。

板块轮动快则两周,慢则两个月。一只股票能不能在下一个催化剂窗口前涨,和它6个月后的基本面几乎无关。

一个12个月的目标价,无法告诉我下周要不要加仓,也无法告诉我下季度财报前该怎么处理仓位。

我在用一个为长期价值投资设计的框架,做短中期轮动的决策。工具对了,用法错了,结论也会错。

三段式:短期、中期、长期,各自回答各自的问题

今天的改动,是把分析拆成三个独立的时间维度:

维度时间跨度核心依据验证方式
🔴 短期 1–2 周 技术面 + 量能 + 近期消息面 2周内收盘价对比目标
🟡 中期 1–3 个月 板块轮动 + 催化剂窗口 + 资金流向 下次财报或发布会时验证
🔵 长期 6 个月+ 基本面增速 + 估值锚 + 核心逻辑 每季度财报更新

每个维度有自己的进场条件、止损位、目标价、验证节点,以及判断对错的标准。

三级质检规范
↑ 每份研报发出前经过三级质检:数据完整性 → 内容质量 → 格式规范

同一只股票,可能短期观望、中期增持、长期看好——三个结论同时成立,对应三种决策场景。这才是真实的投资逻辑,而不是一个数字包打天下。

分析师团队,从四个名字变成复仇者联盟

旧版有四个分析师——Sarah、Alex、Tony、Michael。他们能跑分析,但我记不住谁负责什么。名字没有个性,人格就不存在。

今天换成了复仇者联盟:

🛡
Steve(美队)
基本面与估值。稳健、原则、长期视角——他不会因为短期动量改变立场
🕷
Natasha(黑寡妇)
消息面与情报。专注市场还没定价的东西,信息嗅觉最灵
🦾
Tony(钢铁侠)
技术面与动量。数据驱动,找最优入场点和止盈节点
Thor(雷神)
风控与防线。止损逻辑、极端情景压测,永远是那个说「等等,风险呢?」的人

命名不是为了好玩。给AI分析师一个强烈的人格原型,它在分析时会真的入戏。Steve 不会轻易追短期动量,Thor 不会忽视尾部风险——这些不是设定,是他们在「角色」框架下自然生成的判断倾向。

还有一件重要的事:分工

今天还理清了系统里两个核心角色的边界。

之前 Mars 和 Pathfinder 之间的职责是模糊的,有时候会踩到对方的地盘,出了问题也不容易定位到底是哪个环节出了问题。

今天明确下来:Mars 负责理解和调配,Pathfinder 负责执行和输出。一个不直接跑数据,一个不做判断决策。职责清晰了,系统就稳了。

Pathfinder TECH_PROTOCOL升级汇报
↑ 今日升级汇报:新增 TECH_PROTOCOL(9章节)+ SOUL.md 6条工作纪律更新

今天做的这些,表面上是升级了几个功能。本质上是回答了一个更基础的问题:

这套分析系统,服务的是我哪种决策场景?

工具可以很复杂,但如果它回答的是一个错误的问题,越复杂越误导。

先弄清楚「我要做什么决策」,再去设计「我需要什么分析」。这个顺序,比工具本身重要得多。

我叫 Eason
CFA持证人 · 前战略咨询合伙人 · 创业者 · 投资人
在东京,投了几家麻辣烫,现在在探索用AI做投资研究和餐饮运营赋能
X · 发布简介

今天把AI投研系统的分析框架重写了——从「12个月目标价」改成短/中/长三段式,分析师团队改名复仇者联盟,Mars和Pathfinder分工划清。背后是一个很基础的问题:你的工具,服务的是你真实的决策场景吗?全文在博客:

Read more

今天用了不到一小时搭好双Agent

AI工具实战 · 创业日记 今天用了不到一小时,搭好了一个AI双Agent协作系统 Eason Zhang · 2026-03-04 今天下午,我把自己的AI助手系统升级了一下——让两个Agent分工配合。 整个过程不到一小时。昨天同样的事搞了一整天,差点把系统搞崩。 上周 vs 今天,到底差在哪里 上一篇我写过,第一次搭Multi-Agent系统,踩了5个坑,从早上10点到晚上10点都没彻底解决。 今天为什么快了这么多? 因为搞清楚了一件事:权限,才是第一道门。 大多数人想到"给AI加一个助手",脑子里浮现的画面是:告诉它去做什么,它就做了。但实际上,AI系统里的每一个Agent,默认是相互隔离的。主Agent想调用子Agent,需要显式授权——就像你要给员工开系统权限,不是入职就自动有的。 ↑ 在群里讨论InSight subagent的配置问题 今天具体怎么做的 第一步:确认子Agent已配置 我们的子Agent叫InSight,专门负责内容生产。它的workspace、身份、系

By Eason

我给自己的AI系统,加了一个内容团队

AI工具实战 我给自己的AI系统,加了一个内容团队 Eason Zhang · 2026-03-04 今天我的AI助手系统里,多了一个新成员。 它不做投研,不管餐厅,它只做一件事——帮我把脑子里的想法变成博客文章。 从早上10点到下午5点,它和我一起处理了5篇文章的格式、签名、字体、内容结构。我说需求,它执行,出了问题它自己找原因,找到了再修。 我没有动手写一个字。 P — 你可能也有这个误解 你可能觉得:「这不就是让AI帮你写文章吗?ChatGPT不就能做?」 不一样。 用ChatGPT写文章,每次都是一次性的。你开一个对话,它写完,这件事就结束了。它不知道你的品牌规则,不知道你上次用了什么格式,不知道你这篇和那篇之间有什么关系。 它没有记忆,没有角色,没有你的风格。 我想要的是一个懂我的内容助理——知道我不提品牌名,知道我用什么结构,知道我的签名是什么,知道字体要用苹方而不是宋体。 这些东西,不是每次都要重新教的。 A — 我们实际做了什么 我们今天做的,是给AI系统加了第二层—

By Eason

为什么你的AI系统会开始记错

AI工具实战 为什么你的AI系统会开始记错 Eason Zhang · 2026-03-05 上周看到 a16z 领投了一家叫 Sentra 的公司,500万美元种子轮,做的事情叫"组织记忆"。 他们要解决的问题很具体:公司里真正影响决策的信息,大部分发生在非正式对话里——走廊聊两句、Slack 上吐个槽、开会时随口提一嘴。但工具只记录正式文档。人一走,这些东西就蒸发了。 Sentra 管这个叫"上下文衰减"。 他们解决的是几百人公司的协调问题,难度和我碰到的完全不是一个量级。但这个概念击中了我——因为我自己的 AI 系统,刚刚经历了一模一样的事。 只不过规模小得多。小到只有我一个人。 A 它开始记错了 大概两周前,我发现一个问题:我的 AI 助手开始给出前后矛盾的答案。 同一个问题,上午问一次,下午问一次,回答不一样。

By Eason