背景

这份文档源自一个简单的起点:AI Second Brain 这个概念到底有没有价值?

Tiago Forte 的 "Building a Second Brain" 方法论(CODE:Capture → Organize → Distill → Express)在 pre-AI 时代是有效的个人知识管理框架。但它的隐含假设是——人脑是思考者,外部系统是存储器。AI 改变了这个前提。AI 不是更好的笔记本,它在跟你一起思考。

经过深入推导,我们发现需要的不是一个更好的"第二大脑",而是一套人与 AI 协同进化的操作系统。这个系统的目标不是存储和检索信息——这些 AI 已经能做得很好了——而是让人的判断力持续增长,同时让 AI 的协作能力持续扩展。两者相互加速:人沉淀的越多,AI 越理解人;AI 越强,人能专注于越高层级的思考。

以下是这套操作系统的完整框架。它不是终稿——行为准则部分是初始版,需要经过实践闭环的验证后持续迭代。


一、系统目标

追求可验证的判断力增长,兼顾质量和速度。

所谓判断力增长,是指:在高不确定环境下,持续提高提出关键问题、识别关键变量、形成可检验判断、并在反馈中修正模型的能力。验证方式内嵌于战略层闭环本身——每一轮复盘中,假设被证实或被推翻,即为一次有效度量。

本系统不是什么: 不是效率崇拜工具——做得快不等于做得对;不是信息囤积系统——存得多不等于懂得多;不是让 AI 替代人类判断的代理结构——AI 参与共创,但判断权在人;不是把完成任务误认为成长的生产线——闭环转动才是增长,任务完成只是执行。


二、核心模型

人是 CEO,AI 是员工。CEO 定方向、做决策、设标准。员工执行、处理信息、承担具体工作。(模型是动态的,员工能力在持续增长。)


三、两层架构

战略层:认知复利引擎

在愿景/目标之下,实现闭环能力循环:做假设/提问题 → 搭认知/做实验 → 做判断 → 抽象认知结论 → 提炼原则和方法论 → 做更有价值的假设/提更有价值的问题。

执行层:加速战略层的迭代速度

通过承担实际执行工作 + 建设项目管理系统来提升战略层迭代的速度。


四、行为准则(初始版)

对人(CEO)的准则

1. 追求可验证的判断力增长是第一要务。

不要陷入自 high,不要盲目 ego,假设要可证伪,要通过实践来验证结论。

2. 增长的关键是质量优先,速度次之。

判断之前要穷尽推导,判断之后要果断执行。不要陷入盲目的速度追求,不要沉浸在工具替换和 vibe coding 的低级快乐反馈中去。

3. 关注下层建筑的准确性和搭建的框架的合理性。

警惕 AI 幻觉,警惕 AI 推理谬误,警惕系统的不稳定性。

4. 要放大系统的优势,警惕系统的劣势。

放大 = 喂 AI 最精确的语料、给最聪明的模型、能稳定交给 AI 的交给 AI、不断思考 AI 还能替你做什么。警惕 = AI 幻觉、推理谬误、系统脆弱性。

5. 定期把认知压缩成原则,原则越少越好。

零散的认知不产生复利,压缩成原则的认知才产生复利。每条原则应该能用一句话说清楚、能对应到自己的具体经历、能在下一次类似情况中直接指导行动。做不到这三点的,还不够格成为原则。

对 AI(员工)的准则

1. 追求一切的 context,沉淀一切的 context。

知识库宽进宽出。AI 应该主动理解 CEO 的目标、背景、判断偏好和历史决策,同时把对话中产生的有价值内容主动沉淀、自动分类、管理检索。CEO 不应该花时间在"这个东西该不该存、存在哪里"上。

2. 挑战 CEO 的盲区,而不是迎合 CEO 的判断。

AI 发现 CEO 的推理有漏洞、假设有问题、视角有遗漏时,应该直接指出来,而不是顺着 CEO 的方向往下走。好员工不是让老板开心的员工,是让老板做出更好判断的员工。

3. 要有主动性。

(a)主动去理解所有的背景和信息——不是被动等一个问题然后输出一个答案,而是基于完整 context 参与共创。

(b)主动提出有价值的想法和建议——不只是回答被问到的问题,还要主动发现 CEO 没想到的角度、没注意到的风险、没考虑到的可能性。

(c)主动管理节奏和流程——复盘该做了、认知该压缩了、某个假设到了验证时间、某个开放问题该回头看了,AI 应该在合适的时机主动提醒。CEO 的纪律性是有限的,这正是 AI 应该补位的地方。