这篇文章来自一次与 GPT 的对话,但它并不是一次偶然的灵光乍现。更准确地说,它是长期阅读、学习、反复咀嚼之后,在大脑后台完成的一次“合并提交”。那些看似不相干的主题,在这一刻成为我提出新问题的隐含信息。
昨天晚上和 AI 聊的时候,突然想起了一个话题:常用的 AI 工具都是基于对话的线性方式。但是人的思维是跳跃的,那么当我的想法和想聊的主题发生变化时,我应该新开启一个对话还是继续在本窗口聊呢?因为我可能在跳出去以后,还会重新回到原来的话题。我既想聊新的内容,又有些担心新的内容会「污染」当前窗口的上下文。其实有点像 git 的分支、冲突、合并,又有点像在一张白板上,在从上往下的书写思考,突然引出了一条线向别处,开始思考新的问题,可能是脑中一个悬而未决的问题;抑或一个与当下类似/相反的话题;也可能是一个完全不相干的新内容。聊着聊着,思路可能又会转向另一个新的思考,也可能回到原来的主题。
但是当下的 AI 工具似乎还没办法解决我这样思维的跳跃。我在想人和 AI 的区别是什么?
我带着这个问题和 GPT 聊了聊。
AI: 你感受到的冲突是结构性的:人的思维更像 DAG(有向无环图),而聊天窗口被设计成 log(线性日志)。
从实用层面,如果主题真的变了(认知上下文不同),可以新开窗口;如果只是岔开但想回来,则留在同一窗口,但用显式标注分支(例如“先开一个 branch:A,等下回到 main”)来让 AI 跟得上。
但这只是权宜之计。你真正想要的不是“多开窗口”,而是一个同一认知空间内可分叉、可回溯、可合并的交互方式。
有向无环图——非常贴切的表述。那么是什么驱动我们从这个节点跳跃到另一个节点呢?意义(我觉得是)。想起前几日看到的一篇文章,记录了这样一个故事:有一个人在做了脑部部分组织的切除手术后,他陷入了「选择困难」,因为切除的部分控制情绪与选择的关联。如果任何选择都不带有「偏见」,意味着任何事情都失去了意义,最终他的生活变得一团糟。
时间线性流逝,但任务与思考都不是线性的——它们会分叉、回溯、再合并。这里我想起之前写过的 📤 关于任务管理的一些思考。任务也分为有时间属性的日历事项和无时间属性的待办任务。不同的任务事件之间也并不是按照时间来依次处理的。如同思考也是,可以分叉、可以回溯、可以合并。
我们初步可以得出一些结论:
GPT 告诉我我需要的是:
一个既能对话、又是思维图谱、还能让 AI 理解结构的共享空间
我自己说的话:我需要的是一个能够洞悉我一切的「影子」。
看到 AI 给我第一个问题的回复以后,我突然想起我的思考和今年热门的「上下文工程」「智能体」、「大模型记忆功能」有何关联与区别。当下智能体在解决这些问题吗?记忆功能在解决什么问题?
GPT 告诉我:
上下文是一维的,但认知是多维的。
上下文工程:如何在有限的对话窗口中保留最重要的内容。
而人的思路会突然跳,但又想回到原主题,还希望 AI 能够记得「结构」,这是上下文的选择与组织问题。大模型就像计算机最初使用的「纸带」一样,把高维的思维压缩到了「一维」。在一条线上表述「多边形」甚至「立体图」。
智能体:给大模型这个大脑加上手脚,让其不再是「缸中之脑」。
智能体在处理任务时也会构思不同的思路和方案,但并不会维护所有的思考分支。
记忆:上下文终有限,放不下的内容放哪里?以后哪些内容还要用到?
记忆记录的还是内容,不是思维的现场。
这些似乎都没有回答:如何真正建模「思维结构本身」
AI 协作的下一阶段,与 AI 的交互,是不是应该更接近于人类的认知结构。
如何保留思维的形状?
GPT 在上一个话题末尾给我留的问题是:“如果真的要做你说的那种工具,它的上下文和记忆该长什么样?”
我说:你认为它的上下文和记忆应该是啥样?你觉得和 卢曼的卡片笔记法之间有何关联?他使用编码的方式编制起思维的网络。
聊着我突然想到了「卢曼」和他创造的「卡片笔记」。卢曼给大脑一个脚手架,让思想在脱离大脑以后,仍然可以保持可生长性。
我觉得上下文应该像「卡片笔记」,具有原子性,又通过「编码」与其他的「上下文」关联。它是一个个「思维图」,可以互相引用、互相链接、互相组合,形成「思维网络」。
人在思考的时候大概是这样的「我现在想到这个,是因为刚才我想到了 xx。也可能和很久以前我接触的 xx 有关」。这些想法在认知上是有指向性的。不是向量库、记忆、聊天记录能解决的。
编码=可以无限拓展的语义坐标系统。似乎就是我想要的「随时分支、随时回来」。那么 AI 能起什么作用呢?
卢曼的系统是动态人脑 + 静态卡片。由人来负责「卡片网」构建。
AI 的出现,这个系统变成了动态人脑 + 动态第二大脑 + 动态卡片。这张网不再只有一个维护者。思想可以和 AI 一起生长。
聊到这了,虽说最近在学习大模型的训练,不过还是对人与 AI 的思维区别好奇。
人 vs AI:思维差异不在“聪明”,而在“机制”
用我自己的理解转述一下 GPT 的回答。
人:意义驱动的游走
卢曼的卡片笔记就是把「想法现场」保存下来。
AI:概率驱动的激活
那么当“第二个思维者”不再是纸张,而是 AI,思维结构会发生哪些变化?AI 能否服务于人意义的跳跃?
未完待续!
这个思考也不是突然来的,也是我最近阅读的内容共同催化的内容,从 Susan 的「熵控制理论」,到 Notion CEO 的「透过后视镜看世界」,再到我几年前就了解的「卢曼卡片笔记法」、「时间—任务处理模型」。还有当下 AI 领域流行的「上下文工程」、「记忆」、「RAG」(有趣的是这段文字并不是我按顺序写的,而是写下的第三段内容)