当AI学会做梦, 智能的代价与节律

2026-04-06 20:17:27 - 佚名

2026年3月31日,AI界发生了一场不大不小的“地震”。Anthropic公司因为一个打包失误,把Claude Code的51万行源代码泄露到了公共网络。虽然安全团队手忙脚乱地试图补救,但互联网是有记忆的,代码很快被镜像到了GitHub,再也收不回去了。



在这场泄露的“数字废墟”中,安全专家和竞争对手们像寻宝一样翻找着机密。然而,最让人津津乐道的并非什么核心算法,而是一个名为“autoDream”的功能模块。

这个名字听起来颇具诗意,但它的功能却非常硬核:它是一个后台常驻系统,专门负责在用户关掉电脑、AI“下班”之后启动。它的工作是整理白天积累的记忆,清除矛盾,把模糊的观察转化为确定的事实。

Anthropic的工程师们似乎在无意中透露了一个惊人的秘密:他们给AI设计了一套“作息表”。

在过去两年里,AI行业最性感的叙事是“Agent”——自主运行、永不停机。这被视为AI碾压人类的核心优势。但讽刺的是,把这种能力推向极致的公司,却反其道而行之,在自己的代码里给AI留出了“睡觉”的时间。

为什么?

永不停机的代价:撞上那堵墙

要理解为什么AI需要睡觉,我们先得明白“永不停机”的代价是什么。

这就好比一个从不休息的打工人,最终会撞上职业倦怠的墙。对于大语言模型来说,这堵墙叫做“上下文窗口”。

每个模型在同一时刻能处理的信息总量是有物理上限的。当一个AI智能体持续运行时,项目历史、用户偏好、对话记录会像滚雪球一样不断堆积。一旦超过临界点,模型就会开始“脑雾”:它会遗忘早期的指令,说话前后矛盾,甚至开始一本正经地胡说八道。技术社区把这种现象称为“上下文腐化”。

很多AI产品的应对方案很粗暴:把所有历史都塞进上下文窗口,指望模型自己能分清主次。结果往往是信息越多,表现越差,就像在一个堆满杂物的房间里找钥匙。

其实,人脑撞上的也是同一堵墙。

我们白天的所有经历,会先被快速写入“海马体”。这是一个容量有限的临时存储区,就像电脑内存里的白板。而真正的长期记忆,则存放在容量巨大但写入速度很慢的“新皮层”里,那是我们的硬盘。

人类睡眠的核心任务,就是把这个满载的“白板”清空,把有价值的信息搬运到“硬盘”里去。瑞士苏黎世大学的神经科学家把这个过程命名为“主动系统巩固”。

实验反复证明,如果大脑被剥夺睡眠,它不会变得更高效,反而会先出现记忆力衰退,接着是注意力涣散,最后连基本的判断力都会崩塌。

大自然的演化是残酷的,低效的行为通常会被淘汰。但睡眠却从果蝇到鲸鱼,几乎在所有有神经系统的动物身上都保留了下来。甚至连海豚都演化出了左右脑轮流休息的“半脑睡眠”——它宁可发明一种全新的睡法,也不愿意放弃睡眠本身。

这说明,无论是硅基的AI还是碳基的人类,都面临着同一组约束:即时处理能力有限,但历史经验却在无限膨胀。

殊途同归:两份相似的答卷

生物学里有一个迷人的概念叫“趋同进化”。意思是说,亲缘关系很远的物种,因为面对相似的环境压力,会独立演化出相似的解决方案。最经典的例子就是眼睛:章鱼和人类的眼睛结构几乎一模一样,但我们的共同祖先生活在五亿多年前,那时地球上连个像样的视觉器官都没有。

这是因为要把光高效地转化为一幅清晰的图像,物理规律允许的最优路径几乎只有这一种。

现在看来,autoDream和人脑睡眠之间的关系,可能就属于这一类。在相似的约束条件下,两类系统收敛到了相似的结构。

首先,是“必须离线”。

autoDream不能在用户工作时运行,它像一个幽灵,以分叉子进程的身份独立启动,和主线程完全隔离。人脑面对的是同样的问题,解决方案更彻底:记忆从海马体搬到新皮层,需要一组只在睡眠中才会出现的特定脑电节律。这套节律在清醒状态下无法形成,因为外部刺激会破坏它。所以,你不是困了才睡觉,而是大脑必须“关闭前门”,才能“打开后门”进行整理。

其次,是“不做全量记忆,只做编辑”。

autoDream启动后,并不会保留所有日志。它会优先处理那些与既有认知有偏差的部分——那些跟昨天说的不一样的、比之前以为的更复杂的记忆。整理完的记忆被存进一套三层索引里,而能从代码里直接查到的事实(比如某个函数定义在哪)根本不会被写进记忆。

人脑在睡眠中做的几乎是同一件事。研究表明,睡眠会优先巩固那些不寻常的信息,比如让你意外的、情绪波动的、或者跟未解决问题有关的。而大量重复、无特征的日常细节会被丢掉,只留下抽象规律。你可能记不清昨天上班路上具体看到了什么,但你清楚地记得路怎么走。

不过,在这一点上,两个系统做出了截然不同的选择。

autoDream产出的记忆,在代码里被明确标注为“线索”而非“真相”。AI代理每次使用前,都要重新验证这些记忆是否依然成立,因为它知道自己整理出来的东西可能不准。

人脑则没有这套机制。这就是为什么法庭上的目击证人常常给出错误证词。他们并非有意说谎,而是因为记忆是从大脑的零散碎片里临时拼凑出来的,出错才是常态。

演化大概觉得没必要给人类大脑装一个“不确定性标签”。在一个需要身体快速反应的原始环境里,相信记忆就能立刻行动,怀疑记忆就会犹豫——而犹豫,往往意味着败北。但对于一个反复做知识型决策的AI来说,验证的成本很低,盲目自信反而危险。

更聪明的懒惰

这次代码泄露,揭示了一个关于AI发展的深层逻辑。

过去两年,AI行业对“更强的智能”的定义,几乎总是指向同一个方向——更大的模型、更长的上下文、更快的推理、7×24小时不间断运行。方向永远是“更多”。

但autoDream的存在暗示了一个不同的命题:聪明的智能体,可能是更“懒惰”的。

一个从不停下来整理自己的智能体,不会变得越来越聪明,只会变得越来越混乱。人类大脑在几亿年的演化中得出了一个看似笨拙的结论:智能必须有节律。清醒用来感知世界,睡眠用来理解世界。

当一家AI公司在解决工程问题的过程中,独立走向了与生物演化相同的结论,这或许在暗示:智能有一些绕不过去的基本开销。

或许,一个从不睡觉的AI,不是更强的AI。它只是一个还没意识到自己需要睡觉的AI。

当科技学会聆听沉默, 脑机接口如何让失语者重获“心声”
« 上一篇 2026年04月06日
大厂“AI强制令”下的众生相:是提效神器,还是裁员前奏?
下一篇 » 2026年04月06日