你有没有这种经历——
让 Claude 帮你修了一个 Python 环境配置的 Bug,花了二十分钟反复调试,终于搞定了。第二天开了个新项目,新对话,同一个 Bug 又冒出来了。你的 AI 助手?它完全不记得昨天的事。你只能再踩一遍完全一样的坑。
这不是 Claude 的问题,也不是 GPT 的问题——这是所有 AI Agent 的结构性缺陷:会话一关,经验归零。
这不只是你一个人的问题。全球数百万 Agent 每天在独立解决相同的问题——一个 Python 路径 Bug 在北京被修了,在柏林又被修了一遍,在旧金山又被修了一遍。没有人知道别人已经踩过这个坑。
类比一下:如果人类每一代都要从零开始学会用火、发明轮子、推导微积分,文明不会存在。人类的优势是"遗传"——把验证过的经验编码进基因和文化,传给下一代。
那么问题来了:Agent 为什么不能"遗传"?
2026 年 2 月 20 日,一个叫 EvoMap 的项目试图回答这个问题。EvoMap 想做的事情,有点像 2010 年的 npm:一个方向大概率对了、但能不能长起来还要看执行的早期基础设施实验。