爆火GitHub!《生化危机》女主打造免费“AI记忆系统”
用上“记忆宫殿”,检索提升34%
起猛了,在GitHub刷到《生化危机》女主角的项目了!
Milla Jovovich,这位曾饰演爱丽丝的知名女星,最近和程序员老友及Claude一起,合造了一个AI记忆系统。
这个系统历经几个月打磨,一亮相便在长期记忆基准测试LongMemEval中拿下“公开可查史上最高分”96.6%。
而且发布即开源,所有人免费可用(注意还是本地可跑)。
当然,比成绩更有意思的,还是项目背后的设计思路:
就像它的代号MemPalace一样,这个项目以古希腊演说家惯常采用的“记忆宫殿法”为灵感来源,让AI通过“空间位置”来组织记忆——
Palace是包含所有知识的大房间、不同知识按主题放在不同Rooms中、每间房里储存着具体的Memories。
想要检索某样东西,就像在房间里行走,推开一扇扇门一样。
凭借这种记忆结构,MemPalace的检索效率相比全局乱搜提高了约34%。
更重要的是,为了解决AI记忆难题,以前人们都在卷“让AI决定什么更值得记忆”,现在却不需要了。
用上MemPalace,你与AI进行的每一次对话,全部都能记,跨越几个月的都行(另一种形式的黑镜成真?)。
更更有意思的是,他们还专门给AI造了一种缩写语言AAAK。
用上“记忆宫殿”,检索提升34%
来看更多MemPalace的信息。
在另一位作者Ben Sigman的形容中,和市面上已有的AI记忆系统相比,MemPalace的独特之处在于:
一是成绩最好,二是工作方式截然不同。
除了在LongMemEval中(RAW模式)拿到史上最高分,它还在ConvoMem(侧重考短期记忆)和LoCoMo(侧重考几个月超长记忆)上分别斩获92.9%和100%的好成绩。
Ben甩出的部分测评成绩如下(任何人均可根据仓库提供的脚本进行测试):
需要注意,MemPalace不会将用户数据发送到云端,所有记忆处理都在本地完成。
这也从源头上降低了隐私泄露的风险——因为不论是对话内容的记录、结构化整理,还是后续的检索与调用,都不依赖远程服务器。
不止本地化,MemPalace还用上了“记忆宫殿法”这种类人记忆模式。
和常见的向量数据库方案不同,MemPalace并不是简单把对话切片、Embedding,然后做相似度召回。
其核心在于,把记忆变成一个可导航的空间结构。
其中Wing(翅膀)代表一个人或一个项目,每一个展出去的翅膀都相当于一个独立空间。
这个独立空间中有很多Rooms,每一间Room代表一个具体主题(如认证、计费、部署等),所有信息将按主题归到不同房间。
连接不同房间的是Halls(走廊),它主要定义“这段记忆属于哪一类”(如建议、个人偏好、决策等),在主题之外给信息加上各种属性。
具体内容则分成两层存储:
抽屉(Drawers)里放原始记录,所有对话一字不动,完整封存;
衣柜(Closets)则放这些内容的压缩摘要,为AI快速读取而准备。
而当不同翅膀出现了相同的房间时,MemPalace就会自动打通Tunnels(隧道),以把分散在不同人、不同项目中的同一主题连接起来。
最终,在这套结构下,所有内容都可以在记忆宫殿里按路径查找。
这里作者还搞了两个实验验证了两件事:
- 第一件:为什么说这种结构能将检索提升34%?
- 第二件:记忆堆栈如何起作用的?(毕竟不是所有记忆每次都要全部加载)。
关于结构有多大作用,作者在22000多个真实对话中,直接对比了4种检索方式的效果:
全局乱搜、先限定在某个翅膀、再加一层走廊、再精确到房间。
结果发现,每多一层结构,就相当于缩小一次搜索空间以及增强一次语义约束,所以效果也越来越好。
在作者看来,宫殿结构本身,就是产品。
至于什么时候找、找多少这类效率问题,作者则设计了一套重要程度由轻到重的记忆堆栈。
其中L0+L1属于“常驻选手”,总计约170 tokens,会在每一次对话中始终加载,让AI在“醒来”的那一刻,就已经具备最基本的自我认知和用户上下文。
L2、L3则按需触发,前者属于房间级召回,后者属于全局深度搜索。
整体逻辑是,先用最小成本理解你,不够再局部补充,还不够才全局搜索。
这样设计带来的好处也很直接,不仅单次召回更准,而且长期记忆也更稳定了。
而说到长期记忆,作者也直接给MemPalace扔了6个月的对话内容,大约有1950万个tokens。
简单换算一下,这相当于200~400本书,又或者一个拥有10~30个项目的中型代码库。
如此大体量,传统方法就不指望了(基本无法全部塞进上下文)。
用总结压缩的话,通常能压到65万tokens,年成本大约507美元(约合人民币3500多元),不过过程中往往会丢失信息。
而用MemPalace,平时仅需加载约170个tokens,按需加载也才13500个tokens,年成本直接砍到10美元,并且也不牺牲信息细节。
在这个意义上讲,MemPalace确实和传统记忆系统已经不在一个level了。
而MemPalace能做到信息准确的关键,作者也透露了两点。
一个就是我们开头提到的AI专属语言“AAAK”——不需要额外解码器,主流大模型都可以直接理解。
因为大模型本质是“读token模式”的,废话越少、关键信息越集中,它反而看得更清楚。
尤其在表达大量重复实体时,AAAK能明显压缩token。
不过作者也说了,LongMemEval上AAAK模式的召回率是84.2%,而RAW模式是96.6%——差了12个多点。
所以,想保精度就老老实实用RAW模式,想省token且能接受一定信息损失再上AAAK。
另一个则是实时纠错,通过一个叫fact_checker.py的独立工具实现(集成中)。
未来上线后,遇到前后信息相互矛盾,MemPalace就能在生成结果前自动做一致性校验。
当你输入:Soren完成了身份验证迁移
MemPalace输出:身份验证迁移:任务归属冲突——被分配的人是Maya,不是Soren
而当MemPalace同时把长期记忆和准确性都兼顾下来,也就不难理解作者为什么敢喊出“当前最好的记忆系统”这样的口号了。
插一嘴,它的Logo也像一个简易版宫殿:
如何安装部署?
具体安装步骤和两种使用模式如下。
第一步:在终端中运行以下命令,通过pip安装MemPalace。
pip install mempalace
第二步:初始化世界,创建一个属于你的记忆宫殿(以下命令会设置一个存放你所有记忆数据的主目录)。
mempalace init ~/projects/myapp
第三步:挖掘数据,把你的项目文件、聊天记录等喂给MemPalace,让它建立索引。
根据数据类型,有三种模式可选:
(1)挖掘项目:适用于代码、文档和笔记。
mempalace mine ~/projects/myapp
(2)挖掘对话:适用于Claude、ChatGPT、Slack等导出的聊天记录。
mempalace mine ~/chats/ —mode convos
(3)通用挖掘:自动将内容分类为决策、里程碑、问题等。
mempalace mine ~/chats/ —mode convos —extract general
完成这三步,你的本地记忆宫殿就搭好了,所有数据都存储在本地,不会上传到云端。
接下来就是如何使用了。
一个是自动模式,适用于支持MCP工具调用的AI,只需一次连接即可:
claude mcp add mempalace -- python -m mempalace.mcp_server
连接完成后,AI就会自动调用MemPalace的检索工具。
另一个是手动增强模式,主要配合本地模型使用。
如果只是平时用用,用以下命令加载基础记忆即可(触发词,170个tokens)。
mempalace wake-up > context.txt
如果还有更多需求,则可以通过命令行按需检索相关记忆,并将结果手动注入到提示词中。
mempalace search "auth decisions" > results.txt
这里不想手动的,还可以使用Python API,直接在代码中完成检索与注入。
from mempalace.searcher import search_memories
results = search_memories("auth decisions", palace_path="~/.mempalace/palace")
天啦撸,在GitHub看见女明星了!
最后简单介绍下MemPalace的团队:一个架构师+一个程序员+Claude。
架构师我们很熟悉,就是开头提到的女明星Milla Jovovich,她贡献了很多经典荧幕形象。
除了《生化危机》系列中的爱丽丝,她还饰演了知名科幻电影《第五元素》中的外星人leeloo、动作电影《三个火枪手》中的德文特夫人……
wait wait,你是说这样一位以演员身份示人的女明星,如今却和AI记忆系统挂上钩了吗?
只能说,虽然很反差,但事实确实如此。
而且通过Milla Jovovich的自述,她的这种跨界很早就开始了。
据悉,她私下一直在做一个大型游戏项目,但过程中遇到的一系列问题,让她意识到:
如何管理和利用信息,本身可能比项目更重要。
于是她找到了自己相识20多年的老朋友——资深程序员Ben Sigman,决定研究一下这个问题。
直到6个月前,Ben给她讲了Claude Cli,于是她很快意识到:
对于一个热爱写作的创作者来说,AI已经可以把想法直接转化为可运行的系统。
于是“一个架构师+一个程序员”的组合就此成形。
在Milla Jovovich看来,当下AI的核心问题在于它只能基于已有信息工作,而真正的创新来自人类的想象力与持续探索。
也正因如此,她和Ben希望通过开发MemPalace这样的系统,可以帮助开发者更好地利用已有知识,从而创造新的东西。
目前MemPalace在开源社区的热度正在飙升中,周二下午17:00看还只有3.3k star,现在已经飞涨至17.4k。
而且手快的网友已经给它做了一个前端:
GitHub:
https://github.com/milla-jovovich/mempalace
- Meta亿元天团首个大模型交卷!余家辉宋飏Jason Wei耗时九个月,一雪Llama前耻2026-04-09
- 省token神器3天狂揽4.1k星!19岁小哥开发,信息无损最高省87%2026-04-08
- OpenAI又曝出内讧了!IPO前夜高层大换血2026-04-06
- 让离线强化学习从「局部描摹」变「全局布局」丨ICLR’262026-04-06




