< img id="wx_img" src="https://www.qbitai.com/wp-content/uploads/imgs/qbitai-logo-1.png" width="400" height="400">

爆火GitHub!《生化危机》女主打造免费“AI记忆系统”

用上“记忆宫殿”,检索提升34%

起猛了,在GitHub刷到《生化危机》女主角的项目了!

Milla Jovovich,这位曾饰演爱丽丝的知名女星,最近和程序员老友及Claude一起,合造了一个AI记忆系统

这个系统历经几个月打磨,一亮相便在长期记忆基准测试LongMemEval中拿下“公开可查史上最高分”96.6%

而且发布即开源,所有人免费可用(注意还是本地可跑)。

当然,比成绩更有意思的,还是项目背后的设计思路:

就像它的代号MemPalace一样,这个项目以古希腊演说家惯常采用的“记忆宫殿法”为灵感来源,让AI通过“空间位置”来组织记忆——

Palace是包含所有知识的大房间、不同知识按主题放在不同Rooms中、每间房里储存着具体的Memories。

想要检索某样东西,就像在房间里行走,推开一扇扇门一样

凭借这种记忆结构,MemPalace的检索效率相比全局乱搜提高了约34%。

更重要的是,为了解决AI记忆难题,以前人们都在卷“让AI决定什么更值得记忆”,现在却不需要了。

用上MemPalace,你与AI进行的每一次对话,全部都能记,跨越几个月的都行(另一种形式的黑镜成真?)。

更更有意思的是,他们还专门给AI造了一种缩写语言AAAK

用上“记忆宫殿”,检索提升34%

来看更多MemPalace的信息。

在另一位作者Ben Sigman的形容中,和市面上已有的AI记忆系统相比,MemPalace的独特之处在于:

一是成绩最好,二是工作方式截然不同

除了在LongMemEval中(RAW模式)拿到史上最高分,它还在ConvoMem(侧重考短期记忆)和LoCoMo(侧重考几个月超长记忆)上分别斩获92.9%和100%的好成绩。

Ben甩出的部分测评成绩如下(任何人均可根据仓库提供的脚本进行测试):

需要注意,MemPalace不会将用户数据发送到云端,所有记忆处理都在本地完成。

这也从源头上降低了隐私泄露的风险——因为不论是对话内容的记录、结构化整理,还是后续的检索与调用,都不依赖远程服务器。

不止本地化,MemPalace还用上了“记忆宫殿法”这种类人记忆模式

和常见的向量数据库方案不同,MemPalace并不是简单把对话切片、Embedding,然后做相似度召回。

其核心在于,把记忆变成一个可导航的空间结构。

其中Wing(翅膀)代表一个人或一个项目,每一个展出去的翅膀都相当于一个独立空间。

这个独立空间中有很多Rooms,每一间Room代表一个具体主题(如认证、计费、部署等),所有信息将按主题归到不同房间。

连接不同房间的是Halls(走廊),它主要定义“这段记忆属于哪一类”(如建议、个人偏好、决策等),在主题之外给信息加上各种属性。

具体内容则分成两层存储:

抽屉(Drawers)里放原始记录,所有对话一字不动,完整封存;

衣柜(Closets)则放这些内容的压缩摘要,为AI快速读取而准备。

而当不同翅膀出现了相同的房间时,MemPalace就会自动打通Tunnels(隧道),以把分散在不同人、不同项目中的同一主题连接起来。

最终,在这套结构下,所有内容都可以在记忆宫殿里按路径查找。

这里作者还搞了两个实验验证了两件事:

  • 第一件:为什么说这种结构能将检索提升34%?
  • 第二件:记忆堆栈如何起作用的?(毕竟不是所有记忆每次都要全部加载)。

关于结构有多大作用,作者在22000多个真实对话中,直接对比了4种检索方式的效果:

全局乱搜、先限定在某个翅膀、再加一层走廊、再精确到房间。

结果发现,每多一层结构,就相当于缩小一次搜索空间以及增强一次语义约束,所以效果也越来越好。

在作者看来,宫殿结构本身,就是产品

至于什么时候找、找多少这类效率问题,作者则设计了一套重要程度由轻到重的记忆堆栈。

其中L0+L1属于“常驻选手”,总计约170 tokens,会在每一次对话中始终加载,让AI在“醒来”的那一刻,就已经具备最基本的自我认知和用户上下文。

L2、L3则按需触发,前者属于房间级召回,后者属于全局深度搜索。

整体逻辑是,先用最小成本理解你,不够再局部补充,还不够才全局搜索

这样设计带来的好处也很直接,不仅单次召回更准,而且长期记忆也更稳定了。

而说到长期记忆,作者也直接给MemPalace扔了6个月的对话内容,大约有1950万个tokens

简单换算一下,这相当于200~400本书,又或者一个拥有10~30个项目的中型代码库。

如此大体量,传统方法就不指望了(基本无法全部塞进上下文)。

用总结压缩的话,通常能压到65万tokens,年成本大约507美元(约合人民币3500多元),不过过程中往往会丢失信息。

而用MemPalace,平时仅需加载约170个tokens,按需加载也才13500个tokens,年成本直接砍到10美元,并且也不牺牲信息细节。

在这个意义上讲,MemPalace确实和传统记忆系统已经不在一个level了。

而MemPalace能做到信息准确的关键,作者也透露了两点。

一个就是我们开头提到的AI专属语言“AAAK”——不需要额外解码器,主流大模型都可以直接理解

因为大模型本质是“读token模式”的,废话越少、关键信息越集中,它反而看得更清楚。

尤其在表达大量重复实体时,AAAK能明显压缩token。

不过作者也说了,LongMemEval上AAAK模式的召回率是84.2%,而RAW模式是96.6%——差了12个多点。

所以,想保精度就老老实实用RAW模式,想省token且能接受一定信息损失再上AAAK。

另一个则是实时纠错,通过一个叫fact_checker.py的独立工具实现(集成中)。

未来上线后,遇到前后信息相互矛盾,MemPalace就能在生成结果前自动做一致性校验。

当你输入:Soren完成了身份验证迁移
MemPalace输出:身份验证迁移:任务归属冲突——被分配的人是Maya,不是Soren

而当MemPalace同时把长期记忆和准确性都兼顾下来,也就不难理解作者为什么敢喊出“当前最好的记忆系统”这样的口号了。

插一嘴,它的Logo也像一个简易版宫殿:

如何安装部署?

具体安装步骤和两种使用模式如下。

第一步:在终端中运行以下命令,通过pip安装MemPalace

pip install mempalace

第二步:初始化世界,创建一个属于你的记忆宫殿(以下命令会设置一个存放你所有记忆数据的主目录)。

mempalace init ~/projects/myapp

第三步:挖掘数据,把你的项目文件、聊天记录等喂给MemPalace,让它建立索引

根据数据类型,有三种模式可选:

(1)挖掘项目:适用于代码、文档和笔记。

mempalace mine ~/projects/myapp

(2)挖掘对话:适用于Claude、ChatGPT、Slack等导出的聊天记录。

mempalace mine ~/chats/ —mode convos

(3)通用挖掘:自动将内容分类为决策、里程碑、问题等。

mempalace mine ~/chats/ —mode convos —extract general

完成这三步,你的本地记忆宫殿就搭好了,所有数据都存储在本地,不会上传到云端。

接下来就是如何使用了。

一个是自动模式,适用于支持MCP工具调用的AI,只需一次连接即可:

claude mcp add mempalace -- python -m mempalace.mcp_server

连接完成后,AI就会自动调用MemPalace的检索工具。

另一个是手动增强模式,主要配合本地模型使用。

如果只是平时用用,用以下命令加载基础记忆即可(触发词,170个tokens)。

mempalace wake-up > context.txt

如果还有更多需求,则可以通过命令行按需检索相关记忆,并将结果手动注入到提示词中。

mempalace search "auth decisions" > results.txt

这里不想手动的,还可以使用Python API,直接在代码中完成检索与注入。

from mempalace.searcher import search_memories
results = search_memories("auth decisions", palace_path="~/.mempalace/palace")

天啦撸,在GitHub看见女明星了!

最后简单介绍下MemPalace的团队:一个架构师+一个程序员+Claude

架构师我们很熟悉,就是开头提到的女明星Milla Jovovich,她贡献了很多经典荧幕形象。

除了《生化危机》系列中的爱丽丝,她还饰演了知名科幻电影《第五元素》中的外星人leeloo、动作电影《三个火枪手》中的德文特夫人……

wait wait,你是说这样一位以演员身份示人的女明星,如今却和AI记忆系统挂上钩了吗?

只能说,虽然很反差,但事实确实如此。

而且通过Milla Jovovich的自述,她的这种跨界很早就开始了。

据悉,她私下一直在做一个大型游戏项目,但过程中遇到的一系列问题,让她意识到:

如何管理和利用信息,本身可能比项目更重要

于是她找到了自己相识20多年的老朋友——资深程序员Ben Sigman,决定研究一下这个问题。

直到6个月前,Ben给她讲了Claude Cli,于是她很快意识到:

对于一个热爱写作的创作者来说,AI已经可以把想法直接转化为可运行的系统。

于是“一个架构师+一个程序员”的组合就此成形。

在Milla Jovovich看来,当下AI的核心问题在于它只能基于已有信息工作,而真正的创新来自人类的想象力与持续探索

也正因如此,她和Ben希望通过开发MemPalace这样的系统,可以帮助开发者更好地利用已有知识,从而创造新的东西。

目前MemPalace在开源社区的热度正在飙升中,周二下午17:00看还只有3.3k star,现在已经飞涨至17.4k。

而且手快的网友已经给它做了一个前端:

GitHub:
https://github.com/milla-jovovich/mempalace

版权所有,未经授权不得以任何形式转载及使用,违者必究。

相关阅读