智东西于4月13日发布了一篇报道,YC总裁Garry Tan开源了一个名为“AI记忆外挂”的项目GBrain,并将其版本更新至0.9.0。
自从该项目在4月10日正式推出以来,在短短几天内,其GitHub页面已经收获了大约7,100颗星的热度。此系统旨在帮助用户收集和整理各种形式的数据信息。

GBrain的功能包括持续记录用户的笔记、会议纪要、电子邮件以及社交媒体互动等,并将这些数据整合进同一个系统中进行结构化处理与索引,从而实现快速检索及应用。
当累积的信息达到一定规模后,用户可以通过提问的方式直接调用过往的相关信息。常见的应用场景有追溯个人历史交流记录、梳理连续性的思考过程或提前准备会议所需背景资料等。
该项目解决了当前AI系统的一个普遍问题:记忆的持续性和连贯性不足。“长期记忆”能力正是GBrain所补充的部分,特别是对于那些已使用OpenClaw和Hermes等持续运行Agent的用户来说尤其有用。
它将分散的数据整合成一个可以被读取、写入并不断更新的“长期记忆层”。Garry Tan表示,这一系统的目标是使AI能够完整地保留上万份文档的记忆。
在分享GBrain时,他提到:“如果你希望你的Agent记住大量的文件资料,那么GBrain就是为此设计的。”并且他还指出,“它将帮助你构建属于自己的迷你AGI。”

新版本中增加了多项功能,如知识反向链接检查、自动修复LLM生成错误、结构化报告生成以及大文件分层上传等。此外,还加强了知识图谱的构建与长期维护机制。
对于那些已经部署了持续运行Agent(例如OpenClaw或Hermes)的用户而言,只需将指令交给Agent执行即可完成安装配置和数据导入过程。一个基础版本的“脑库”通常在30分钟左右就可以搭建完毕,而本地数据库则可以在几秒钟内初始化。
[略]
GBrain并非全新的项目,它源自于卡帕西提出的“大模型维基百科”。该项目的核心在于创建一套可以被Agent直接访问的长期记忆系统,以解决AI在个人数据层面的记忆缺失问题。
Garry Tan认为这套方案提供了一种最简单、最好的方法来构建个人化的AI系统。该系统的运行环境在其个人设备中已经稳定多年,并且能够管理超过一万个Markdown文档等多类信息。
在4月12日,Garry Tan发布了Skillpack配方、语音接入方案以及完整部署路径,使得用户可以在短时间内完成基础搭建并以“Personal AI软件”的形式呈现出来。
他还展示了GBrain在多个场景中的实际运行情况。该项目的灵感来自于卡帕西提出的LLM Wiki理念,并在此基础上进行了扩展与优化。
在数据快速增长之前,Garry Tan基于Karpathy的理念构建了一个以Markdown为核心的个人知识系统,但很快发现该方式难以支持大规模的数据管理和检索需求。

为了应对这一挑战,他引入了数据库和向量搜索等技术手段,并逐步演进出了GBrain方案。通过这些改进,GBrain能够在更大规模数据环境中提供高效的支持和服务。
GBrain是一个围绕“个人长期记忆”构建的完整Agent架构,它能够将从笔记到会议记录等各种形式的信息整合在一起并形成一个可以被查询和扩展的知识库。
在这个框架下,Garry Tan试图通过GBrain解决大模型生成与Agent执行之间存在的信息积累问题。虽然已经提供了一种相对完整的解决方案,但在实际应用中仍然存在一定的技术门槛。
总体而言,长期记忆系统已经有了可行的实现方式,但要达到更加便捷和广泛的使用效果,还需要进一步的研究和发展来降低其部署难度。对于未来的发展来说,简化部署流程将是重要的方向之一。

以上是对原文本的改写版本,保留了原来的编号格式以方便对照参考。如有需要,请告知我是否需要进一步修改或添加其他内容。
二、先别急着谈“记忆”,GBrain先把一套“脑子”搭出来
AI Agent也许已经很聪明,但它并不了解你的生活。会议、邮件、推文、日历事件、语音通话、原始想法,这些真正构成个人上下文的信息,过去大多散落在不同工具和不同账号里,模型每次对话都只能“临场发挥”,很难持续积累。
GBrain要做的,就是把这些数据统一流入一个可搜索的知识库,让Agent在每次回应前先读,在每次对话后再写,久而久之,这个系统逐渐形成对你个人世界的长期理解。
这一点也是GBrain的核心价值所在——长期记忆,其管理的是“world knowledge”,也就是人物、公司、会议、概念、交易和用户自己的想法。
Agent自身的memory_search更偏向操作状态,比如偏好、决策和配置;当前会话则负责处理即时上下文。以上两层分工之后,再由GBrain来承担“长期记忆”这一层。

三、30分钟上“脑”,部署、扩展和迁移一条路打通
如果用户已经有OpenClaw、Hermes Agent或其他持续运行的Agent,只需要把指令块丢进去,剩下的流程由Agent自己读文档、执行安装、询问API key并完成配置。

一套基础版“脑库”大约30分钟可以跑通,其中本地数据库PGLite在2秒内就能初始化,后续的schema建立、文档导入、embeddings生成和各类集成配置,则根据“脑库”大小不同,大约需要15到30分钟。
GBrain默认使用PGLite作为本地数据库方案。用户执行gbrain init之后,就能得到一个嵌入式的Postgres“脑库”,不需要单独购买服务器,也不要求先准备外部数据库,属于“零配置启动”。
如果后续“脑库”继续增长,比如超过1000份文件、需要多设备访问,或者要通过远程MCP给别的AI客户端调用,再用gbrain migrate –to supabase迁移到托管版Postgres。
这套方案既保留了本地部署的低门槛,也给大规模使用留出了升级空间。
此外,其搜索能力在不接OpenAI和Anthropic API key的情况下也能运行,但只能做关键词检索;接入OpenAI之后,才能启用向量搜索;补齐Anthropic之后,则可以进一步获得多查询扩展和更好的搜索质量。
目前,GBrain主要针对Claude Opus 4.6和GPT-5.4 Thinking这类frontier model测试,小模型大概率撑不起整套方案。
四、邮件、日历、电话都能往里灌,化身“个人脑库”
如果说本地Markdown和数据库是GBrain的底座,让这套系统真正活起来的,是GBrain持续“进数据”的配方体系——“Getting Data In”。
GBrain提供了一组recipes,让Agent自己读取安装说明、向用户索要凭据、校验授权并完成接入。从目前提供的方案看,GBrain已经覆盖了几个最核心的数据入口。

1、通过Credential Gateway可以接入Gmail和Google Calendar,把邮件和日历流入“脑库”;
2、通过X-to-Brain可以持续同步X上的timeline、提及和删除记录;
3、通过Meeting Sync可以将Circleback生成的会议转录写入人物和会议页面;
4、Voice-to-Brain则更进一步,允许用户通过Twilio和OpenAI Realtime搭一个真正能接电话的AI号码。电话打进来之后,Agent先读取来电者相关背景,再在通话结束后自动生成包含转录、实体识别和交叉引用的新页面。这套语音能力已经能在真实号码上运行,未知来电也可以被筛选。

这套接入机制最关键的地方,是它让记忆系统不再停留在一批静态文本上。邮件、会议、社交记录和电话,Agent每处理一次互动,就会把相关信息重新写回“脑库”。对用户来说,这种体验和传统知识管理软件或许已经不太一样了。
五、记忆开始“滚雪球”,Agent用得越久信息越完整
在项目中,Garry Tan将一道机制称为“The Compounding Thesis(复利式记忆机制)”。
当新的信息进入系统后,Agent会先识别其中涉及的人物、公司和概念,再优先到“脑库”中检索相关内容,结合已有上下文完成回应,随后把这次新增的信息写回脑库,并同步更新索引。
这个“读取—写入—更新”的循环不断重复之后,系统逐渐形成连续的上下文积累,Agent也不再依赖单次对话的信息,而是可以调动历史数据完成判断。
Garry Tan也给出了一些典型使用场景。比如,“我该邀请谁来吃饭,同时认识Pedro和Diana?”,背后依赖的是数千个人物页面及其关系网络的交叉调用。
再比如,“我过去是怎么谈‘羞耻感与创始人表现之间关系’的?”,检索范围来自用户自身过往的记录和思考。
在更贴近日常使用的场景中,如果30分钟后要与Jordan见面,系统可以提前整理该人物的资料、过往互动记录、近期动态以及未完成事项,生成一份会前brief。此类能力依赖的是前期持续沉淀的数据,在需要时被重新调取和组合。
为了让这套机制能够稳定运行,GBrain在知识组织结构上也做了相应设计。每个页面被划分为“compiled truth”和“timeline”两部分。前者记录当前阶段对某个人、公司或概念的综合理解,后者按时间顺序追加事件、来源与变化轨迹。
Garry Tan对此称:“综合结论是答案,时间线是证据”。这一设计让系统在不断更新认知的同时,也保留了信息来源和演变路径。对于长期记忆系统来说,这种结构更有利于持续修正与复盘,而不是简单叠加记录。
六、30个工具之外,“怎么用”尤为重要
GBrain是一个开源仓库,包含CLI、MCP server、TypeScript库,以及一整套命令与接口。但进一步展开可以发现,这个项目的重点并不只在工具本身,还包括一整套明确的使用方式。
其中,GBRAIN_SKILLPACK.md被放在核心位置。相比列出有哪些能力,这份文档更多在规定Agent的行为方式,包括什么时候读取“脑库”、什么时候写入信息、如何做数据富化,以及如何维护整个系统的状态。
这一设计让GBrain和常见的功能型项目有所区分。项目中不仅提供了30多个MCP工具,还将brain-agent loop、实体检测、会议写入、来源追踪、定时巡检以及夜间“dream cycle”等运行逻辑一并写入Skillpack中。
具体来看,系统要求Agent在每次消息到来时优先进行brain-first lookup,对新出现的人物、公司和概念进行实体捕捉,并以固定周期执行数据同步与embedding更新。同时,还设定了每日更新检查与夜间批处理流程,用于补全实体、修复引用并整理已有记忆。
在这一套机制下,GBrain将一整套长期运行的流程固化下来,让Agent在使用过程中持续积累、整理并更新信息。
也正因为如此,GBrain更接近一套Agent基础设施。它既可以独立作为CLI工具使用,也支持通过MCP接入Claude Code、Cursor、Windsurf等客户端,并可通过远程MCP服务实现跨设备访问。
对于OpenClaw或Hermes这类持续运行的Agent,它承担的是长期知识层的角色;对于其他MCP客户端,则提供一个可查询、可修改、可扩展的个人知识库。
从整体结构来看,Garry Tan此次开源的GBrain是一套围绕“个人长期记忆”构建的完整实现框架。
结语:长期记忆有了新方案,但门槛还在
在现有体系中,大模型负责生成,Agent负责执行,但跨任务、跨时间的信息积累,一直缺乏稳定方案。上下文会被截断,memory更多停留在偏好与配置层,很多信息难以自然延续。
GBrain提供了一种相对完整的方法:把分散数据持续写入、结构化整理,并在后续反复调用。这套机制本身并不“轻量”,对模型能力、数据规模和系统运行都有一定要求。
从这个角度看,长期记忆这件事已经有了可以运行的版本,但距离“随手可用”的形态,还有一段距离。对更广泛的用户来说,一个更轻量、更易部署的方案,可能仍然是接下来需要被解决的问题。
