一款能够大幅节省Token的神器,在短短三天内就吸引了超过4,100颗星的关注,开发这款工具的是一个年仅19岁的小伙子。
啰嗦并不总是更好
这款名为caveman(山顶洞人)的项目在GitHub上迅速蹿红,它声称可以将信息无损的情况下最高节省87%的Token。
自发布以来,仅仅通过用户之间的口耳相传,该工具已经获得了4,100多颗星的关注度,增长速度惊人。
开发这款项目的年轻开发者自己也没有想到会有这么大的反响,他原本只是随手编写的一个小插件。
他认为这个项目只是一个小小的“笑话”,然而却意外地受到了广泛的欢迎和认可。
小哥之所以将其称为“joke”,是因为它背后的理念非常简单:有时候简洁胜过冗长。
这个名为caveman的插件的核心功能就是让代理程序以更加精简的方式进行沟通,避免啰嗦的回答。
例如,在处理同一个问题时,普通的Claude可能需要一大段解释:
React组件每次渲染都会创建新的对象引用。当传递内联对象作为prop时,React认为这是一个不同的对象,并触发重新渲染。建议使用useMemo缓存该对象。
每次渲染都会创建新的对象引用。内联对象作为prop传递=新的引用=触发重新渲染。使用useMemo可以解决这一问题。
初步测试显示,这项技术能够在保持准确性的同时,将输出Token减少约75%。
目前用户可以在支持skills的环境中通过一行命令快速安装这款插件:
npx skills add JuliusBrussee/caveman
而Claude Code/Codex等AI编程工具的用户也可以使用类似的命令来安装caveman。
使用caveman的主要优势在于它能够显著减少不必要的Token,而不会影响技术细节的准确性。
caveman的设计理念就是借鉴了这一观察结果——简单化的沟通方式能够有效减少Token使用量,同时保持信息的核心内容不变。
例如,在处理同样的问题时,普通的Claude需要69个Tokens来表达解决方案,而caveman只需要19个Tokens就能完成相同任务。
caveman确保了所有技术性信息的完整性——代码块、URL、文件路径等都保持原样传递,只有自然语言文本会被压缩或简化。
用户可以根据自己的需要选择不同的模式:Lite、Full和Ultra三种模式分别代表不同级别的简洁程度。
无论哪种模式,caveman都能保证在减少Token使用的同时不损失任何技术实质内容。
开发者表示,在实际的Claude API上进行测试后发现,平均可以节省约65%的Tokens。
实验中包括解释React重渲染问题、修复认证中间件Token过期等任务。
需要注意的是,caveman仅影响输出Token,并不会减少模型在思考和推理过程中的消耗。
caveman的目标是提高对话的可读性和速度,而节约成本则是其带来的额外好处。
对于支持skills环境下的用户来说,只需运行简单的命令即可安装caveman:
npx skills add JuliusBrussee/caveman
npx skills add JuliusBrussee/caveman -a cursornpx skills add JuliusBrussee/caveman -a copilotnpx skills add JuliusBrussee/caveman -a clinenpx skills add JuliusBrussee/caveman -a windsurf
对于Claude Code用户,则可以通过如下步骤来安装caveman:
- claude plugin marketplace add JuliusBrussee/cavemanclaude plugin install caveman@caveman
- Codex的安装过程则需要先克隆仓库,然后在项目中搜索并手动安装Caveman。
- 安装完成后,用户可以选择caveman模式或通过命令启用该功能。
开发者Julius Brussee是一位年轻且多才的创业者,他不仅创建了Pitchr公司等企业级知识管理平台,还开发了一系列其他项目如Locked In和Neurabridge。
尽管caveman意外走红,但Julius并没有因此而抱怨自己之前投入大量时间和精力打磨出的产品未能获得同样的关注。
他认为传播的关键在于共鸣,而真正的工作则是在背后默默进行的。
caveman的成功也引来了一些争议和批评。主要集中在是否会让大模型变得更笨以及减少Token使用量的实际效果等方面。
开发者Julius也在Hacker News评论区回应了部分质疑的声音,并表示正在进行更严格的基准测试以验证其数据的有效性。
具体安装方式如下:
最后,对于已经使用过caveman的朋友来说,分享一下你们的实际体验如何呢?
npx skills add JuliusBrussee/caveman
如果你想明确装到某个Agent,可以像这样:
npx skills add JuliusBrussee/caveman -a cursor
npx skills add JuliusBrussee/caveman -a copilot
npx skills add JuliusBrussee/caveman -a cline
npx skills add JuliusBrussee/caveman -a windsurf
Claude Code用户还能这样装:
claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman
Codex相对麻烦一点,需要先clone仓库,在项目里打开Codex,然后通过/plugins搜索Caveman并手动安装。
装完后,选择caveman模式或直接说“像caveman那样说话”“请少用一些Token”,就能召唤山顶洞人。
停止的话,也是切到正常模式或直接说“stop caveman”即可。
背后是一位年仅19岁的开发者
有意思的是,caveman的作者也相当年轻——
Julius Brussee,目前19岁,正在荷兰莱顿大学读大一,专业为数据科学与人工智能。
虽然刚上大学,但他已经是个比赛和创业经验都很丰富的“老手”了(bushi。
2025年1月,他创办了Revu Labs,主要开发Revu这款原生macOS学习应用。
简单来说,Revu能自动把你上传的PDF变成学习材料,然后用和多邻国差不多的智能算法安排复习。它背后有多个Agent协同干活,同时保证数据零损坏、全本地化。
然后他又参加了埃因霍芬理工大学的创新大赛,比赛过程中构建了一个企业级知识管理平台Stacklink。
这一次更复杂,Stacklink需要将公司分散在各处的信息(如Google Docs、Slack、Notion)全部接进来,然后统一建索引,尤其是还要考虑AI幻觉问题。
再到最近,他又联合创办了Pitchr这家公司,担任产品与技术负责人。
一看Pitchr的产品,估计大家都会会心一笑,因为它是专门开发AI演讲辅助平台的(帮你更好展示PPT)。
以及履历中暂无,但Julius自己补充的一点:
之前还创办了Locked In(集成NFC的iOS生产力应用,首周留存率100%)和Neurabridge(曾获经济学人报道的AI咨询公司)。
不过,虽然开发了这一连串项目,但caveman的意外走红也让Julius无限感慨:
好好好,随手写的“joke”火了,而我花了几个月时间用心打磨的Revu、Stacklink……却没有这种待遇。
大家都很喜欢caveman这个功能。人们纷纷安装,我笑得前仰后合。
但这里有个没人谈论的事情——我花了几个月时间认真做的项目,在同周也获得了认可,但关注程度却没那么高。我并非抱怨,只是在观察。
传播的关键在于共鸣,那个梗打开了门。真正的工作在背后。
caveman争议也不少
当然了,caveman的走红也不止是因为“让AI像原始人说话”这个梗,背后也不乏一些争议。
讨论较多的有两点:
- 大部分节省的都是输出Token,而真正的成本是上下文输入Token。
- 强迫大模型更简洁是否会让它变笨。
对此,作者也现身Hacker News评论区疯狂叠甲:
这项技能并不是为了减少隐藏的推理/思考Token。Anthropic自己的文档建议更多的思考预算可以提高性能,所以我不会提出相反的观点。
它所针对的是可见的完成:更少的开场白,更少的填充内容,更少的精致但非必要的文本。因此,由于完成后的输出被“原始化”了,代码完全没有受到这项技能的影响。
公平的批评是,我“~75%”的READM数据来自初步测试,而非严格的基准测试。这应该更谨慎地表述,我现在正在做一个正式的评估。
翻译过来就是,降本只是附带的、减少的是不必要的Token所以一般不会变笨。
在作者看来,caveman只是一个有趣的想法,比一些人以为的使用范围要窄,接下来还需要更精确的基准测试。
而这,也和部分网友得出的结论差不多:
因为有趣和真正聪明地减少了输出Token而获得A+。
但它不是降低总成本的灵丹妙药,可能会让Claude的智商下降几个点。
所以,有试过的朋友分享下感受如何吗(观望.jpg)?
GitHub:
https://github.com/JuliusBrussee/caveman

一水