Caveman — 让 AI 编程助手说"穴居人话"省 Token

> 一句话版本:一个 Claude Code 插件,让 AI 回答问题时去掉所有废话和客套话,只说重点,能省 65% 的输出 token,同时技术准确性完全不变。

项目信息
来源https://github.com/JuliusBrussee/caveman
作者Julius Brussee
许可证MIT
创建时间2026-04-04
语言Python
Stars6,466Forks 245

核心内容

Caveman 基于"LLM 说穴居人话也能保持技术准确性"这个病毒式观察,做成了一个一键安装的插件。核心思路:去掉 AI 回复中的客套话、填充词、hedging,只保留技术内容。

对比示例

正常"The reason your React component is re-rendering is likely because you're creating a new object reference on each render cycle. When you pass an inline object as a prop, React's shallow comparison sees it as a different object every time, which triggers a re-render. I'd recommend using useMemo to memoize the object."(1180 tokens)

Caveman"New object ref each render. Inline object prop = new ref = re-render. Wrap in useMemo."(159 tokens,省 87%)

三档强度

级别触发效果
Lite/caveman lite去掉填充词,保留语法,专业但精简
Full/caveman full默认模式,去冠词、碎片化、完整穴居人
Ultra/caveman ultra极限压缩,电报体,缩写一切

实际效果

任务正常 tokensCaveman tokens节省
React re-render bug1,180159-87%
PostgreSQL 连接池2,347380-84%
Docker 多阶段构建1,042290-72%
auth middleware 修复704121-83%
**平均****1,214****294****-65%**

Caveman Compress(输入端压缩)

除了输出压缩,还有配套工具压缩输入 token:

规则

内容处理方式
代码块✍️ 正常写
技术术语🧠 原样保留(polymorphism 还是 polymorphism)
错误信息📋 原样引用
Git commit / PR✍️ 正常写
冠词(a, an, the)💀 删掉
客套话💀 "Sure I'd be happy to" 消灭
Hedging💀 "It might be worth considering" 灭绝

科学依据

2026年3月论文 Brevity Constraints Reverse Performance Hierarchies in Language Models 发现:限制大模型简洁回答反而提升了 26 个百分点的准确率。啰嗦不等于好。

分析

优势

与 rtk 的区别

风险

与 Jay 的关联

评分

维度评分 (1-10)说明
创新性8简单粗暴但有效,有学术支撑
实用性8一行安装,立刻省钱
代码质量6简单 prompt 工程,非复杂系统
文档8README 写得有趣且详细
生态64 天新项目,但增长快
可维护性5个人项目,依赖 AI 工具 hook 稳定性
**总分****6.8**好玩又实用,值得装上试试