| 失效链接处理 |
|
能让你的 AI 编程 Token 降低 60% 以上的开源神器:目前 GitHub 狂揽约 4.2 万星标
相关截图:
![]() 主要内容:
如果你经常用 Claude Code、Cursor、Gemini CLI、Codex 之类的工具写代码,你一定遇到过这种尴尬:模型明明只是想看一眼 git status、cargo test 或一大段 grep 结果,结果却要把 整段终端输出 搬进上下文里。输出越长,账单越疼,上下文也越容易被“噪声”占满。
今天要聊的 rtk-ai/rtk,就是一个定位非常“朴素却致命”的开源项目:在命令输出进入大模型之前,先做过滤、聚合、截断与去重,把常见开发命令的返回内容压缩到模型真正需要的那部分。项目在 GitHub 上已经积累了 约 4.2 万个 Star(热度仍在快速上升),自称在常见工作流里可以把 LLM 相关的 token 消耗降下来 大约 60%~90%——具体幅度当然取决于你的仓库规模、命令频率和输出形态,但思路本身非常清晰:别喂模型“整包饲料”,先压缩成“高密度信息”。
先说结论:它到底解决什么问题
在日常 AI 编程里,“模型执行命令”的成本常常不是 命令本身,而是 命令输出。尤其当你反复跑测试、lint、构建日志、目录树、git diff 时,输出里大量重复行、无关 banner、以及过长路径,会迅速挤占上下文窗口,并且按 token 计费的产品还会直接反映到费用上。
RTK 要做的,就是把这类输出在进入模型前做一次 针对性瘦身。它不是替代你的 shell,也不是替代模型;它更像一个站在中间的 CLI 代理,把“终端返回给 AI 的内容”变得短、准、可追踪。
RTK 是什么
RTK(仓库里也常被称作 Rust Token Killer)是一个用 Rust 实现的高性能命令行工具:单个二进制、对外宣称零额外依赖(针对工具分发形态而言),并且内置对 100+ 常见开发命令的过滤与压缩策略。项目主页见:https://github.com/rtk-ai/rtk,官方文档站点见:https://www.rtk-ai.app。
你也可以把它理解成:当你让 AI 执行 bash 命令时,终端仍跑真正的 git / cargo / pytest,但 返回给模型的文本 会先经过 RTK 的规则处理。
它如何工作:中间层代理 + 命令级优化策略
官方 README 里把它概括成四条主要手段(对不同命令类型的组合程度不同):
智能过滤:去掉噪声,例如冗余注释样式信息、无关紧要的空行、bootstrap 话术等。
分组聚合:把同质信息合并,例如同类错误归类、同类文件归类展示。
截断保留:宁可少而精,也把“最关键的上下文骨架”留下来。
去重重叠:对重复刷屏的日志进行折叠,并附带计数摘要。
从整体链路看,可以理解为模型仍然发出 git status 之类指令,但经过 hook 重写后执行的是 rtk 包装版本,从而让模型拿到的返回更短:
这里有一个非常关键、也非常“现实”的细节:hook 通常只作用于 Bash 工具调用。如果某些 AI 产品内置了 Read、Grep、Glob 这类不走 bash 的路径,它们可能 不会自动被 RTK 重写。官方也建议:在这些场景下改用 shell 的 cat/head/tail、rg/grep、find,或者显式调用 rtk read、rtk grep、rtk find。 |


苏公网安备 32061202001004号
