Java知识分享网 - 轻松学习从此开始!    

Java知识分享网

        
AI编程,程序员挑战年入30~100万高级指南 - 职业规划

Java、Python项目定制找Java1234_小锋老师,专业又靠谱 QQ:3320160706

SpringBoot+SpringSecurity+Vue权限系统高级实战课程        

Java微信小程序电商实战课程(SpringBoot+VUe)

     

AI人工智能学习大礼包

     

PyCharm永久激活

66套java实战课程无套路领取

     

Cursor+Claude AI编程 1天快速上手视频教程

     
当前位置: 主页 > Java文档 > 人工智能AI >

能让你的 AI 编程 Token 降低 60% 以上的开源神器:目前 GitHub 狂揽约 4.2 万星标


时间:2026-05-09 09:16来源:http://www.java1234.com 作者:小锋  侵权举报
能让你的 AI 编程 Token 降低 60% 以上的开源神器:目前 GitHub 狂揽约 4.2 万星标
失效链接处理
能让你的 AI 编程 Token 降低 60% 以上的开源神器:目前 GitHub 狂揽约 4.2 万星标

 
 
相关截图:
 


主要内容:
 
如果你经常用 Claude Code、Cursor、Gemini CLI、Codex 之类的工具写代码,你一定遇到过这种尴尬:模型明明只是想看一眼 git status、cargo test 或一大段 grep 结果,结果却要把 整段终端输出 搬进上下文里。输出越长,账单越疼,上下文也越容易被“噪声”占满。
 
今天要聊的 rtk-ai/rtk,就是一个定位非常“朴素却致命”的开源项目:在命令输出进入大模型之前,先做过滤、聚合、截断与去重,把常见开发命令的返回内容压缩到模型真正需要的那部分。项目在 GitHub 上已经积累了 约 4.2 万个 Star(热度仍在快速上升),自称在常见工作流里可以把 LLM 相关的 token 消耗降下来 大约 60%~90%——具体幅度当然取决于你的仓库规模、命令频率和输出形态,但思路本身非常清晰:别喂模型“整包饲料”,先压缩成“高密度信息”。

先说结论:它到底解决什么问题
 
在日常 AI 编程里,“模型执行命令”的成本常常不是 命令本身,而是 命令输出。尤其当你反复跑测试、lint、构建日志、目录树、git diff 时,输出里大量重复行、无关 banner、以及过长路径,会迅速挤占上下文窗口,并且按 token 计费的产品还会直接反映到费用上。
 
RTK 要做的,就是把这类输出在进入模型前做一次 针对性瘦身。它不是替代你的 shell,也不是替代模型;它更像一个站在中间的 CLI 代理,把“终端返回给 AI 的内容”变得短、准、可追踪。
 
RTK 是什么
 
RTK(仓库里也常被称作 Rust Token Killer)是一个用 Rust 实现的高性能命令行工具:单个二进制、对外宣称零额外依赖(针对工具分发形态而言),并且内置对 100+ 常见开发命令的过滤与压缩策略。项目主页见:https://github.com/rtk-ai/rtk,官方文档站点见:https://www.rtk-ai.app。
 
你也可以把它理解成:当你让 AI 执行 bash 命令时,终端仍跑真正的 git / cargo / pytest,但 返回给模型的文本 会先经过 RTK 的规则处理。

它如何工作:中间层代理 + 命令级优化策略
 
官方 README 里把它概括成四条主要手段(对不同命令类型的组合程度不同):
 
智能过滤:去掉噪声,例如冗余注释样式信息、无关紧要的空行、bootstrap 话术等。
 
分组聚合:把同质信息合并,例如同类错误归类、同类文件归类展示。
 
截断保留:宁可少而精,也把“最关键的上下文骨架”留下来。
 
去重重叠:对重复刷屏的日志进行折叠,并附带计数摘要。
 
从整体链路看,可以理解为模型仍然发出 git status 之类指令,但经过 hook 重写后执行的是 rtk 包装版本,从而让模型拿到的返回更短:

这里有一个非常关键、也非常“现实”的细节:hook 通常只作用于 Bash 工具调用。如果某些 AI 产品内置了 Read、Grep、Glob 这类不走 bash 的路径,它们可能 不会自动被 RTK 重写。官方也建议:在这些场景下改用 shell 的 cat/head/tail、rg/grep、find,或者显式调用 rtk read、rtk grep、rtk find。




------分隔线----------------------------


锋哥推荐