Cointime

扫码下载App
iOS & Android

AI 时代的省钱哲学:如何把每一个 Token 花在刀刃上

在那个按字收费的电报年代,笔墨即是金钱。人们习惯将万语千言浓缩至极致,「速归」抵得过一封长信,「平安」是最重的叮咛。

后来,电话牵进了家门,但长途费按分秒计费。父母的长途电话总是言简意赅,正事说完便匆匆挂断,一旦话头稍微延展,心疼话费的念头便会掐断刚冒头的寒暄。

再后来,宽带进家,上网按小时收费,人们盯着屏幕上的计时器,网页一开即关,视频只敢下载,流媒体在当时是个奢侈的动词。每一个下载进度条的尽头,都藏着人们对「连接世界」的渴望与对「余额不足」的忌惮。

计费的单位变了又变,省钱的本能亘古不变。

如今,Token 成了 AI 时代的货币。然而,大多数人尚未学会如何在这个时代精打细算,因为我们还没学会如何在看不见的算法里计算得失。

2022 年 ChatGPT 刚出来的时候,几乎没人关心 Token 为何物。那是 AI 的大锅饭时代,每月花个 20 美元,想聊多少聊多少。

但自从最近 AI Agent 火起来之后,Token 花销变成了每一个用 AI Agent 的人都必须关注的事情。

不同于一问一答的简单对话,一个任务流的背后是成百上千次的 API 调用,Agent 的独立思考是有代价的,每一次自我修正、每一次工具调用,都对应着账单上数字的跳动。然后你会发现你充值进去的钱突然就不够用了,而且你还不知道 Agent 到底都干了什么。

现实生活里,大家都知道怎么省钱。去菜市场买菜,我们知道把带泥的烂叶子择干净再上秤;打车去机场,老司机知道避开早高峰的高架。

数字世界里的省钱逻辑其实也一样,只不过计费单位从「斤」和「公里」,换成了 Token。

在过去,节省是由于匮乏;而在 AI 时代,节省是为了精准。

我们希望通过这篇文章,帮你梳理出一套 AI 时代下的省钱方法论,让你把每一分钱都花在刀刃上。

上秤前,先择掉烂菜叶

在 AI 时代,信息的价值不再由广度决定,而由纯度决定。

AI 的计费逻辑是按它阅读的字数收费。无论你喂进去的是真知灼见,还是毫无意义的格式废话,只要它读了,你就得付钱。

因此,省 Token 的第一个思维方式,就是把「信噪比」刻进潜意识。

你喂给 AI 的每一个字、每一张图、每一行代码,都要付钱。所以在把任何东西交给 AI 之前,记得先问问自己:这里面有多少是 AI 真正需要的?有多少是带泥的烂菜叶?

比如「你好,请帮我...」这种冗长的开场白、重复的背景介绍、没删干净的代码注释,都是带泥的烂菜叶。

除此之外,最常见的浪费,是直接把 PDF 或网页截图扔给 AI。这样的确你自己是省事了,但是 AI 时代的「省事」往往意味着「昂贵」。

一份格式完整的 PDF,除了正文内容,还包含页眉、页脚、图表标注、隐藏水印,以及大量用于排版的格式代码。这些东西对 AI 理解你的问题毫无帮助,但它们全部都要计费。

下次记得把 PDF 先转成干净的 Markdown 文本再喂给 AI。当你把 10MB 的 PDF 变成 10KB 的干净文本时,你不仅省下了 99% 的钱,还让 AI 的大脑运行速度比以前快得多。

图片是另一个吞金兽。

在视觉模型的逻辑里,AI 并不在乎你的照片拍得美不美,它只在乎你占用了多少像素面积。

以 Claude 的官方计算逻辑为例:图片的 Token 消耗 = 宽度像素 × 高度像素 ÷ 750。

一张 1000×1000 像素的图片,消耗约 1334 个 Token,按 Claude Sonnet 4.6 的定价折算,每张图片约 0.004 美元;

但如果把同一张图压缩到 200×200 像素,只消耗 54 个 Token,成本降到 0.00016 美元,差了整整 25 倍。

很多人直接把手机拍的高清照片、4K 截图扔给 AI,殊不知这些图片消耗的 Token 可能足以让 AI 读完大半本中篇小说。如果任务只是识别图片里的文字或者做简单的视觉判断,比如让 AI 识别发票上的金额、阅读说明书里的文字,或者判断图中是否有红绿灯,那么 4K 的分辨率就是纯纯的浪费,把图片压缩到最小可用分辨率就够了。

但输入端最容易浪费 Token 的原因,其实不是文件格式,而是低效的说话方式。

很多人把 AI 当成真人邻居,习惯用社交式的碎碎念去沟通,先丢一句「帮我写个网页」,等 AI 吐出个半成品,再补充细节,再反复拉扯。这种挤牙膏式的对话,会让 AI 反复生成内容,每一轮修改都在叠加 Token 消耗。

腾讯云的工程师在实践中发现,同样一个需求,挤牙膏式的多轮对话,最终消耗的 Token 往往是一次性说清楚的 3 到 5 倍。

真正的省钱之道,是放弃这种低效率的社交试探,一次性把要求、边界条件、参考范例说清楚。少去费力解释「不要做什么」,因为否定句往往比肯定句消耗更多的理解成本;直接告诉它「要怎么做」,并给出一个清晰的正确示范。

同时,如果你知道目标在哪里,就直接跟 AI 说清楚,别让 AI 去当侦探。

当你命令 AI「找一下用户相关的代码」时,它必须在后台进行大规模的扫描、分析与猜测;而当你直接告诉它「去看 src/services/user.ts 这个文件」时,Token 的消耗天差地别,在数字世界里,信息对等就是最大的节约。

别为 AI 的「礼貌」买单

大模型计费有个潜规则很多人没意识到:输出 Token 通常比输入 Token 贵 3 到 5 倍。

也就是说,AI 说出来的话,比你说给它的话要贵得多。以 Claude Sonnet 4.6 的定价为例,输入每百万 Token 仅需 3 美元,而输出则陡然跳升至 15 美元,整整 5 倍的价差。

那些「好的,我已完全理解您的需求,现在开始为您解答……」的礼貌开场白,那些「希望以上内容对您有所帮助」的客套结尾,在真人沟通时是礼貌的社交辞令,但是在 API 的账单上,这些毫无信息增量的寒暄也都是要花你自己的钱的。

解决输出端浪费最有效的手段,是给 AI 立规矩。用系统指令明确告诉它:不要寒暄,不要解释,不要复述需求,直接给答案。

这些规矩只需设定一次,便在每一次对话中生效,是真正「一次投入、永久受益」的理财手段。但在建立规矩时,很多人又陷入了另一个误区:用冗长的自然语言去堆砌指令。

工程师的实测数据表明,指令的效能不在于字数,而在于密度。将一段 500 字的系统提示词压缩到 180 字,通过删掉无意义的礼貌用语、合并重复指令、并将段落重构为简洁的条目化清单,AI 的输出质量几乎毫无波动,但单次调用的 Token 消耗却能骤降 64%。

还有一个更主动的控制手段,那就是限制输出长度。很多人从来不设置输出上限,任由 AI 自由发挥,这种对表达权的放任,往往会导致极度的成本失控。你或许只需要一个点到为止的短句,AI 却为了展现某种「智力诚意」,不由分说地为你生成了一篇 800 字的小作文。

如果你追求的是纯粹的数据,就应当强制 AI 返回结构化的格式,而非冗长的自然语言描述。在承载同等信息量的情况下,JSON 格式的 Token 消耗远低于散文化的段落。这是因为结构化数据剔除了所有冗余的连接词、语气词及解释性修饰,只保留了高浓度的逻辑核心。在 AI 时代,你应该清醒地意识到,值得你付费的是结果的价值,而非 AI 那段毫无意义的自我解释。

除此之外,AI 的「过度思考」也在疯狂蚕食你的账户余额。

一些高级模型有「扩展思考」模式,会在回答之前先进行海量的内部推理。这个推理过程也要计费,而且是按输出的价格来计价的,非常贵。

这种模式本质上是为「需要深度逻辑支撑的复杂任务」设计的。但是大多数人在问简单问题的时候也选择了这个模式。对于不需要深度推理的任务,明确告诉 AI「不需要解释思路,直接给答案」,或者手动关掉扩展思考,也能帮你省不少钱。

别让 AI 翻旧账

大模型没有真正的记忆,它只是在疯狂地翻旧账。

这是很多人不知道的一个底层机制。每次你在一个对话窗口里发出新消息,AI 并不是从你这句话开始理解,而是把你们之前聊过的所有内容,包括每一轮对话、每一段代码、每一份引用文档全部重新读一遍,然后才回答你。

在 Token 的账单里,这种「温故而知新」绝非免费。随着对话轮次的叠加,哪怕你只是追问一个简单的词,AI 背后重读整本旧账的成本也会呈几何倍数增长。这种机制决定了,对话历史越沉重,你的每一句提问就越昂贵。

有人追踪了 496 个包含 20 条以上消息的真实对话,发现第 1 条消息平均读取 14,000 个 Token,每条成本约 3.6 美分;到第 50 条消息时,平均读取 79,000 个 Token,每条成本约 4.5 美分,贵了整整 80%。而且上下文越来越长,到第 50 条时,AI 要重新处理的上下文已经是第 1 条时的 5.6 倍。

解决这个问题,最简单的习惯是:一个任务,一个对话框。

当一个话题聊完,果断开启新对话,不要把 AI 当成一个永远不关机的聊天窗口。这个习惯听起来很简单,但很多人就是做不到,总觉得「万一还要用到之前的内容呢」。事实上,那些你担心的「万一」绝大多数时候是不会出现的,而为了这个万一,你已经在每一条新消息上多付了几倍的钱。

当对话确实需要延续,但上下文已经变得很长时,我们可以利用一些工具的压缩功能。Claude Code 有一个 /compact 命令,能把长篇大论的对话历史浓缩成一段简短的摘要,帮你做一次赛博断舍离。

还有省钱逻辑叫 Prompt Caching(提示词缓存)。如果你反复使用同一段系统提示词,或者每次对话都要引用同一份参考文档,AI 会把这部分内容缓存起来,下次调用时只收取很少的缓存读取费用,而不是每次都按全价计费。

Anthropic 的官方定价显示,缓存命中的 Token 价格是正常价格的 1/10。OpenAI 的 Prompt Caching 同样能把输入成本降低大约 50%。一篇 2026 年 1 月发表在 arXiv 上的论文,对多个 AI 平台的长任务进行了测试,发现提示词缓存能把 API 成本降低 45% 到 80%。

也就是说,同样的内容,第一次喂给 AI 要付全价,之后每次调用只要付 1/10。对于那些每天都要重复使用同一套规范文档或系统提示词的用户来说,这个功能能省下大量 Token。

但 Prompt Caching 有一个前提,你的系统提示词和参考文档的内容和顺序必须保持一致,而且要放在对话的最前面。一旦内容有任何改动,缓存就会失效,重新按全价计费。所以,如果你有一套固定的工作规范,就把它写死,不要随意修改。

最后一个上下文管理的技巧,是按需加载。很多人喜欢把所有的规范、文档、注意事项一股脑塞进系统提示词里,理由还是那个「以防万一」。

但这样做的代价是,你明明只是在做一个很简单的任务,却被迫加载了几千字的规则,白白浪费一堆 Token。Claude Code 的官方文档建议把 CLAUDE.md 控制在 200 行以内,把不同场景的专项规则拆分成独立的技能文件,用到哪个场景才加载哪个场景的规则。保持上下文的绝对纯净,就是对算力最高级的尊重。

别开保时捷去买菜

不同的 AI 模型,价格差距巨大。

Claude Opus 4.6 每百万 Token 输入要 5 美元、输出 25 美元,Claude Haiku 3.5 只要 0.8 美元输入、4 美元输出,差了将近 6 倍。让最顶级的模型去干搜集资料、排版格式的杂活,不仅慢,而且很贵。

聪明的用法是把我们人类社会常见的「阶级分工」思维带到 AI 社会,不同难度的任务,交给不同价位的模型。

就像在现实世界里雇人干活,你不会专门去雇一个年薪百万的专家去工地搬砖。AI 也一样。Claude Code 的官方文档里也明确建议:Sonnet 处理大多数编程任务,Opus 留给复杂的架构决策和多步骤推理,简单的子任务指定用 Haiku。

更具体的实操方案是构建「两段式工作流」。在第一阶段,用免费或廉价的基础模型做前期的脏活累活,比如资料搜集、格式清理、初稿生成、简单的分类和归纳。进入第二阶段,再将提炼后的高纯度精华投喂给顶级模型,进行核心决策与深度精修。

举个例子,如果你要分析一份 100 页的行业报告,可以先用 Gemini Flash 把报告里的关键数据和结论提取出来,整理成一份 10 页的摘要,然后再把这份摘要交给 Claude Opus 做深度分析和判断。这种两段式工作流,能在保证质量的前提下,把成本大幅压缩。

比单纯的分段处理更进阶的,是基于任务解构的深度分工。一个复杂的工程任务,完全可以被拆解为数个彼此独立的子任务,并匹配最合适的模型。

比如一个需要写代码的任务,可以让廉价模型先写框架和样板代码,然后只把核心逻辑的部分交给昂贵模型来实现。每个子任务有干净、专注的上下文,结果更准确,成本也更低。

你本来不需要花 Token

前面所有的探讨,本质上都在解决「如何省钱」的战术问题,但一个更底层的逻辑命题被很多人忽视了:这个动作,到底需不需要花 Token?

最极致的节省不是算法的优化,而是决策的断舍离。我们习惯了向 AI 寻求万能的解答,却忘了在很多场景下,调用昂贵的大模型无异于高射炮打蚊子。

比如让 AI 自动处理邮件,它会把每一封邮件都当成独立任务去理解、分类、回复,Token 消耗巨大。但如果你先花 30 秒扫一眼收件箱,手动筛掉那些明显不需要 AI 处理的邮件,再把剩下的交给 AI,成本立刻降到原来的一小部分。人的判断力在这里不是障碍,而是最好用的过滤器。

电报时代的人知道,每多发一个字要多花多少钱,所以他们会掂量,这是一种对资源的直觉感知。AI 时代也一样,当你真正知道每让 AI 多说一句话要多花多少钱,你自然就会掂量这件事值不值得让 AI 来做、这个任务需要顶级模型还是廉价模型、这段上下文还有没有用。

这种掂量,是最省钱的能力。算力越来越贵的时代,最聪明的用法,不是让 AI 替代人,而是让 AI 和人去干各自擅长的事。当这种对 Token 的敏感性内化为一种条件反射,你才真正从算力的附庸,变回了算力的主人。

评论

所有评论

推荐阅读

  • 美参议院批准凯文·沃什出任美联储主席

    5月14日,美国参议院以54票对45票通过确认沃什出任美联储主席。参议院此前已于12日批准沃什担任美联储理事,为期14年。随着13日主席任命获得通过,沃什将在完成白宫相关签署程序后正式履职,接替任期将于本周五(5月15日)结束的现任主席鲍威尔。不过,鲍威尔预计仍将继续留任美联储理事。此次投票是历史上党派分歧最严重的一次:仅有一位民主党人——宾夕法尼亚州参议员约翰·费特曼——与共和党多数派一同投了赞成票。

  • 英伟达股价续创记录新高 总市值达到5.5万亿美元

    5月13日电,美股盘初,英伟达股价上涨2.85%,报227.080美元/股,续创记录新高,总市值报5.50万亿美元。

  • BTC跌破80000美元

    行情显示,BTC跌破80000美元,现报79998.07美元,24小时跌幅达到1.06%,行情波动较大,请做好风险控制。

  • 美国总统特朗普将抵达北京

    5月13日傍晚,美国总统特朗普乘专机将抵达北京。

  • OG Agent 全球启动大会(深圳站)圆满落幕:智算时代正式开启

    2026年5月13日,由 Ju.com 与 Nivex 联合主办的 AI 意图驱动引擎 「智能交易意图觉醒: OG Agent 全球启动大会」于今日在在杭州、重庆、深圳三城同时圆满闭幕。本次盛会汇聚全球区块链精英与生态领主,共同见证 Web 4.0 时代 AI 交易的里程碑时刻。

  • OG Agent 全球启动大会举行圆桌论坛,就《Web 4.0 时代:AI 意图交易的基于、挑战与未来方向》主题展开讨论

    2026年5月13日,由 Ju.com 与 Nivex 联合主办的 AI 意图驱动引擎 「智能交易意图觉醒: OG Agent 全球启动大会」于今日在在杭州、重庆、深圳三城同时拉开帷幕,此次三城联动,标志着 OG Agent 所蕴含的巨大 AI 动能深受用户青睐。活动期间,区块链商业博主 Michael、香港国际投资总会执行董事 Annetta、Mblock 投研基金创始人 Louis、大湾区上市联盟主席 Alex 就《Web 4.0 时代:AI 意图交易的基于、挑战与未来方向》主题展开讨论。

  • 先进的 Web4.0 智能意图 AI 大模型 OG Agent 正式完成全球发布和生态启动

    2026年5月13日,由 Ju.com 与 Nivex 联合主办的 AI 意图驱动引擎 「智能交易意图觉醒: OG Agent 全球启动大会」于今日在在杭州、重庆、深圳三城同时拉开帷幕,此次三城联动,标志着 OG Agent 所蕴含的巨大 AI 动能深受用户青睐。包括 Ju.com CEOSammi、OG Agent 国际生态大使 Becky、OG Agent 韩国市场领袖 Jacob、世界人工智能组织首席科学家郑晓军等参会嘉宾,以及8 位重要嘉宾,和上千名参与者共同见证了OG Agent 的全球发布和生态启动。

  • 美国SEC:纽交所代币化证券提案已正式生效

    5月12日美国SEC官网发布文件,详细说明了纽交所之前提交的代币化证券的规则修订提案,并表示纽交所代币化证券提案已自动正式生效。2026年5月1日纽交所提交本次规则变更申请,并于5月12日由美国SEC发布公告。根据美国SEC的规定,只要拟议规则变更的不会显著影响投资者保护或公共利益,不会对竞争造成任何显著负担,则其在提交之日起30天后(或SEC指定的更短时间)自动生效。

  • 世界人工智能组织首席科学家郑晓军:普通人在 AI 时代,最重要的就是抓住 AI 机遇,获得收益

    2026年5月13日,由 Ju.com 与 Nivex 联合主办的 AI 意图驱动引擎 「智能交易意图觉醒: OG Agent 全球启动大会」于今日在在杭州、重庆、深圳三城同时拉开帷幕,此次三城联动,标志着 OG Agent 所蕴含的巨大 AI 动能深受用户青睐。活动期间,世界人工智能组织首席科学家郑晓军发表《Global AI DAO》主题演讲,郑晓军表示,普通人在 AI 时代,最重要的就是抓住 AI 机遇,获得收益。目前总结有几种方式可以获得财富:1.投资有代表性的非上市公司指数基金,往往会有 10-30 倍的潜在收益,但往往受限于参与资金和账号门槛;2.让 AI 帮你补齐自身的短板缺陷,比如复制知名网红去做商业化带货,这需要用户自己掌握基本的 AI 技术和代码;3.通过 AI 去做量化交易,就和 OG Agent 一样。当前 AI Trade 系统,基本上能够实现完全自动化交易,这将成为未来的主流。

  • 区块链商业博主 Michael:二级市场资金体量万亿级,是 AI 智能体交易发展的广阔蓝海

    2026年5月13日,由 Ju.com 与 Nivex 联合主办的 AI 意图驱动引擎 「智能交易意图觉醒: OG Agent 全球启动大会」于今日在在杭州、重庆、深圳三城同时拉开帷幕,此次三城联动,标志着 OG Agent 所蕴含的巨大 AI 动能深受用户青睐。活动期间,区块链商业博主 Michael 发表《AI 未来,开启智能交易共生时代》主题演讲,Michael 表示:交易范式从传统人工交易,到传统 AI 作为咨询和信息辅助,再到 AI 大模型,最后就是 OG Agent 的 AI 智能体,AI 交易在当下成为主流,而当前二级市场资金体量巨大,黄金高达 8 万亿美元,加密货币有 5 万亿美元,外汇市场泽高达 14 万亿美元。在 AI 普遍发展的当下,这就是 AI 交易的广阔蓝海。