养虾人,开始认真算账了
来源:36kr 7 小时前

过去两个月,OpenClaw这只“龙虾”红得发紫。 

连不懂代码的普通人,都花699块找上门师傅“装虾”,只为体验一把AI替我打工的爽感。

但热度退得比来得更快。

进入4月,当你再次搜索“OpenClaw”,前排内容不再是教程和赞美,而是“龙虾退潮了”“太烧token了”这样的感叹。

近几天国内外大厂接连两记重锤,更是把所有养虾人拽回现实。

第一锤来自Anthropic。

4月4日Anthropic突然切断了通过Claude订阅使用OpenClaw等第三方Agent。想继续用?可以,改走API密钥,按token实打实付费。

第二锤来自小米MiMo大模型负责人罗福莉。

4月6日,她在X上发帖直指OpenClaw这类第三方Agent是“Token的虚假狂欢”,痛批它们对算力的粗放型消耗。

两条新闻,指向同一个事实:龙虾正在制造一个谁也堵不住的token黑洞。

在经历过全民热潮后,养虾成本到底多少,成本黑洞能否被解决?

昂贵的龙虾

“月薪两万,养不起一只龙虾”。

“养虾一时爽,账单火葬场”。

这些流传最广的段子,写出了初代养虾人的心声。

一位中小企业主描述了他的养虾经历:团队五个人共享一个OpenClaw实例,设置自动执行测试用例和代码审查。

第一个月结束时,他们预期的成本是100美元,实际账单却接近800美元。

“最恐怖的是,你根本不知道钱是怎么花掉的”,他在社交平台分享,“就像家里有个看不见的水龙头在一直滴水”。

这并不是个例,因为OpenClaw的账单具有极强的欺骗性。

当你向OpenClaw发送一条简单的指令,比如“帮我优化这段代码”,你以为自己在进行一次API调用,但实际上,在后台可能触发了多次独立的模型请求:

第一次是解析意图,第二次是生成任务步骤,第三次是调用工具分析代码,第四次是生成回复,第五次是为对话生成标题和标签,甚至再推荐几个可能的追问建议。

用户只看到一次回复,但账单却在后台无声蒸发。

更隐蔽的是Heartbeat(心跳机制)。

为了保持上下文连贯,OpenClaw默认每30分钟向模型发送一次“检查新指令”的请求。如果让OpenClaw在后台运行一整天,即使不发任何指令,它也会自动产生几十次API调用。

罗福莉把这种现象称为“Token的粗放型消耗”,上下文管理混乱、缓存命中率低下、多轮对话中充斥着大量低价值的重复计算。

在她看来,OpenClaw这类工具像是一个没有经过工程优化的原型车,每公里的油耗是正常车辆的十倍。

这样的消耗,轻度玩家还能勉强接受:偶尔丢几个任务,整理文档、查资料、写份报告,一个月下来几百万token,折合人民币几块到几十块,勉强还在尝鲜区间。

可一旦进入中度、重度使用,或者让龙虾24小时待命,账单就彻底失控。

厂商的限额游戏

用户感觉养虾贵,只是冰山一角。

水面之下,厂商们正在经历更残酷的现实,他们也在失血,而且失血速度远超预期。

Anthropic的订阅制,本来是给普通用户“包月刷网页、聊聊天”的福利,结果被OpenClaw这类高强度Agent彻底玩崩。

比如Claude Max 每月200美元的订阅,被用户用龙虾跑24小时循环、工具调用,直接烧出价值5000美元的算力。

有行业分析师估算,OpenClaw用户通过订阅套利产生的API消耗,与实际支付价格之间存在超过5倍的价差。

当Anthropic被全球开发者用龙虾疯狂薅羊毛,结构性亏损直接摆上桌面。

所以Anthropic的封禁来得又快又狠,Claude Pro、Max、Free所有订阅额度,一夜之间全部和OpenClaw说再见。用户只能老老实实走API,按token一分一厘地付钱。

Google同样也在大面积封禁滥用账号,不再为龙虾的高消耗兜底。

相比之下,国内厂商则更早看清了龙虾的本质,纷纷推出明码标价的限额套餐,把token消耗从“无限”变成“包月封顶”。

比如,阿里云百炼的Coding Plan,早期推出的Lite基础套餐首月只要7.9元(常规40元/月),每月18000次API请求;Pro高级套餐首月39.9元(常规200元/月),拉到每月90000次请求。

腾讯云、百度智能云、火山引擎同样选择了激进的获客策略,推出了针对新客首月7.9元到9.9元/月的Lite套餐。

在各种套餐设计中,厂商们又进一步给出了算力消耗的限额。

比如,阿里云官方文档显示,Coding Plan适用于Claude Code、OpenClaw等交互式编程工具。

但如果把这套Key拿去做自动化脚本、自定义后端、批量调用等,就属于违规滥用,订阅可能会被暂停或封禁。

换句话说,阿里云通过使用场景限制,防止用户把低价订阅跑成持续性的Agent消耗。

再看腾讯云,Lite套餐限制1200次请求/5小时,9000次/周,18000次/月;Pro套餐限制6000次请求/5小时,45000次/周,90000次/月。

也就是说,用户买的套餐不仅有额度的限制,还有“5小时”的限额。

有意思的是,国内厂商这两周还在继续朝更适合养虾的方向调整。

进入4月后,阿里云百炼的养虾"性价比之王"套餐,陷入了售罄状态。

涨价前7.9元/首月的特惠套餐已全面下架,200元/月的Pro套餐也显示无货。

有用户在开发者社区抱怨:"刚想认真养虾,发现口粮没了"。

腾讯云社区里在3月底已经出现了从Coding Plan升级到Token Plan的方案:

Lite套餐39元/月,3500万tokens;Standard套餐99元/月,1亿tokens;

Pro套餐299元/月,3.2亿tokens;Max套餐599元/月,6.5亿tokens。

文案里直接写明是“针对龙虾场景全新升级的专属订阅套餐”。

小米MiMo在4月3日也上线了四档Token Plan:

Lite套餐39元/月、Standard套餐99元/月、Pro套餐329元/月、Max套餐659元/月,分别对应6000万、2亿、7亿和16亿Credits,而且特别强调“无5小时token使用限额”。

一个明显的变化是,从卖Token变成卖Credits,说明小米不想只卖模型调用量,而是开始卖不同能力层级、不同上下文长度、不同使用强度下的一整套算力预算。

这些变化本身就表明,国内厂商已经在精打细算,把“养龙虾”做成一门单独的生意。

当限额撞上刚需

尽管国内厂商已经在用补贴换市场,推出各种算力套餐,但撞上用户的真实需求时,反馈却很分化。

有科技公司的产品经理记录了他的真实成本:

第一周采用了腾讯云的Lite套餐,额度很快耗尽;接着升级Pro套餐,额度也快速耗尽。之后就是按API超额量计费,再加上云服务的费用,一周不到就花掉了3000多块。

“比雇个实习生还贵",他在采访中忍不住吐槽。

一位前端开发者在开发者社区发帖,他让OpenClaw配合MiMo-V2-Pro做代码审查、自动生成 changelog 和小范围修 Bug,但很快就烧光了2亿Credit额度。

"我买了Standard套餐,以为能撑半个月,结果几天就收到额度预警",他在帖子中写道:"现在我在手动数还剩多少个任务,像手机流量快用完时的那种焦虑"。

比起套餐不够用,用户更焦虑的是算不清。

国内厂商开始普遍采用Token-Credit换算体系,但换算系数如同迷宫;同时,用户使用不同模型,消耗系数也不同。

一位全栈工程师在博客中写道:"我需要一个Excel表格来实时计算当前消耗,这比写代码还累。用OpenClaw是为了提效,结果变成了成本会计"。

这种不确定性直接抑制了使用深度。

当用户每次点击发送前都要犹豫,这会不会烧掉我半个任务额度,OpenClaw就从生产力工具退化成了成本实验。

还有一类常见的吐槽,是量有了,但任务完不成。

火山引擎开发者社区显示,Coding Plan不是只有月度总额,而是同时卡每5小时、每周、每月三层限额,一旦触发,系统会直接提示“已超出5小时使用配额”。

对长任务、多轮调用、上下文不断膨胀的龙虾类Agent来说,这种限制的杀伤力在于,套餐看起来还有余额,但任务可能已经先被中断。

这种挫败感在中小企业中尤为普遍。

当OpenClaw从个人玩具变成团队工具,限额套餐就不再只是控制成本的手段,而会变成任务完成的问题。

当然,也不是所有用户都对厂商的套餐不满意。

如果任务没那么重、对完成率要求没那么苛刻,国内低价套餐会显得便宜到离谱。

比如有用户提到,之前阿里云7.9元/月的Lite套餐,仅OpenClaw就用了7亿token,但是套餐才用了40%的量。

还有人说腾讯云的Coding Plan“使劲用,5小时都不会超50%”。

用户不同情绪的背后,是厂商的两难。

龙虾这类Agent的消耗天然不可预测,当厂商用限额套餐试图解决这个成本黑洞时,用户感受到的不是成本控制,而是能力阉割。

一位开发者在知乎的总结获得了高赞:

"国外大厂选择封禁,是承认自己做不了这门生意;国内厂商选择限额,是假装自己能做但得给你戴手铐。Neither is a good answer"。

解决成本黑洞

真正的答案,或许藏在技术社区里。

当厂商的套餐无法满足需求时,用户正在被迫成为自己的“成本会计”。

目前社区用户已经摸索出几条实打实的降本路径。

第一种,是模型分级+智能路由。

一位开发了ClawEasy优化工具的创业者,提出了一套智能模型路由方案,具体做法是在OpenClaw配置中植入常规任务、复杂任务、不确定任务三层路由逻辑。

比如,日常规划、工具调用、简单代码全扔给便宜快速模型,只有跨模块重构、架构决策才切成更贵的模型,关键是让便宜模型先试。

更激进的玩家开始引入本地模型作为第一道防线。

通过Ollama在本地运行DeepSeek-R1,简单任务实现"零Token成本",只有本地模型跑不通时才调用云端API。

一位实现了本地-云端混合架构的开发者计算:原本每月$800的纯云端方案,替换为70%本地+30%云端后,实际支出降至$240,且响应延迟从800ms降至60ms。代价是初期投入$2000购置硬件,但三个月就回本了。

第二种,是上下文工程,这也是罗福莉点名的命门。

在GitHub社区,Work-Fisher发起的上下文压缩项目获得了广泛关注。

这位前端开发者发现,OpenClaw的默认对话格式充斥着大量语义冗余:礼貌用语、重复确认、过度解释,这些对人类友好的设计,对模型来说是昂贵的噪音。

他开发的压缩方案把对话转为纯结构化格式,并启用提示词缓存:重复的系统指令和历史记录直接复用,命中率拉高后,每次调用成本直降70%。

Reddit上有用户实测,在Claude系模型上缓存命中率能稳定在91%-95%;没有缓存的话,整体支出会高出大约5倍。

目前,阿里云、MiniMax等厂商也都已经开始支持自动缓存,把Agent从粗放烧token改造成更会省token的系统。

第三种,是监控仪表盘,彻底杜绝OpenClaw心跳事故。

解决方案是后台设硬性额度上限,一到就停;内置监控仪表盘,实时查看消耗;再加超时机制,每个任务设最大步数上限,卡住就自动回退人工。

用户反馈很直接:以前一觉醒来心跳烧掉上百块,现在睡得着觉了。

这些自救方案有效,但都有一个隐性成本,就是用户被迫成为自己的成本工程师。

一位实践了上述所有优化技巧的开发者,在博客中坦承:"我现在每天花30分钟监控Token消耗、调整模型路由参数、清理历史上下文。OpenClaw省下的钱,变成了我的时间成本。这是进步还是倒退?"

这个问题没有标准答案。

但可以确定的是,当OpenClaw从开箱即用的工具,变成需要精密调优的系统时,它的用户群体正在悄然分层:

轻度用户被套餐限额劝退,回归AI网页版;

中度用户在厂商套餐与优化技巧间挣扎,成为成本会计;

重度用户被迫走向架构重构的深水区,成为真正的成本工程师。

人们还在养虾,但养法已经从随意消耗变成了精打细算。

结语

龙虾没有凉。

那些关于套餐、限额、缓存和心跳的讨论,恰恰证明了一件事:用户已经从尝鲜者变成了使用者。

任何一个工具从极客玩具变成基础设施,中间都要经过有人开始认真算账的时刻。

龙虾现在就在这个时刻。

简体中文 English