【UPDATE: 有解决方案了】ChatGPT Biz Plan 烧 token 比 Personal Plus 快好多?(为了羊毛开的biz,我是不是被反薅了?)
Biz plan烧token快因route到fast,需改config强制flex。
1. 关键信息
- #1 @dddd120 发现Biz plan的5.5 high烧token比Personal Plus快很多,怀疑被反薅。
- #5 @ze3kr 实锤GPT 5.5会路由到fast(账单出现2.5倍价钱的api.codex_fast_gpt_5_5...),导致最高5倍收费;只有Enterprise的pay as you go credit才被OpenAI重视。
- #10 @ze3kr 提供解决方案:在config.toml中添加
service_tier = "flex"和[features] fast_mode = false,并验证fast会自动关闭。 - #12 @xxxyyy 引用Linux Do测试,Team和Plus的credit均为3000左右。
- #23 @xxxyyy 辟谣:Biz总token额度与Plus完全一致,官网已更新说明。
2. 羊毛/优惠信息
无
3. 最新动态
- #1 UPDATE部分:已有解决方案(关闭fast并强制flex mode),且通过账单实锤了OpenAI的2.5倍收费。
4. 争议或不同意见
- #22 @美卡小白用户 认为Biz额度比Plus少,但#23 @xxxyyy 多次辟谣并引用官网截图,证明两者一致。
- #9 @xxxyyy 反驳“新闻说额度低”,强调官网写得很清楚,Linux Do也有测试数据。
5. 行动建议
- 立即修改config.toml,加入
service_tier = "flex"(放最上面)和[features] fast_mode = false(#10, #15)。 - 若不会手动修改,可让Codex代理自动修改(#15, #21)。
- 重度用户可考虑多开账号(#16)或使用CLI-Proxy-API管理工具(#19)。
前几天贪图羊毛入手了GPT的Biz plan,结果发现 biz 的codex烧 token贼快,好像比personal plus plan的费好多倍似的。我是不是被反薅了呀?网上查了查好像也没查出来个所以然出来,有人也有这种体会吗?这两plan理论上应该是差不多才对? UPDATE: 感谢@ze3kr 提供的解决方案 https://www.uscardforum.com/t/topic/505631/5 /c/shopping/20 关了 fast 服务器繁忙时也会用 fast,得改 config.toml ,强制 flex mode 我们给每个员工都买了 pay as you go credit,研究了所有员工的账单,实锤了 GPT 5.5 确实会 route 到 fast(账单里有 2.5 倍价格的 api.codex_fast_gpt_5_5_2026_04_23_text_output_v_1),并且按照 2.5 倍… 最终文件格式长这样 service_tier = "flex" model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true [features] fast_mode = false
是不是开了fast
我记得有个新闻说会低一点
没开,特意关掉了的。用的 5.5 high
关了 fast 服务器繁忙时也会用 fast,得改 config.toml ,强制 flex mode 我们给每个员工都买了 pay as you go credit,研究了所有员工的账单,实锤了 GPT 5.5 确实会 route 到 fast(账单里有 2.5 倍价格的 api.codex_fast_gpt_5_5_2026_04_23_text_output_v_1 ),并且按照 2.5 倍收费。OpenAI 客服也这么回复: Some Codex desktop app operations may internally route through optimized variants for performance, which can still carry that naming convention in billing logs. 5.5 本身是 5.4 的两倍,fast 又额外2.5倍,所以最高可以按照 5 倍 然后 5 hours limit 和 weekly limit 都是根据用量动态定的,只有 pay as you go 的买 credit 的 Enterprise 才是 codex 愿意服务的用户,openai 根本不在乎其他 plan,纯亏钱
原来如此,受教受教,我去看看
我对比的就是personal plus 的5.5 high和biz的5.5 high。token烧得亏麻了。。。
请教一下如何修改,我的文件长这样: model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true
没有这个新闻,两者一样的。 5 小时windows据说team会低一点,weekly limit一样的,官网写的很清楚。Linux Do那边也测过了
service_tier = "flex" [features] fast_mode = false 验证方式:打开 fast,重启 codex ,fast 也会被自动关闭
重度使用的话 weekly limit 都一定会用光反正,所以影响不大
https://linux.do/t/topic/2137136 有人写了脚本测实际credit 有很多人统计了自己的订阅 https://linux.do/t/topic/2138324/23 算下来team和plus基本都是3000个credit左右
感谢感谢我现在就去试试看
service_tier = "flex" 的位置对吗?还是要放在别的tag下面? model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true service_tier = "flex" [features] fast_mode = false
tier 不在任何 section 里,放最上面。实在不会也可以让 codex 给你改
只要开满8个号,这都不是事儿。
你居然还在自己改config,我是真心佩服。自从vibe之后只要生产不炸,那代码都是让model自己相互review的。
不停切账户吗?还是共享limit?
白金账号你是一点不用是吧 https://github.com/router-for-me/Cli-Proxy-API-Management-Center https://github.com/router-for-me/Cli-Proxy-API-Management-Center This is a WebUI interface based on CLI-Proxy-API, designed to simplify configuration modifications and runtime status monitoring.
多谢,看小红书上都说额度少啥的就没找人拼,血亏
ze3kr: 实在不会也可以让 codex 给你改 China.No.1: 你居然还在自己改config 我是韭菜加小白
biz 的总 token 额度比 plus 少一点吧
没有,完全一致的,辟谣辟累了 https://www.uscardforum.com/t/topic/398026/194 /c/shopping/20 你这个消息也过时了,你再看看,现在官网写的一样的。team = plus + 拥有pro的access /uploads/short-url/rZRZkVeiklgQZEK342IdVmOzMUe.jpeg?dl=1 /uploads/short-url/xa74EuAgYzLGtgU5Vj7IK6Yqr9Y.jpeg?dl=1
China.No.1: 只要生产不炸 炸了怎么办
Git roll back