泥潭日报 uscardforum · 内容汇总

【UPDATE: 有解决方案了】ChatGPT Biz Plan 烧 token 比 Personal Plus 快好多?(为了羊毛开的biz,我是不是被反薅了?)

内容摘要

Biz plan烧token快因route到fast,需改config强制flex。

1. 关键信息

  • #1 @dddd120 发现Biz plan的5.5 high烧token比Personal Plus快很多,怀疑被反薅。
  • #5 @ze3kr 实锤GPT 5.5会路由到fast(账单出现2.5倍价钱的api.codex_fast_gpt_5_5...),导致最高5倍收费;只有Enterprise的pay as you go credit才被OpenAI重视。
  • #10 @ze3kr 提供解决方案:在config.toml中添加service_tier = "flex"[features] fast_mode = false,并验证fast会自动关闭。
  • #12 @xxxyyy 引用Linux Do测试,Team和Plus的credit均为3000左右。
  • #23 @xxxyyy 辟谣:Biz总token额度与Plus完全一致,官网已更新说明。

2. 羊毛/优惠信息

3. 最新动态

  • #1 UPDATE部分:已有解决方案(关闭fast并强制flex mode),且通过账单实锤了OpenAI的2.5倍收费。

4. 争议或不同意见

  • #22 @美卡小白用户 认为Biz额度比Plus少,但#23 @xxxyyy 多次辟谣并引用官网截图,证明两者一致。
  • #9 @xxxyyy 反驳“新闻说额度低”,强调官网写得很清楚,Linux Do也有测试数据。

5. 行动建议

  • 立即修改config.toml,加入service_tier = "flex"(放最上面)和[features] fast_mode = false(#10, #15)。
  • 若不会手动修改,可让Codex代理自动修改(#15, #21)。
  • 重度用户可考虑多开账号(#16)或使用CLI-Proxy-API管理工具(#19)。
原始内容
--- 第 1 楼来自 dddd120 的回复 (2026-05-13 15:06:22 PDT) ---

前几天贪图羊毛入手了GPT的Biz plan,结果发现 biz 的codex烧 token贼快,好像比personal plus plan的费好多倍似的。我是不是被反薅了呀?网上查了查好像也没查出来个所以然出来,有人也有这种体会吗?这两plan理论上应该是差不多才对? UPDATE: 感谢@ze3kr 提供的解决方案 https://www.uscardforum.com/t/topic/505631/5 /c/shopping/20 关了 fast 服务器繁忙时也会用 fast,得改 config.toml ,强制 flex mode 我们给每个员工都买了 pay as you go credit,研究了所有员工的账单,实锤了 GPT 5.5 确实会 route 到 fast(账单里有 2.5 倍价格的 api.codex_fast_gpt_5_5_2026_04_23_text_output_v_1),并且按照 2.5 倍… 最终文件格式长这样 service_tier = "flex" model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true [features] fast_mode = false

--- 第 2 楼来自 一根吸管 的回复 (2026-05-13 15:13:14 PDT) ---

是不是开了fast

--- 第 3 楼来自 elijahqi 的回复 (2026-05-13 15:15:40 PDT) ---

我记得有个新闻说会低一点

--- 第 4 楼来自 dddd120 的回复 (2026-05-13 15:15:52 PDT) ---

没开,特意关掉了的。用的 5.5 high

--- 第 5 楼来自 ze3kr 的回复 (2026-05-13 15:24:13 PDT) ---

关了 fast 服务器繁忙时也会用 fast,得改 config.toml ,强制 flex mode 我们给每个员工都买了 pay as you go credit,研究了所有员工的账单,实锤了 GPT 5.5 确实会 route 到 fast(账单里有 2.5 倍价格的 api.codex_fast_gpt_5_5_2026_04_23_text_output_v_1 ),并且按照 2.5 倍收费。OpenAI 客服也这么回复: Some Codex desktop app operations may internally route through optimized variants for performance, which can still carry that naming convention in billing logs. 5.5 本身是 5.4 的两倍,fast 又额外2.5倍,所以最高可以按照 5 倍 然后 5 hours limit 和 weekly limit 都是根据用量动态定的,只有 pay as you go 的买 credit 的 Enterprise 才是 codex 愿意服务的用户,openai 根本不在乎其他 plan,纯亏钱

--- 第 6 楼来自 dddd120 的回复 (2026-05-13 15:25:06 PDT) ---

原来如此,受教受教,我去看看

--- 第 7 楼来自 dddd120 的回复 (2026-05-13 15:26:06 PDT) ---

我对比的就是personal plus 的5.5 high和biz的5.5 high。token烧得亏麻了。。。

--- 第 8 楼来自 dddd120 的回复 (2026-05-13 15:28:47 PDT) ---

请教一下如何修改,我的文件长这样: model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true

--- 第 9 楼来自 xxxyyy 的回复 (2026-05-13 15:29:39 PDT) ---

没有这个新闻,两者一样的。 5 小时windows据说team会低一点,weekly limit一样的,官网写的很清楚。Linux Do那边也测过了

--- 第 10 楼来自 ze3kr 的回复 (2026-05-13 15:30:34 PDT) ---

service_tier = "flex" [features] fast_mode = false 验证方式:打开 fast,重启 codex ,fast 也会被自动关闭

--- 第 11 楼来自 ze3kr 的回复 (2026-05-13 15:32:18 PDT) ---

重度使用的话 weekly limit 都一定会用光反正,所以影响不大

--- 第 12 楼来自 xxxyyy 的回复 (2026-05-13 15:32:46 PDT) ---

https://linux.do/t/topic/2137136 有人写了脚本测实际credit 有很多人统计了自己的订阅 https://linux.do/t/topic/2138324/23 算下来team和plus基本都是3000个credit左右

--- 第 13 楼来自 dddd120 的回复 (2026-05-13 15:32:50 PDT) ---

感谢感谢我现在就去试试看

--- 第 14 楼来自 dddd120 的回复 (2026-05-13 15:34:40 PDT) ---

service_tier = "flex" 的位置对吗?还是要放在别的tag下面? model = "gpt-5.5" model_reasoning_effort = "high" [projects."/"] trust_level = "trusted" [notice] fast_default_opt_out = true service_tier = "flex" [features] fast_mode = false

--- 第 15 楼来自 ze3kr 的回复 (2026-05-13 15:35:04 PDT) ---

tier 不在任何 section 里,放最上面。实在不会也可以让 codex 给你改

--- 第 16 楼来自 China.No.1 的回复 (2026-05-13 15:35:23 PDT) ---

只要开满8个号,这都不是事儿。

--- 第 17 楼来自 China.No.1 的回复 (2026-05-13 15:36:08 PDT) ---

你居然还在自己改config,我是真心佩服。自从vibe之后只要生产不炸,那代码都是让model自己相互review的。

--- 第 18 楼来自 dengcy 的回复 (2026-05-13 15:36:47 PDT) ---

不停切账户吗?还是共享limit?

--- 第 19 楼来自 China.No.1 的回复 (2026-05-13 15:37:52 PDT) ---

白金账号你是一点不用是吧 https://github.com/router-for-me/Cli-Proxy-API-Management-Center https://github.com/router-for-me/Cli-Proxy-API-Management-Center This is a WebUI interface based on CLI-Proxy-API, designed to simplify configuration modifications and runtime status monitoring.

--- 第 20 楼来自 炉石传说真尼玛好玩 的回复 (2026-05-13 15:38:32 PDT) ---

多谢,看小红书上都说额度少啥的就没找人拼,血亏

--- 第 21 楼来自 dddd120 的回复 (2026-05-13 15:38:32 PDT) ---

ze3kr: 实在不会也可以让 codex 给你改 China.No.1: 你居然还在自己改config 我是韭菜加小白

--- 第 22 楼来自 美卡小白用户 的回复 (2026-05-13 15:39:23 PDT) ---

biz 的总 token 额度比 plus 少一点吧

--- 第 23 楼来自 xxxyyy 的回复 (2026-05-13 15:42:35 PDT) ---

没有,完全一致的,辟谣辟累了 https://www.uscardforum.com/t/topic/398026/194 /c/shopping/20 你这个消息也过时了,你再看看,现在官网写的一样的。team = plus + 拥有pro的access /uploads/short-url/rZRZkVeiklgQZEK342IdVmOzMUe.jpeg?dl=1 /uploads/short-url/xa74EuAgYzLGtgU5Vj7IK6Yqr9Y.jpeg?dl=1

--- 第 24 楼来自 Define_P 的回复 (2026-05-13 15:52:57 PDT) ---

China.No.1: 只要生产不炸 炸了怎么办

--- 第 25 楼来自 xjx 的回复 (2026-05-13 15:55:51 PDT) ---

Git roll back