泥潭日报 uscardforum · 每日精选

大家有没有觉得Claude最近用量巨幅缩水了([4/4更新]现在又把第三方harness全ban了???)

内容摘要

Claude用量骤降与第三方harness被禁引发用户不满。

1. 关键信息

  • 用量限制趋严,off-peak亦不足;官方推低effort与small cache,禁止resume session (#1, #38)。
  • 禁用第三方harness,包括openclaw (#42)。
  • 1M context与opus 4.6营销与实际体验割裂 (#1, #39)。

2. 羊毛/优惠信息

无。

3. 最新动态

官方建议用户自我阉割CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000以适配限制 (#1)。

4. 争议或不同意见

  • API用户亦被视作韭菜 (#2)。
  • 有人认为CC仍比Codex与GPT更优,尤其paper写作与图表 (#20, #23-#25)。
  • 部分转向Kiro或混合使用多模型以平衡额度与质量 (#14, #23, #36)。

5. 行动建议

  • 减少opus使用,改用sonnet;新建对话替代长会话。
  • 考虑多模型混用或切换至Codex/GPT。
原始内容
--- 第 1 楼来自 zpahai 的回复 (2026-04-02 22:04:00 PDT) ---

我是最近才升级到5x的max plan,周用量一般可以达到80-90%,最近这个双倍用量活动结束后,明显感觉很快就被usage cap了,所以最近几天一直在关注这个事情。 本人本身是重度用户,也会使用OMO这种token burner,但是现在都不敢用了,因为就算是off-peak的时段,用量也是完全不够。 以下是官方的回复,大意就是我们没错是因为你自己不会用。 不要用opus用sonnet,要opus尽量用low effort,如果超过他们cache的时间不要resume session。甚至还很贴心的附上了 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 这样自我阉割的操作。既然如此何必要推出1M context的模型呢。 我觉得太鸡肋了,一方面又不想换codex,因为确实还是没有opus强。但是人类学这种行为真的太恶心了,从来只有直接API付费的用户是他们大爹,感觉其他用户都是随便割的韭菜。 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761

--- 第 2 楼来自 illusionwing 的回复 (2026-04-02 22:05:42 PDT) ---

zpahai: 从来只有直接API付费的用户是他们大爹,感觉其他用户都是随便割的韭菜。 错误的,API用户也是韭菜哦

--- 第 3 楼来自 争取多活两年 的回复 (2026-04-02 22:05:56 PDT) ---

可以不用啊。不惯这毛病。

--- 第 4 楼来自 船海Ocean 的回复 (2026-04-02 22:06:55 PDT) ---

靠公司账户用,自己从不给ai充一分钱

--- 第 5 楼来自 zpahai 的回复 (2026-04-02 22:07:54 PDT) ---

苦逼学生没办法

--- 第 6 楼来自 KalinZ 的回复 (2026-04-02 22:08:24 PDT) ---

先暗戳戳涨价,然后推出限时打折让用户觉得不仅没涨反而降了,之后把打折掐掉 就可以造成没有涨价,只是打折结束了的错觉

--- 第 7 楼来自 illusionwing 的回复 (2026-04-02 22:09:05 PDT) ---

话说回来,我感觉我行业没怎么被AI取代的一个原因就是AI比人工贵

--- 第 8 楼来自 zpahai 的回复 (2026-04-02 22:10:44 PDT) ---

主要现在这个在coding属于断档领先的水平,除了略弱一点的codex基本没竞品,其他家的基本做复杂任务属于体验极差到不可用的状态

--- 第 9 楼来自 两只饺子 的回复 (2026-04-02 22:40:40 PDT) ---

Claude 属实贵的一批,公司用cursor $60 额度,稍微大点的任务,只是sonnet ,一次10刀起步,哎,我都得小心翼翼的使用,不然一下子就没了。 还是之前 opus high 无限用爽 codex 感觉还是有点差距的

--- 第 10 楼来自 Paradiase 的回复 (2026-04-02 22:53:02 PDT) ---

unlimited api usage,没感觉

--- 第 11 楼来自 davidx 的回复 (2026-04-02 23:15:52 PDT) ---

确实是这样 用了claude code的opus之后根本不想用别的什么codex antigravity 感觉在和傻瓜交流 太费劲了

--- 第 12 楼来自 折木奉太郎 的回复 (2026-04-02 23:16:39 PDT) ---

有人用过kimi没,体验如何

--- 第 13 楼来自 ootiger 的回复 (2026-04-02 23:16:57 PDT) ---

因为真的好用,有点像ntr,反正我是用惯了离不开claude了

--- 第 14 楼来自 郁小南 的回复 (2026-04-02 23:18:45 PDT) ---

试试Kiro, 可能比Claude Code笨一点但是Opus的量给得很足

--- 第 15 楼来自 serelee 的回复 (2026-04-02 23:20:19 PDT) ---

codex 5.4 光写代码 秒杀opus

--- 第 16 楼来自 两只饺子 的回复 (2026-04-02 23:21:26 PDT) ---

Codex 感觉架构能力没有Claude 细腻

--- 第 17 楼来自 两只饺子 的回复 (2026-04-02 23:21:51 PDT) ---

啥玩意儿这么好,分个key给我玩玩

--- 第 18 楼来自 Paradiase 的回复 (2026-04-02 23:30:28 PDT) ---

公司出钱

--- 第 19 楼来自 二号去听经晚上住旅店三号去餐厅然后看电影 的回复 (2026-04-02 23:41:08 PDT) ---

好奇哪些厂是限量的,感觉泥潭可以搞个黑白名单

--- 第 20 楼来自 CB2 的回复 (2026-04-02 23:43:14 PDT) ---

paper的代码opus还是强太多,比gpt和gemini能力可以说断档

--- 第 21 楼来自 Edward40 的回复 (2026-04-03 00:01:13 PDT) ---

还是codex的额度大

--- 第 23 楼来自 js3572 的回复 (2026-04-03 06:27:43 PDT) ---

不用code,和ld一起用的第一个月pro,我们是做research的,发现opus还挺好用的,还开了extend thinking, 结果被限制了两次。后来学会了新建对话和 用普通的sonnet, 但是发现就泯然众人了,和普通的gpt 没区别(但是gpt我们一样share用从来没有超token) 现在都是两个AI混着用,之前不知道gpt开启thinking 模式,现在开了后发现其实和claude的opus没有太大区别,但是确实claude的图识别能力和生成的ppt/word/excel 真的质量挺高的。。。 现在也不知道咋办

--- 第 24 楼来自 windrunner 的回复 (2026-04-03 07:26:27 PDT) ---

你用的网页?做research也是claude code好用 最后搓paper和推数学公式gpt5.4 pro好用

--- 第 25 楼来自 js3572 的回复 (2026-04-03 07:27:53 PDT) ---

一直都是网页。但是claude 给的 文档质量真的很不错。而且画图能力高,gpt经常有错误

--- 第 26 楼来自 ze3kr 的回复 (2026-04-03 08:47:25 PDT) ---

我 api 一个月努力用也就 $200,是不是太摸鱼了

--- 第 27 楼来自 zpahai 的回复 (2026-04-03 08:55:56 PDT) ---

按我们这种使用频率每天都要烧至少$50

--- 第 28 楼来自 nnnnennnn 的回复 (2026-04-03 08:59:31 PDT) ---

后悔没有之前买GLM了 现在也涨价了

--- 第 29 楼来自 tjacks 的回复 (2026-04-03 09:08:34 PDT) ---

claude本人也這麼覺得 決定減少用量少跟傻瓜們交流

--- 第 30 楼来自 Rosmontis 的回复 (2026-04-03 09:12:55 PDT) ---

我用opencode的opus 4.6还挺省token的,但harness感觉没cc好

--- 第 31 楼来自 zpahai 的回复 (2026-04-03 09:20:43 PDT) ---

这个也属于CC的优势之一吧,不过相信很快大家都有了

--- 第 32 楼来自 weiweiwieweieiw2192 的回复 (2026-04-03 10:19:08 PDT) ---

CC+gemma 能搞嗎

--- 第 33 楼来自 zpahai 的回复 (2026-04-03 12:05:49 PDT) ---

gemma做coding还是太弱了,gemini这种上T的模型都搞不定

--- 第 34 楼来自 Alexandrina 的回复 (2026-04-03 12:14:14 PDT) ---

我上周开始用gpt5.4 pro写paper,这周忽然收到IT邮件说,我们从subscription变成了token-based,你是power用户,你都干啥了。我老老实实回复了,虽然也是gpt写的吧,然后没有然后,还是没给我lift usage limit。行吧,那我用plus写,结果写了两句,连plus都不让我用了只能用instant。 气得我用自己的账户写了,md什么数据泄露,反正做的也是垃圾科研,怕个锤子 前两天投奔CC用sonnet写,没感觉到特别大的区别,总觉得AI写的东西差点意思,我都得改一下思路…

--- 第 35 楼来自 AWS 的回复 (2026-04-03 12:16:55 PDT) ---

Alexandrina: sonnet cc的应该都是用opus为主,而且只有代码领域明显 现在感觉越来越多的需求又能交给codex了,anthropic抠死了

--- 第 36 楼来自 xenomorph 的回复 (2026-04-03 12:17:10 PDT) ---

公司的CC用得很爽,但是自己买的CC20刀的几下就用完了,下个月用100的试试 反倒是论坛分享的免费一个月codex,五个号轮着开高强度使用,几乎没碰到过限制 但是Opus 4.6写代码确实比GPT 5.4强很多

--- 第 37 楼来自 争取多活两年 的回复 (2026-04-03 12:20:36 PDT) ---

我觉得大家都得换着model用。你也不想被某个公司未来的一个policy udpate(比如人类学把三代以内旁系血亲的中国人都封了)干死吧。

--- 第 38 楼来自 jnnksn 的回复 (2026-04-03 12:31:40 PDT) ---

zpahai: 不要用opus用sonnet,要opus尽量用low effort,如果超过他们cache的时间不要resume session。甚至还很贴心的附上了 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 这样自我阉割的操作。既然如此何必要推出1M context的模型呢。 https://www.uscardforum.com/t/topic/330935/ /c/life/51 昨天在公寓公共区域吃外卖,吃完了随手把垃圾扔到垃圾桶里了,第二天收到发给所有人的邮件,说公共区域的垃圾桶禁止扔你房间里的personal garbage,新版的垃圾桶里不能有垃圾? 还能有公司的垃圾或者学校的垃圾吗 /t/topic/330935/1

--- 第 39 楼来自 Sebzhuc 的回复 (2026-04-03 12:34:32 PDT) ---

zpahai: 既然如此何必要推出1M context的模型呢 感觉现阶段1M就是还不如200k好用。接近1m的时候变笨的挺明显。说实话假如你经常200k不够用说明context管理是有点问题

--- 第 40 楼来自 Ryan2021 的回复 (2026-04-03 13:03:08 PDT) ---

刚冲了5块艹

--- 第 41 楼来自 zpahai 的回复 (2026-04-03 13:03:41 PDT) ---

200k的context绝对是够用的,毕竟之前没有1M也可以用。我也习惯开subagent和重开会话来防止过长,用户有各种各样方法自适应。 但是我的核心观点是:既然1M context和opus 4.6是两个他们前段时间campaign大力鼓吹的点,现在告诉用户不要用是个什么意思?从商业上来说很矛盾

--- 第 42 楼来自 zpahai 的回复 (2026-04-03 21:07:12 PDT) ---

这下所有第三方harness都不能用了包括openclaw