大家有没有觉得Claude最近用量巨幅缩水了([4/4更新]现在又把第三方harness全ban了???)
Claude用量骤降与第三方harness被禁引发用户不满。
1. 关键信息
- 用量限制趋严,off-peak亦不足;官方推低effort与small cache,禁止resume session (#1, #38)。
- 禁用第三方harness,包括openclaw (#42)。
- 1M context与opus 4.6营销与实际体验割裂 (#1, #39)。
2. 羊毛/优惠信息
无。
3. 最新动态
官方建议用户自我阉割CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000以适配限制 (#1)。
4. 争议或不同意见
- API用户亦被视作韭菜 (#2)。
- 有人认为CC仍比Codex与GPT更优,尤其paper写作与图表 (#20, #23-#25)。
- 部分转向Kiro或混合使用多模型以平衡额度与质量 (#14, #23, #36)。
5. 行动建议
- 减少opus使用,改用sonnet;新建对话替代长会话。
- 考虑多模型混用或切换至Codex/GPT。
我是最近才升级到5x的max plan,周用量一般可以达到80-90%,最近这个双倍用量活动结束后,明显感觉很快就被usage cap了,所以最近几天一直在关注这个事情。 本人本身是重度用户,也会使用OMO这种token burner,但是现在都不敢用了,因为就算是off-peak的时段,用量也是完全不够。 以下是官方的回复,大意就是我们没错是因为你自己不会用。 不要用opus用sonnet,要opus尽量用low effort,如果超过他们cache的时间不要resume session。甚至还很贴心的附上了 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 这样自我阉割的操作。既然如此何必要推出1M context的模型呢。 我觉得太鸡肋了,一方面又不想换codex,因为确实还是没有opus强。但是人类学这种行为真的太恶心了,从来只有直接API付费的用户是他们大爹,感觉其他用户都是随便割的韭菜。 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761 https://x.com/lydiahallie/status/2039800717108715761
zpahai: 从来只有直接API付费的用户是他们大爹,感觉其他用户都是随便割的韭菜。 错误的,API用户也是韭菜哦
可以不用啊。不惯这毛病。
靠公司账户用,自己从不给ai充一分钱
苦逼学生没办法
先暗戳戳涨价,然后推出限时打折让用户觉得不仅没涨反而降了,之后把打折掐掉 就可以造成没有涨价,只是打折结束了的错觉
话说回来,我感觉我行业没怎么被AI取代的一个原因就是AI比人工贵
主要现在这个在coding属于断档领先的水平,除了略弱一点的codex基本没竞品,其他家的基本做复杂任务属于体验极差到不可用的状态
Claude 属实贵的一批,公司用cursor $60 额度,稍微大点的任务,只是sonnet ,一次10刀起步,哎,我都得小心翼翼的使用,不然一下子就没了。 还是之前 opus high 无限用爽 codex 感觉还是有点差距的
unlimited api usage,没感觉
确实是这样 用了claude code的opus之后根本不想用别的什么codex antigravity 感觉在和傻瓜交流 太费劲了
有人用过kimi没,体验如何
因为真的好用,有点像ntr,反正我是用惯了离不开claude了
试试Kiro, 可能比Claude Code笨一点但是Opus的量给得很足
codex 5.4 光写代码 秒杀opus
Codex 感觉架构能力没有Claude 细腻
啥玩意儿这么好,分个key给我玩玩
公司出钱
好奇哪些厂是限量的,感觉泥潭可以搞个黑白名单
paper的代码opus还是强太多,比gpt和gemini能力可以说断档
还是codex的额度大
不用code,和ld一起用的第一个月pro,我们是做research的,发现opus还挺好用的,还开了extend thinking, 结果被限制了两次。后来学会了新建对话和 用普通的sonnet, 但是发现就泯然众人了,和普通的gpt 没区别(但是gpt我们一样share用从来没有超token) 现在都是两个AI混着用,之前不知道gpt开启thinking 模式,现在开了后发现其实和claude的opus没有太大区别,但是确实claude的图识别能力和生成的ppt/word/excel 真的质量挺高的。。。 现在也不知道咋办
你用的网页?做research也是claude code好用 最后搓paper和推数学公式gpt5.4 pro好用
一直都是网页。但是claude 给的 文档质量真的很不错。而且画图能力高,gpt经常有错误
我 api 一个月努力用也就 $200,是不是太摸鱼了
按我们这种使用频率每天都要烧至少$50
后悔没有之前买GLM了 现在也涨价了
claude本人也這麼覺得 決定減少用量少跟傻瓜們交流
我用opencode的opus 4.6还挺省token的,但harness感觉没cc好
这个也属于CC的优势之一吧,不过相信很快大家都有了
CC+gemma 能搞嗎
gemma做coding还是太弱了,gemini这种上T的模型都搞不定
我上周开始用gpt5.4 pro写paper,这周忽然收到IT邮件说,我们从subscription变成了token-based,你是power用户,你都干啥了。我老老实实回复了,虽然也是gpt写的吧,然后没有然后,还是没给我lift usage limit。行吧,那我用plus写,结果写了两句,连plus都不让我用了只能用instant。 气得我用自己的账户写了,md什么数据泄露,反正做的也是垃圾科研,怕个锤子 前两天投奔CC用sonnet写,没感觉到特别大的区别,总觉得AI写的东西差点意思,我都得改一下思路…
Alexandrina: sonnet cc的应该都是用opus为主,而且只有代码领域明显 现在感觉越来越多的需求又能交给codex了,anthropic抠死了
公司的CC用得很爽,但是自己买的CC20刀的几下就用完了,下个月用100的试试 反倒是论坛分享的免费一个月codex,五个号轮着开高强度使用,几乎没碰到过限制 但是Opus 4.6写代码确实比GPT 5.4强很多
我觉得大家都得换着model用。你也不想被某个公司未来的一个policy udpate(比如人类学把三代以内旁系血亲的中国人都封了)干死吧。
zpahai: 不要用opus用sonnet,要opus尽量用low effort,如果超过他们cache的时间不要resume session。甚至还很贴心的附上了 CLAUDE_CODE_AUTO_COMPACT_WINDOW=200000 这样自我阉割的操作。既然如此何必要推出1M context的模型呢。 https://www.uscardforum.com/t/topic/330935/ /c/life/51 昨天在公寓公共区域吃外卖,吃完了随手把垃圾扔到垃圾桶里了,第二天收到发给所有人的邮件,说公共区域的垃圾桶禁止扔你房间里的personal garbage,新版的垃圾桶里不能有垃圾? 还能有公司的垃圾或者学校的垃圾吗 /t/topic/330935/1
zpahai: 既然如此何必要推出1M context的模型呢 感觉现阶段1M就是还不如200k好用。接近1m的时候变笨的挺明显。说实话假如你经常200k不够用说明context管理是有点问题
刚冲了5块艹
200k的context绝对是够用的,毕竟之前没有1M也可以用。我也习惯开subagent和重开会话来防止过长,用户有各种各样方法自适应。 但是我的核心观点是:既然1M context和opus 4.6是两个他们前段时间campaign大力鼓吹的点,现在告诉用户不要用是个什么意思?从商业上来说很矛盾
这下所有第三方harness都不能用了包括openclaw