AI Coding Agent楼
Claude 4.7发布后出现大规模降智与缓存策略调整。
1. 关键信息
- 4.7 MRCR v2 @ 1M tokens 32.2%,较4.6(78.3%)大幅下降 #4。
- 缓存从1小时降至5分钟,增加Token usage #14。
- KV cache compression 或为降本增效手段 #10。
2. 羊毛/优惠信息
无
3. 最新动态
- 4.6已降智,4.7表现不佳 #4、#13。
- 政府专供模型未受影响 #1。
4. 争议或不同意见
- 降智是否为故意策略以凸显4.7优势 #6、#12。
- 模型发布节奏受上市压力影响 #13。
5. 行动建议
- 使用4.6满血版本并监控长期稳定性 #8、#16。
变傻也就算了 https://aistupidlevel.info/ https://aistupidlevel.info/ Ultimate AI benchmarking tool for 2025. Test AI performance, compare AI models, and find the best AI for coding. Real-time AI benchmark results and LLM performance tests. /uploads/short-url/pCDijgQhQXo78MWcux3Su0u89nK.png?dl=1 又炸了 /uploads/short-url/jkyeiGTa9y03mIbWBZpjAQTXlSs.png?dl=1 但政府专供没有
AI Coding Agent Claude Status楼
早上炸太正常了,降智才是严重的问题
https://www.anthropic.com/news/claude-opus-4-7 https://www.anthropic.com/news/claude-opus-4-7 Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems. 4.7来咯 能用上几天不降智的模型了 而且看起来4.7的long context retrieval更差? MRCR v2 @ 1M tokens 4.6: 78.3% 4.7: 32.2%
这是很关键的指标啊,很难相信竟然大规模倒退?
anthropic:反正你们也没得选 反正你们古法技能已经退化了 反正c level会track你们的ai usage 我都要上市了啦啦啦
就靠在次新的模型降本增效 来省钱呢。 有了4.7, 4.6马上也要降智了
4.6已经降麻了, 给你们个满血4.6用用又要感恩戴德 真是畜生公司
本来就是指望政府的钱,一个月才付几百刀的算什么客户
可能为了降本增效用了某些KV cache compression 比如热炒那个
还要告诉你我们有一个全世界最牛逼的模型但就是不让你用
降智后才能 4.7 比 4.6 完胜啊 we improve quality by 200%
可能是这么个故事:下面的人把4.7做出来了,一测试比4.6还拉跨。但是三天不发新模型赶不上山姆奥特曼,一直不发新模型容易被华尔街BB不好上市。大料一拍脑袋,给4.6来个暖心升级
还把缓存从一小时降到5分钟了,增加token usage
Meta:你再骂
/uploads/short-url/zLqrckzMeWAYfJwMWmKyDbfoOUN.png?dl=1 收到了,开始干活