泥潭日报 uscardforum · 每日精选

DeepSeek 是不是便宜的太夸张了?

内容摘要

DeepSeek低价争议持续,新增惜字如金特性及Qwen广泛应用案例。

1. 关键信息

  • #1 提出DeepSeek与GPT价格差出一个数量级,原因不明。
  • #2 认为模型小(5.5T参数)、中国制造,类比BYD vs Ford;#5 补充边际效益。
  • #6 指出加州电费比中国贵一个数量级。
  • #10 呼吁对token加关税,称新时代倾销。
  • #13 提到v4做KV cache compression,且推理可用国产芯片降低成本。
  • #14 指出性能边际效益递减:多15%需付10倍溢价。
  • #16 警告上规模公司不敢用中国产品(合规风险)。
  • #19 认为红字显示2.5折,ChatGPT标准版36元/1M,DeepSeek 12元/1M,对标合理。
  • #22 称DeepSeek V4 Pro与5.5 Pro差距大,前者对标GPT 5.5不带pro;对比GPT 5.5 API价格($5/$30)后发现GPT Pro 200刀订阅实际token价格更低。
  • #24 有人先用国内模型跑通再换美国模型盈利。
  • #27 #30 反馈DeepSeek严肃编程不如Claude Opus,但便宜可用。
  • #32 可配置“两倍token换30%提升”方案。
  • #33 缓存命中率90%+,价格降至¥0.025/1M,对比GPT $0.5。
  • #20 #25 #26 抱怨Claude Opus变菜且烧token快,一天100-200刀。
  • #35 指出AI价格由供需决定,类比YouTube会员全球定价差异(印度/土耳其便宜一个数量级)。
  • #37 本地M5 Max电费已接近DeepSeek推理成本。
  • #38 GPT地区定价不同:美国$20 vs 英国£20,用户间存在代付现象。
  • #39 DeepSeek下半年将用华为卡进一步降低成本;GLM国际版可用但未达Claude水平。
  • #40 反馈Claude Opus High近期在简单PDF提取任务中表现极差,导致被同事批评。
  • #41 Claude Max 20x订阅($200/月)相当于约$3000 API credit,被认为“便宜得夸张”。
  • #43 美国MLE年薪$1M vs 中国程序员薪资差距巨大。
  • #44 东大程序员便宜是成本差异原因之一。
  • #46 大公司买Enterprise套餐($20/seat,0用量,按token计费);Pro/Max套餐对个人用户可能亏钱,日均$200 API用量属于卷王级别。
  • #47 前苏联地区性价比也比较高。
  • #48 另一个东大(指前苏联地区)。
  • #49 写小说API充10元人民币,还剩9元,极便宜。
  • #51 价格便宜原因:一是中国研发人员和工程师便宜,二是DeepSeek可能不需要赚钱(有其他业务补贴)。
  • #52 DeepSeek打折中,不打折时与mimo v2.5pro花费差不多;ds倾向于长程思考,思考序列更长,导致幻觉率相当高;ds有CSA(4x压缩)+ HCA(128x压缩)实现极高缓存命中率。
  • #54 #55 缓存命中率极高:输入3/M,命中缓存只要0.25/M。
  • #57 人民币充值便宜,官方API仅支持微信支付宝;Google邮箱注册可用PayPal或卡充值美元,但美元充值需交中国增值税,不如人民币划算。
  • #59 人民币确实便宜。
  • #61 技术没有代差的情况下,价格差异是否合理存在争议。
  • #62 不多付出,资本家不会变慈善家。
  • #63 千问(Qwen)zszs。
  • #64 小声点,美国银行的三倍现金卡可以开不止一张的。
  • #65 Airbnb选择阿里Qwen模型,本地部署即可规避合规风险。
  • #66 大部分公司把中国和俄罗斯并列危险地区,连access都kill,WF China也不允许,这是政治作秀;Airbnb用Qwen可能被懂王找茬。
  • #67 推测Airbnb找了套皮小公司外包。
  • #68 Uber engineering blog生成式搜索用Qwen做基座,说明开源模型可被大公司采用。
  • #69 技术差0.5代也是差,不能认为无代差。
  • #70 预测未来美国公司用美国AI,全球其它地方用中国AI,类比车市。
  • #71 @Onvon: DeepSeek v4 output极度简洁,token消耗极少,惜字如金;同一Prompt“查看下周日历”,GPT 5.5和Claude有多余思考步骤,DeepSeek直接简短思考后立即tool call并报告结果。
  • #72 @Ava.太太太后: 同意Claude Opus贵得肉疼;DeepSeek价格可能为国内市场设计,小用省钱,但替换Claude仍悬。
  • #73 @POI: 指出Qwen系列使用极其广泛。
  • #74 @AppleVisionPro: 认为该现象与在美职场的中国人和美国人形象高度吻合。
  • #75 @IvanWng97: trading agents接DeepSeek分析股票,开发调试仅花10CNY,很好用。
  • #76 @xuexuekan: 引用爆火repo(https://github.com/antirez/ds4)观察:DeepSeek v4 Flash在thinking mode下,若避免max thinking,思考部分远短于其他模型(常为1/5),且长度与问题复杂度成正比,使其他模型无法使用的场景下DeepSeek可用。

2. 羊毛/优惠信息

  • DeepSeek缓存命中率90%+,价格降至¥0.025/1M(#33);缓存命中时输入仅0.25/M(#55)。
  • DeepSeek打折中,具体折扣未说明(#52)。
  • Claude Max 20x订阅($200/月)相当于约$3000 API credit(#41)。
  • App Store全球比价工具(https://appstoreprice.org/zh/apps/6448311069)可购买土耳其区应用打半价(#56)。
  • 美国银行(Bank of America)三倍现金卡(3% cash back)可以开不止一张(#64)。

3. 最新动态

  • #10 推测中国大厂下场做中转站,美国可能封杀。
  • #13 提到v4版本推理可用国产芯片。
  • #23 指出ChatGPT 5.5 API价格与DeepSeek V4 Pro对比后,200刀Pro订阅实际更便宜(用满时)。
  • #29 用户从DeepSeek换回GPT 5.5,认为好得飞起。
  • #33 缓存命中率90%+,价格永降90%至¥0.025。
  • #39 DeepSeek下半年将用华为卡进一步降低成本。
  • #41 Claude Max 20x订阅($200/月)相当于$3000 API credit,性价比争议大。
  • #46 大公司实际使用Enterprise套餐,个人用户日均$200 API用量属卷王级别。
  • #51 补充价格便宜原因:研发人员便宜 + 可能不需要赚钱。
  • #52 DeepSeek打折中,长程思考导致幻觉率高;CSA/HCA压缩技术实现极高缓存命中率。
  • #54 #55 缓存命中率具体价格:输入3/M,命中0.25/M。
  • #57 人民币充值比美元充值更划算(美元需加增值税)。
  • #61 技术代差争议持续。
  • #63 千问(Qwen)被提及。
  • #65 Airbnb选择阿里Qwen模型,本地部署可规避合规风险。
  • #66 公司合规风险:中国与俄罗斯并列危险地区,airbnb用Qwen可能招致政治风险。
  • #67 猜测Airbnb通过套皮小公司外包使用Qwen。
  • #68 Uber engineering blog用Qwen做基座,显示开源模型可被大公司采用(面试中提及)。
  • #69 技术差0.5代也是差,不能认为无代差。
  • #70 预测未来AI市场将分割:美国公司用美国AI,全球其他地区用中国AI。
  • #71 DeepSeek v4 output极度简洁,token消耗极少,惜字如金,同一任务思考链远短于GPT/Claude。
  • #72 用户认为DeepSeek价格适合国内市场,小用省钱,但替换Claude仍悬。
  • #73 Qwen系列使用极其广泛。
  • #75 用户trading agents接DeepSeek分析股票,开发调试仅花10CNY。
  • #76 爆火repo确认DeepSeek v4 Flash在thinking mode下思考部分远短于其他模型(常为1/5),且长度与问题复杂度成正比,使其他模型无法使用的场景下DeepSeek可用。

4. 争议或不同意见

  • 价格差异原因:有人认为是倾销(#10),有人认为是模型小/电费低/边际效益(#2 #6 #14),有人觉得GPT本身溢价(#1),有人补充供需关系(#35)、地区薪资差异(#43 #44)、电费成本(#37),新增#51认为研发人员便宜+可能不需要赚钱。
  • 性能对比:部分认为无代差(#4),部分认为差距明显(
原始内容
--- 第 1 楼来自 IRS_pro 的回复 (2026-05-09 13:43:20 PDT) ---

/uploads/short-url/uBD6scATKhfBSZxcq2LLOoTEbBl.png?dl=1 怎么能够在技术没有代差的情况下,价格差出一个数量级? 是GPT 价格虚高还是 DeepSeek 根本不想赚钱,还是其它什么原因?

--- 第 2 楼来自 Wechat 的回复 (2026-05-09 13:45:43 PDT) ---

模型小啊,made in China, 像BYD百公里五块钱电费 5.5快10T parameters了, 而且还是跑在made in USA硬件,像是4mpg Ford Pickup

--- 第 3 楼来自 DMV 的回复 (2026-05-09 13:45:46 PDT) ---

这都差了不止一个数量级了吧

--- 第 4 楼来自 IRS_pro 的回复 (2026-05-09 13:46:30 PDT) ---

Wechat: 模型小啊 为什么性能上没有代差,只差了一点点

--- 第 5 楼来自 Wechat 的回复 (2026-05-09 13:46:59 PDT) ---

边际效益,美国小模型也不差的

--- 第 6 楼来自 maruha 的回复 (2026-05-09 13:48:03 PDT) ---

加州电费和中国电费也刚好差一个数量级

--- 第 7 楼来自 IRS_pro 的回复 (2026-05-09 13:50:22 PDT) ---

电费这种东西地域性很强,但是 AI 模型是全世界竞争的。 在 DeepSeek 这么便宜的情况下,ChatGPT/Gemini 这么贵实在不像是自由市场的结果

--- 第 8 楼来自 打豆豆 的回复 (2026-05-09 14:01:14 PDT) ---

IRS_pro: 自由市场 要为信仰付费

--- 第 9 楼来自 IRS_pro 的回复 (2026-05-09 14:03:37 PDT) ---

打豆豆: 为信仰 谁便宜我就信仰谁

--- 第 10 楼来自 Aaronpang 的回复 (2026-05-09 14:04:02 PDT) ---

很早就说了得想办法给token加关税,新时代的倾销出现了。现在国内大厂下台做中转站了,在美国也该做中国中转站了,很快就要被封杀了

--- 第 11 楼来自 DMV 的回复 (2026-05-09 14:04:51 PDT) ---

感觉应该搞个特区了 美国的模型+gpu,中国的电 输出token收割全世界

--- 第 12 楼来自 打豆豆 的回复 (2026-05-09 14:08:07 PDT) ---

“Nah, you get what you pay for. ”

--- 第 13 楼来自 foiegras 的回复 (2026-05-09 14:09:41 PDT) ---

v4做了很多kv cache compression的工作而且据说inference可以放在国产芯片上?不用nvda的东西降低了很多的成本吧

--- 第 14 楼来自 AppleMusic 的回复 (2026-05-09 14:09:41 PDT) ---

也是边际效益递减,为了多15%的性能要付10倍的溢价 话又说回来,在开发场景下,这多15%的性能能给开发者省的时间大概还是比那点token钱贵的

--- 第 15 楼来自 qwaszx 的回复 (2026-05-09 14:11:58 PDT) ---

电力人工都便宜吧,还有母公司主业不是AI

--- 第 16 楼来自 qwaszx 的回复 (2026-05-09 14:13:33 PDT) ---

IRS_pro: 自由市场 因为不会有任何上规模的公司用中国产品,不然属于自找麻烦,即使理论上这玩意是开源的

--- 第 17 楼来自 qwaszx 的回复 (2026-05-09 14:14:44 PDT) ---

但我怎么觉得cc4.7还不如4.6好用 4.6最近感觉也有点降智

--- 第 18 楼来自 YanamiAnna 的回复 (2026-05-09 14:15:18 PDT) ---

太依赖就稀土2.0 当然我们小打小闹 那边便宜用那边

--- 第 19 楼来自 starlight 的回复 (2026-05-09 14:40:39 PDT) ---

红字不是说了2.5折吗 假设原价就是12元/1M,跟ChatGPT标准版36元对标不很正常吗(输出甚至差不多价格) 不管是模型大小,还是泥潭最喜欢讨论的美元人民币购买力上,不合理吗

--- 第 20 楼来自 冰皮豆 的回复 (2026-05-09 15:10:58 PDT) ---

说实话,我个人感觉 Claude 真的贵得离谱,尤其是Opus,一个正常的程序员,我们不说Agent 一直跑,也不说多Agent 情况,单纯一个程序员在 Vibe coding 或者 debug,一天消耗100-200刀是一个非常正常的价格,这简直 crazy,在 AI coding之前,有任何一个服务需要这么贵吗

--- 第 21 楼来自 IrishCoffee 的回复 (2026-05-09 15:14:45 PDT) ---

冰皮豆: 在 AI coding之前,有任何一个服务需要这么贵吗 有的。程序员。还解决不了问题,得好几天。

--- 第 22 楼来自 msft 的回复 (2026-05-09 15:15:53 PDT) ---

也不一定吧,很多程序员可能Claude code一周也用不了100刀的token,不是所有人都那么拼。

--- 第 23 楼来自 xxxyyy 的回复 (2026-05-09 15:22:24 PDT) ---

DS V4 Pro和5.5 Pro完全不是一个级别啊,一个是普通thinking model,一个是research grade model(号称)。中间估计差出来了一个Gemini了。你不能说因为人家都叫pro就互相比。 DS V4 Pro对标的是ChatGPT 5.5不带pro的版本。 V4 flash对标的是ChatGPT 5.5 instant。 ChatGPT 5.5是这个价格。 Input: $5.00 / 1M tokens Cached input: $0.50 / 1M tokens Output: $30.00 / 1M tokens 说起来DS 虽然便宜,但是没有coding plan。你对比一下GPT 200刀 pro的token实际价格,会发现GPT 5.5比DS V4 pro的API还便宜。 所以说现在OpenAI出200刀 pro订阅其实是在做慈善。你用满的话,他们售价得比DeepSeek还低。 /uploads/short-url/3nSpAuRxuS1ZPquR43Db28JAA8M.png?dl=1 /uploads/short-url/xyjuOdxEz3Rr33iEG5ScK9F2r5d.png?dl=1

--- 第 24 楼来自 Jojo36 的回复 (2026-05-09 15:28:54 PDT) ---

我有个朋友的ai agent初创公司,他的盈利模式是先在国内的模型上跑,跑通了再换美国的,再在美国挣钱。

--- 第 25 楼来自 AppleVisionPro 的回复 (2026-05-09 15:29:27 PDT) ---

这些人是古法编程+vibe coding混合还是工作量不够?最近opus 菜是越来越菜 但是烧token的速度是越来越快 我觉得上个月开始我已经不能信任opus可以扔出需求, 他自己实现了, 要我给他把子任务给拆出来, 或者plan 模式里面我们一起修改好几回. opus已经从一个senior eng 变成了一个博学的实习生了

--- 第 26 楼来自 llbean 的回复 (2026-05-09 15:29:49 PDT) ---

我记得有看到说ds的缓存命中率很高?(信息来源不记得了,可能是胡说八道瞎jb说) AppleVisionPro: 最近opus 菜是越来越菜 但是烧token的速度是越来越快 opus真的是token焚烧炉啊…

--- 第 27 楼来自 baobao 的回复 (2026-05-09 15:38:21 PDT) ---

你们真的有试过用deepseek v4 pro 作为严肃编程模型吗?试过就知道了,真的没那么好用。

--- 第 28 楼来自 AppleVisionPro 的回复 (2026-05-09 15:39:28 PDT) ---

问一下, 国产模型严肃编程哪个性价比最合适?

--- 第 29 楼来自 manfong 的回复 (2026-05-09 15:42:49 PDT) ---

A 社 20 刀订阅不让 openclaw 用之后,配了 deekseek v4 pro 用一段时间,感觉还行,但他不是多模态,不能识图。最近 OAI 20 刀订阅能配 openclaw,换了 gpt 5.5,好得飞起。 把家里猫猫人设套进去,还能调 images 2.0 生图 /uploads/short-url/xTbImLXxBMu7GEDeHyWDHxKA9KJ.jpeg?dl=1

--- 第 30 楼来自 VincentY 的回复 (2026-05-09 15:48:31 PDT) ---

严肃用过了,claude max plan 额度用完的时候就用 opencode + deepseek v4 pro,确实没有 opus 4.7 用起来那么放心但是多几次 pass 也能搞定,反正便宜

--- 第 31 楼来自 bujidao 的回复 (2026-05-09 15:50:14 PDT) ---

AppleVisionPro: 烧token的速度是越来越快 不然A/的增长是哪里来的?现在就是一边割开发的韭菜,一边用增长割投资人的韭菜,上市前还非要900b搞一轮,你猜是不是怕上市以后要发财报就割不到了

--- 第 32 楼来自 Onvon 的回复 (2026-05-09 15:51:56 PDT) ---

deepseek v4 pro可以配比如oh my opencode ulw那种拿两倍token换30%提升的

--- 第 33 楼来自 LogicDX342 的回复 (2026-05-09 15:54:39 PDT) ---

缓存命中率一般能到 90% 以上, 用缓存命中的价格比较的话, deepseek 上个月开始永降 90% 到 ¥0.025,GPT 官网 API 价格是 $0.5,还是差了不少的

--- 第 34 楼来自 AppleVisionPro 的回复 (2026-05-09 15:59:23 PDT) ---

我可以接受claude code烧token, 因为公司里用, 反正我不掏钱 但不能接受他菜, 耽误的是我的时间 我也不能接受codex烧token, 因为我自己在家用codex, 自己掏钱

--- 第 35 楼来自 CZ1206 的回复 (2026-05-09 16:13:02 PDT) ---

AI是商品,价格主要由供需关系决定。ds和gpt至少还能对比一下模型,YouTube会员这种全球都一样的东东,印度土耳其不也照样便宜一个数量级?

--- 第 36 楼来自 打豆豆 的回复 (2026-05-09 16:31:01 PDT) ---

是 这么说现在ai公司们不搞价格歧视算是有良心了…以后同样的gpt plus 美国卖$19.99,土耳其卖土币19.99

--- 第 37 楼来自 刘皇叔 的回复 (2026-05-09 16:47:49 PDT) ---

我本地m5max 的电费都和这个差不多了

--- 第 38 楼来自 llbean 的回复 (2026-05-09 16:54:46 PDT) ---

gpt地区不同价格也不太一样吧?美国$20英国20镑,我英国的同学为了省这么一点让我帮忙付钱

--- 第 39 楼来自 折木奉太郎 的回复 (2026-05-09 17:14:20 PDT) ---

在用glm,如果你能抢到或者愿意买国际版我觉得还行 当然,没到能和Claude平起平坐的程度 deepseek说下半年用上华为的卡会更便宜

--- 第 40 楼来自 冰皮豆 的回复 (2026-05-09 17:59:11 PDT) ---

Right ,我最近一周感觉 Claude 像个傻子,也怪太信任它了,直接把它的答案复制回复给同事,然后被喷了,关键是这只是一个简单的 pdf 提取,我用的还是 opus high

--- 第 41 楼来自 huskywww 的回复 (2026-05-09 18:01:55 PDT) ---

claude max 20x才是便宜的太夸张了,200刀每月的subscription差不多3000刀api credit

--- 第 42 楼来自 Pipita 的回复 (2026-05-09 18:24:01 PDT) ---

/uploads/short-url/tsGiNt0ez7KcF4wdTP6eaVJfdYH.jpeg?dl=1

--- 第 43 楼来自 tlitb 的回复 (2026-05-09 18:27:03 PDT) ---

美国鬼谷的MLE $1m的tc, 东大的呢?

--- 第 44 楼来自 ze3kr 的回复 (2026-05-09 18:42:11 PDT) ---

东大的程序员便宜

--- 第 45 楼来自 冰皮豆 的回复 (2026-05-09 18:42:52 PDT) ---

Claude 为啥要这样定价呢?太扯了

--- 第 46 楼来自 ze3kr 的回复 (2026-05-09 18:45:21 PDT) ---

Pro、Max 这种套餐就是纯亏钱,大公司是不会买这种套餐的。大公司买的都是 Enterprise,每个 Seat $20,包含 0 用量,所有使用都按 Token 计费 以及用到 $3000 需要 7x24 都用满,大多数人三分之一都用不到 我属于一般摸鱼的,用 API 每个月 $200 出头而已。每天 $200 确实有同事能做到,是卷王级别

--- 第 47 楼来自 IrishCoffee 的回复 (2026-05-09 19:11:09 PDT) ---

也没用那么便宜。前苏联地区的性价比比较高。

--- 第 48 楼来自 ze3kr 的回复 (2026-05-09 19:11:48 PDT) ---

另一个东大

--- 第 49 楼来自 菜鷄Albert 的回复 (2026-05-09 19:20:35 PDT) ---

没用ds干过活 但是用他写小说,充了10块钱用API,目前还剩9块

--- 第 50 楼来自 AppleVisionPro 的回复 (2026-05-09 19:22:47 PDT) ---

美刀还是rmb?

--- 第 51 楼来自 gojo 的回复 (2026-05-09 19:25:13 PDT) ---

一是中国研发人员和工程师便宜,二是可能deepseek也不需要赚钱(有别的业务可以补贴)。第一点是大家公认的,第二点是猜的。

--- 第 52 楼来自 ssinz7 的回复 (2026-05-09 19:27:26 PDT) ---

ds打折着呢 有人算过如果不打折和mimo v2.5pro最后的花费差不多 mimo贵一些但是token需要量少一些 ds倾向于长程思考 思考的序列更多(并不一定是一件好事 某种程度上导致了幻觉率相当高 会不会都在硬整) ds好的一点是CSA(4x压缩)+ HCA(128x压缩)做到了极其高的缓存命中率

--- 第 53 楼来自 冰皮豆 的回复 (2026-05-09 19:28:04 PDT) ---

一天10-20个问题,一个月200打不住吧

--- 第 54 楼来自 IRS_pro 的回复 (2026-05-09 19:37:39 PDT) ---

ssinz7: 极其高的缓存命中率 能不能展开说说?

--- 第 55 楼来自 ssinz7 的回复 (2026-05-09 20:08:13 PDT) ---

输入是3/M 命中缓存只要0.25/M 会很便宜

--- 第 56 楼来自 misc 的回复 (2026-05-09 20:14:29 PDT) ---

https://appstoreprice.org/zh/apps/6448311069 https://appstoreprice.org/zh/apps/6448311069 实时对比全球各大区 App Store 的应用价格,帮您找到购买数字产品的最佳时机。支持实时汇率换算和 AI 智能分析。 让他去买土耳其的. 能再打半价

--- 第 57 楼来自 菜鷄Albert 的回复 (2026-05-09 20:27:51 PDT) ---

人民币,官方API只能微信支付宝,第三方我没试过 看了下,我是用的国内手机号的账户,只能用微信支付宝充值人民币 用Google邮箱注册账户可以用PayPal或者输卡号充值美元 价格我没对比过

--- 第 58 楼来自 ssinz7 的回复 (2026-05-09 20:29:04 PDT) ---

可以美元充值吧 但是美元充要交中国的增值税 算上汇率不如人民币

--- 第 59 楼来自 AppleVisionPro 的回复 (2026-05-09 20:50:11 PDT) ---

rmb 是真的便宜

--- 第 60 楼来自 jwl 的回复 (2026-05-09 21:03:36 PDT) ---

那新款电脑什么的也不能用了,只能用made in印度越南的老款

--- 第 61 楼来自 黑卡会员 的回复 (2026-05-09 21:47:15 PDT) ---

IRS_pro: 技术没有代差的情况下 你确定?

--- 第 62 楼来自 KingGrimlock 的回复 (2026-05-09 22:00:23 PDT) ---

你不多付出,资本家就变慈善家了

--- 第 63 楼来自 Jojo36 的回复 (2026-05-10 05:27:34 PDT) ---

千问 zszs

--- 第 64 楼来自 majiamajiamajia 的回复 (2026-05-10 05:59:37 PDT) ---

小声点,美国银行的三倍现金卡可以开不止一张的

--- 第 65 楼来自 illusionwing 的回复 (2026-05-10 06:13:11 PDT) ---

https://finance.yahoo.com/news/airbnb-picks-alibabas-qwen-over-093000045.html https://finance.yahoo.com/news/airbnb-picks-alibabas-qwen-over-093000045.html Alibaba Group Holding's Qwen AI models are winning over major Western firms like Airbnb, underscoring the growing global appeal of China's open-source approach to artificial intelligence. Brian Chesky, co-founder and CEO of the San Francisco-based... 本地部署不就行了

--- 第 66 楼来自 qwaszx 的回复 (2026-05-10 07:18:51 PDT) ---

大部分应该不会用吧,很多公司中国和俄罗斯并列危险地区,连access都是kill的,wf China也是不允许的,其实就是一种政治作秀,这种情况下很多不会去碰中国AI,给自己找麻烦。 这airbnb还挺猛的,不怕哪天被懂王找茬

--- 第 67 楼来自 maruha 的回复 (2026-05-10 07:45:35 PDT) ---

大概是找了个套皮小公司外包出去了吧

--- 第 68 楼来自 ssinz7 的回复 (2026-05-10 08:56:28 PDT) ---

opensourse也不行吗 前两天面试Uber 看他们的engineering blog 上面有一个生成式搜索也是用的qwen做的基座

--- 第 69 楼来自 Yen-Hsiang 的回复 (2026-05-10 09:01:43 PDT) ---

技術沒有代差???差0.5代也是差啊

--- 第 70 楼来自 lexusls570 的回复 (2026-05-10 11:24:23 PDT) ---

和车市一样,以后就是美国公司用美国AI,全球其它地方用中国AI

--- 第 71 楼来自 Onvon 的回复 (2026-05-10 13:46:23 PDT) ---

不懂大模型 但我自己试用的感觉是 deepseek v4的output极度简洁 token消耗极少 有一种惜字如金的感觉 同样是medium thinking 比如说我自己测试的同一个Prompt “查看我下周的日历” GPT 5.5和claude会有很多多余的思考 比如 “I will do this first…now I will do…lastly I will….” 然后才开始 tool call pull数据. 一个简单的task能耗很多token deepseek一上来直接就think了非常简短一句话 然后立马就开始tool call 第三句话就开始report结果了

--- 第 72 楼来自 Ava.太太太后 的回复 (2026-05-10 14:05:26 PDT) ---

哈哈太同意了,Claude Opus真的贵得肉疼 不过DeepSeek这个价格是不是也说明它本来就是为国内市场设计的,咱们这边小用用省钱挺好的,但要真替换Claude……还是有点悬呢

--- 第 73 楼来自 POI 的回复 (2026-05-10 14:17:25 PDT) ---

你可能不知道qwen系列用的有多广泛……

--- 第 74 楼来自 AppleVisionPro 的回复 (2026-05-10 14:20:24 PDT) ---

这个和在美职场的中国人和美国人形象高度吻合

--- 第 75 楼来自 IvanWng97 的回复 (2026-05-10 14:23:24 PDT) ---

反正我的tradingagents接的是deepseek,当一个助手帮忙分析一下股票,很好用。 开发的时候疯狂调试也才花了10CNY。 /uploads/short-url/uIxGBfhSCSdlAPK1nK3w1FrFs6J.jpeg?dl=1

--- 第 76 楼来自 xuexuekan 的回复 (2026-05-10 14:24:26 PDT) ---

这个爆火的 repo 也有类似观察 https://github.com/antirez/ds4 In thinking mode, if you avoid max thinking, it produces a thinking section that is a lot shorter than other models, even 1/5 of other models in many cases, and crucially, the thinking section length is proportional to the problem complexity. This makes DeepSeek v4 Flash usable with thinking enabled when other models are practically impossible to use in the same conditions.