泥潭日报 uscardforum · 每日精选

GitHub Copilot 是个大羊毛 如果你是AI Coding intensive user

内容摘要

按次计费下用 Copilot 做复杂任务需精细规划。

1. 关键信息

  • 按次计费,非 token 量;建议 planning + 详细 plan 指导执行。
  • context window 小(Copilot ~400k,Opus 1M);长任务需拆分或改用 Claude。
  • 部分企业/内部可访问 1M context 的 Opus 4.6。
  • 结合 CC 与 Copilot:CC 做规划,Copilot 执行。
  • 2026-04 起 Copilot 改用 usage-based 扣费;长对话能力退化。

2. 羊毛/优惠信息

  • GitHub Copilot Pro $10/月;学生认证可享。
  • 字节员工可能享 50% 报销;个人可绑定 corporate 订阅用于 hobby project。
  • Microsoft 企业员工或拥有 internal 1M context Opus 4.6。
  • Amex 持卡或可报销部分 AI 订阅(疑似 50%)。
  • 无明确积分/里程兑换比例;无折扣码。

3. 最新动态

  • 2026-04-10 起 Copilot 停用 Pro 中的 Opus 4.6,强制转向 token-based 计费。
  • 2026-04-27 起 Student 计划移除 GPT-5.3-Codex。
  • 6月起 yearly 用户涨价,monthly 转 token-based。
  • Subagent 工具支持选 model。

4. 争议或不同意见

  • Opus 1M context 实际效用与成本:部分用户认为过长对话导致质量下降,建议 200–400k。
  • 是否需自动 compact context:意见分歧,有人坚持新开 session 更高效。
  • 企业 vs 个人权限与计费差异引发理解偏差。

5. 行动建议

  • 优先使用 Claude/CC 做规划,Copilot 执行细粒度任务。
  • 控制单次任务 token 量,避免接近 context 上限。
  • 学生/个人用户善用免费层与限时优惠,监控 usage。
  • 企业用户确认内部 model 与报销政策后再批量使用。
原始内容
--- 第 1 楼来自 Divinealex 的回复 (2026-04-02 21:49:54 PDT) ---

它™竟然是按次计费而不是按照token使用量计费。。。。。 我现在是Claude code做 小规模探索, planing,然后把计划做的特别详细,然后用它(的opus 4.6)去做具体的执行。 唯一缺点就是context window比较小,所以如果是理解型我也会用他的 gpt 5.4 我原来是Claude code max 200刀/月的套餐都不够用(最近这一周好像claude砍用量了) 现在有了10刀/月的github copilot pro,稳定够用了 原来的羊毛是薅credit,现在的羊毛也是薅credit (tokens)

--- 第 2 楼来自 ubnt 的回复 (2026-04-02 21:52:39 PDT) ---

有没有workflow,,, cc plan mode生成todos.md,然后让 copilot去执行?

--- 第 3 楼来自 Divinealex 的回复 (2026-04-02 21:53:35 PDT) ---

说的简单点,就是你把所有的要使用极其大量token的单一任务,都让它来执行

--- 第 4 楼来自 real-wuzhengkai 的回复 (2026-04-02 21:53:39 PDT) ---

很复杂的任务行不通的,他这个context经常满,一满就进死胡同自己卡住

--- 第 5 楼来自 Divinealex 的回复 (2026-04-02 21:54:12 PDT) ---

所以要做planing呀!!!特别详细的planing Divinealex: 然后把计划做的特别详细,然后用它(的opus 4.6)去做具体的执行

--- 第 7 楼来自 争取多活两年 的回复 (2026-04-02 21:57:31 PDT) ---

/u/vczh

--- 第 8 楼来自 CAN 的回复 (2026-04-02 22:47:02 PDT) ---

其实是有internal use only 1M context的opus 4.6的

--- 第 9 楼来自 Divinealex 的回复 (2026-04-03 00:25:59 PDT) ---

怎么才能获取呜呜呜

--- 第 10 楼来自 georgezc2003 的回复 (2026-04-03 00:46:20 PDT) ---

/u/divinealex 喵老师看这里 /uploads/short-url/qrndX2jgvvN5RvWXgmmCPNqDaSs.jpeg?dl=1

--- 第 11 楼来自 Divinealex 的回复 (2026-04-03 00:46:51 PDT) ---

我擦我擦,怎么搞!! (入职微软?lol)

--- 第 12 楼来自 georgezc2003 的回复 (2026-04-03 00:47:35 PDT) ---

加入公司即可享受

--- 第 13 楼来自 georgezc2003 的回复 (2026-04-03 00:49:26 PDT) ---

sonnet 1m context是public available的对吧

--- 第 14 楼来自 Divinealex 的回复 (2026-04-03 00:50:02 PDT) ---

Claude code里倒是都是拉满的1M copilot里不是

--- 第 15 楼来自 georgezc2003 的回复 (2026-04-03 00:51:00 PDT) ---

那还是用cc吧 不行找个字节的朋友打个五折

--- 第 16 楼来自 20岁了还没去过星巴克 的回复 (2026-04-03 00:51:08 PDT) ---

问题是效果没法和cc opus比

--- 第 17 楼来自 peridot 的回复 (2026-04-03 00:59:17 PDT) ---

georgezc2003: 字节的朋友打个五折 咋搞

--- 第 18 楼来自 Justinian 的回复 (2026-04-03 01:00:28 PDT) ---

买了claude enterprise的公司应该都有这个model Github Copilot里也有

--- 第 19 楼来自 Divinealex 的回复 (2026-04-03 01:00:55 PDT) ---

有,但是context window小啊。。。。

--- 第 20 楼来自 Justinian 的回复 (2026-04-03 01:02:00 PDT) ---

我说的是claude 4.6 opus internal use 1m context的这个 这个context还小那我真的想不到更大的了 如果没有那肯定是公司没买最顶的套餐

--- 第 21 楼来自 Divinealex 的回复 (2026-04-03 01:04:40 PDT) ---

lol,1M当然不小了,我还以为你说的是那个250k的 那我只能感叹一句 还是学生没公司lol 处处受气!

--- 第 22 楼来自 georgezc2003 的回复 (2026-04-03 01:05:35 PDT) ---

年轻有为啊 社畜牛马根本没时间搞这种side project

--- 第 23 楼来自 georgezc2003 的回复 (2026-04-03 01:06:00 PDT) ---

你问问字节朋友就知道了

--- 第 24 楼来自 Divinealex 的回复 (2026-04-03 01:06:14 PDT) ---

我现在每天只睡4.5个小时,3.30睡,八点起床盯盘lol (虽然晚饭后还会补觉1h那样) 阎王夸我身体好!

--- 第 25 楼来自 georgezc2003 的回复 (2026-04-03 01:12:10 PDT) ---

年轻就是好 是phd么这么肝

--- 第 26 楼来自 Divinealex 的回复 (2026-04-03 01:13:26 PDT) ---

是phd,确实有点肝,没事,阎王那里我挂名!

--- 第 27 楼来自 Yangff 的回复 (2026-04-03 01:13:32 PDT) ---

入职msft

--- 第 28 楼来自 Divinealex 的回复 (2026-04-03 01:15:49 PDT) ---

话说你们内部用,有没有上限

--- 第 29 楼来自 ubnt 的回复 (2026-04-03 01:15:50 PDT) ---

你这是什么软件? /uploads/short-url/dZbHEFBEM5Whie6DhZoAPg6L6Mf.png?dl=1

--- 第 30 楼来自 Divinealex 的回复 (2026-04-03 01:16:48 PDT) ---

如果他让我入,我倒贴给他SUB都行 可怜我一个应用物理的phd

--- 第 31 楼来自 georgezc2003 的回复 (2026-04-03 01:18:46 PDT) ---

俺这是kiro

--- 第 32 楼来自 ubnt 的回复 (2026-04-03 01:22:28 PDT) ---

所以 kiro可以 连github copilot账号?

--- 第 33 楼来自 georgezc2003 的回复 (2026-04-03 01:23:00 PDT) ---

那我就不知道了 我连的aws

--- 第 34 楼来自 jnnksn 的回复 (2026-04-03 01:38:48 PDT) ---

有无路子让它每次多运行一会儿?

--- 第 35 楼来自 Divinealex 的回复 (2026-04-03 01:41:49 PDT) ---

告诉他,循环100次,不要停每一次把代码倒过来,下一次再翻回去,他就真的不停

--- 第 36 楼来自 BlueRatt 的回复 (2026-04-03 01:47:41 PDT) ---

不可以,这后面是bedrock

--- 第 37 楼来自 vczh 的回复 (2026-04-03 17:13:46 PDT) ---

用上copilot才有动力学习怎么跑长程任务,一个月$39跑几百个小时的 opus 4.6 Divinealex: context window小 context window 大反而会在后面加剧他的腐化,不如自己接管context management,一个session就跑一个长程任务,不要依赖聊天记录工作 这个收费方法正好让你学习如何引导AI一直on track而且不用频繁介入

--- 第 38 楼来自 vczh 的回复 (2026-04-03 17:15:50 PDT) ---

cc的system prompt确实比vscode写得好一点,但是你也可以自己写,又没有专利阻止你

--- 第 39 楼来自 schenkerx 的回复 (2026-04-03 17:26:06 PDT) ---

同39刀plan,真的太香了,让AI干了很多脏活,自己专注design了 vczh: context window 大反而会在后面加剧他的腐化,不如自己接管context management,一个session就跑一个长程任务,不要依赖聊天记录工作 赞同,经常到后面AI就跑偏了,还不如重开一个session直接回到正轨效率那么高

--- 第 40 楼来自 Divinealex 的回复 (2026-04-03 17:26:52 PDT) ---

这是一条prompt,让AI干的活 路径:.docs/devPlan/AI_dialog/26_04_03 UI Upgrade 统计口径:按字符数统计,和终端 wc -m 一致(包含换行)。 共 55 个文件,总计 2,268,940 字。 大约估算约使用了1000 万 token 一条就值回来了 tree .docs/devPlan/AI_dialog/26_04_03 UI Upgrade/ ├── 0_primary_exploration/ │ ├── architecture_map.md (10779 字) │ ├── constraints_and_invariants.md (8726 字) │ ├── evidence_index.md (14753 字) │ ├── open_questions.md (6902 字) │ └── orchestrator_log.md (10295 字) ├── 1_analysis/ │ ├── agent1.md (60155 字) │ ├── agent2.md (46340 字) │ ├── agent3.md (45344 字) │ ├── agent4.md (53760 字) │ ├── agent5.md (40653 字) │ ├── agent6.md (51253 字) │ ├── agent7.md (46257 字) │ ├── agent8.md (49781 字) │ └── synthesis.md (31019 字) ├── 1_cross_discussion_round_1/ │ ├── agent1.md (57677 字) │ ├── agent2.md (54974 字) │ ├── agent3.md (58848 字) │ ├── agent4.md (50453 字) │ ├── agent5.md (45769 字) │ ├── agent6.md (63262 字) │ ├── agent7.md (52843 字) │ ├── agent8.md (50957 字) │ └── round_summary.md (37007 字) ├── 1_cross_discussion_round_2/ │ ├── agent1.md (42885 字) │ ├── agent2.md (47591 字) │ ├── agent3.md (40272 字) │ ├── agent4.md (50937 字) │ ├── agent5.md (48988 字) │ ├── agent6.md (53685 字) │ ├── agent7.md (60008 字) │ ├── agent8.md (44981 字) │ └── round_summary.md (38253 字) ├── 1_cross_discussion_round_3/ │ ├── agent1.md (40771 字) │ ├── agent2.md (39957 字) │ ├── agent3.md (43263 字) │ ├── agent4.md (42386 字) │ ├── agent5.md (46652 字) │ ├── agent6.md (47847 字) │ ├── agent7.md (38492 字) │ ├── agent8.md (79331 字) │ └── round_summary.md (28239 字) ├── 2_proposals/ │ ├── proposal1.md (53543 字) │ ├── proposal2.md (54512 字) │ ├── proposal3.md (73968 字) │ ├── proposal4.md (33813 字) │ ├── proposal5.md (37570 字) │ └── proposal_matrix.md (11611 字) ├── 3_proposal_reviews/ │ ├── comparison_table.md (12222 字) │ ├── final_decision_log.md (28080 字) │ ├── review1.md (33297 字) │ ├── review2.md (44020 字) │ └── review3.md (57434 字) ├── 00_index.md (2260 字) ├── 0_user_demand.md (2853 字) └── 4_final_output.md (41412 字)

--- 第 41 楼来自 Sebzhuc 的回复 (2026-04-03 17:28:07 PDT) ---

可是执行plan本来就不怎么花token吧,基本都是planning phase花的

--- 第 42 楼来自 争取多活两年 的回复 (2026-04-03 17:28:19 PDT) ---

把贵司嫖破产了怎么办

--- 第 43 楼来自 Yen-Hsiang 的回复 (2026-04-03 17:31:06 PDT) ---

咦我以為大家都知道… 個人是用gsd 。用codex做完planning之後切到copilot的model然後做execution. 簡直完美

--- 第 44 楼来自 Divinealex 的回复 (2026-04-03 17:31:09 PDT) ---

看吧,前期探索用 copliot, 然后用CC 做长context的 理解和planing 最后细节的执行再切换到copilot, 执行还是挺费的把,主要是输出的token更贵

--- 第 45 楼来自 Sebzhuc 的回复 (2026-04-03 17:32:10 PDT) ---

没有,输出的token特别少。尤其假如你要把plan做的特别细的话,那执行基本就是从plan抄代码到repo里去,消耗特别少。

--- 第 46 楼来自 Divinealex 的回复 (2026-04-03 17:34:09 PDT) ---

急死我了,还有半小时 这周的用量到账 ,又可以开干了! /uploads/short-url/fio1Ksq12wWs2m56WsGSlBz372r.png?dl=1

--- 第 47 楼来自 Sebzhuc 的回复 (2026-04-03 17:37:09 PDT) ---

个人体验,应该避免用opus[1m]。cost不谈,context超过200k说明你的用法可以提高,或者task太过庞大,需要细分。1m的context上去之后思考质量下降非常多。

--- 第 48 楼来自 Divinealex 的回复 (2026-04-03 17:38:18 PDT) ---

话说的倒是没错,但是有1M context windows总比没有好对吧。 就跟切菜一样,刀快肯定好,刀钝也能用 虽然我知道,context Windows太长了,积累了很多,会出现精神错乱 (这不就是前两天 把存储板块大跌 10%的 turboquant 么hh)

--- 第 49 楼来自 ATRs 的回复 (2026-04-03 17:40:09 PDT) ---

这玩意儿自动compact的 本来就用不到那么多context 它自己compact一两下完全够用 design的东西拆了丢agent.md 写成skill给它挺好用

--- 第 50 楼来自 Sebzhuc 的回复 (2026-04-03 17:40:31 PDT) ---

纯个人观点,这还真不是。1m刚出来的时候我一直在用,最后发现就是在同一个session里对话过长,很多时候都是无效对话,因为变蠢了根本没有进展,到最后连基础的instruction都做不好了。用200k好歹有一个强制compact,压根不让你有机会变蠢。

--- 第 51 楼来自 vczh 的回复 (2026-04-03 17:41:19 PDT) ---

planning的时候你本来就能让它写个demo自己跑跑然后记录结果删掉再试下一个,光plan不够的

--- 第 52 楼来自 Sebzhuc 的回复 (2026-04-03 17:41:48 PDT) ---

直接叫他把findings写下来然后/rewind就可以了

--- 第 53 楼来自 vczh 的回复 (2026-04-03 17:42:25 PDT) ---

copilot这种玩法你就能高强度自动尝试各种idea,你也别管他的idea是什么,把好的留下来就行了。你一旦再发一句话又被再收一次钱

--- 第 54 楼来自 vczh 的回复 (2026-04-03 17:43:44 PDT) ---

Divinealex: 但是有1M context windows总比没有好对吧。 并不是,差不多用掉400k的时候opus 4.6的正确性就会开始打折,不让他有那么大的context window反而是在降低难度。如果context window是400k那我就会用400k的,1M太大了

--- 第 55 楼来自 Divinealex 的回复 (2026-04-03 17:45:06 PDT) ---

hhhh,那其实理论上来讲就该自己做auto compact?

--- 第 56 楼来自 收束观测者 的回复 (2026-04-03 17:46:58 PDT) ---

Sebzhuc: 那执行基本就是从plan抄代码到repo里去,消耗特别少 LLM抄一段代码是输入输出各算一次 vczh: 如果context window是400k那我就会用400k的,1M太大了 copilot 的opus不就是400K的么

--- 第 57 楼来自 Sebzhuc 的回复 (2026-04-03 17:47:01 PDT) ---

你可以看下ant官方的blog。我看现在最新的推荐用法是从不compact。200k应该足够完成一个task。采用skill的方法做context management。每次永远都新开session。

--- 第 58 楼来自 Divinealex 的回复 (2026-04-03 17:51:11 PDT) ---

我去了解了解

--- 第 59 楼来自 TimCookCook 的回复 (2026-04-03 17:51:58 PDT) ---

Divinealex: 10刀/月的github copilot pro 是学生认证送的吗

--- 第 60 楼来自 Divinealex 的回复 (2026-04-03 17:52:29 PDT) ---

Sebzhuc: ant 氪金了,免费送的那个只有Gemini,有点智障

--- 第 61 楼来自 TimCookCook 的回复 (2026-04-03 17:57:52 PDT) ---

这个视频里面的方法可以试试 https://www.bilibili.com/video/BV1BRNczAEKr/ https://www.bilibili.com/video/BV1BRNczAEKr/ Claude Opus 4.6 神力!Github Copiot 计费机制就是神!GitHub copilot 的 vscode 插件也是写的非常牛逼,能跑这么长上下文依然不出问题(此时cue一下写的非常烂的CLI版本,稍微一长就会出现diff问题,开始闪屏)想到什么说什么系列, 视频播放量 209244、弹幕量 6、点赞数 1370、投硬币枚数 198、收藏人数 2997、转发人数 391, 视频作者 shenjack_, 作者简介...

--- 第 62 楼来自 Yen-Hsiang 的回复 (2026-04-03 18:15:05 PDT) ---

免費的那個有codex 5.3 我覺得還行

--- 第 63 楼来自 MyLiverIsBad 的回复 (2026-04-03 18:26:39 PDT) ---

What’s gsd?

--- 第 64 楼来自 vczh 的回复 (2026-04-03 18:26:43 PDT) ---

/uploads/short-url/wlaJQug35RKgKQRJog2MLPxKIpD.png?dl=1 400的是gpt 5.4

--- 第 65 楼来自 gedeepege 的回复 (2026-04-03 21:29:18 PDT) ---

cursor 老的爷爷计划也是按次收费,窗口 token 快满的时候/summarize 就可以继续用当前窗口了,好用的一批

--- 第 66 楼来自 Rxs 的回复 (2026-04-03 21:36:19 PDT) ---

Claude Code 可以试试 /model opusplan 这样只用opus做plan, 执行都是sonnet自动切换

--- 第 67 楼来自 两只饺子 的回复 (2026-04-03 21:41:58 PDT) ---

企业用户就行,不论规模

--- 第 68 楼来自 Hunterlord 的回复 (2026-04-03 21:56:33 PDT) ---

内部当然是没上限的了,随便用

--- 第 69 楼来自 ssinz7 的回复 (2026-04-03 22:07:22 PDT) ---

10刀的有opus4.6用吗 现在是学生版本没有opus 4.6可用 已经习惯cli了 不够用就只能买国内的反代或者kiro

--- 第 70 楼来自 Yen-Hsiang 的回复 (2026-04-04 05:52:08 PDT) ---

查一下 get shit done

--- 第 71 楼来自 catkinkk 的回复 (2026-04-11 18:56:45 PDT) ---

可是用过opus 1m以后真的不想用别的

--- 第 72 楼来自 TimCookCook 的回复 (2026-04-13 12:28:43 PDT) ---

https://github.blog/changelog/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro/ https://github.blog/changelog/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro/ As GitHub Copilot continues to rapidly grow, we continue to observe an increase in patterns of high concurrency and intense usage. While we understand this can be driven by legitimate… Est. reading time: 2 minutes 暖心升级

--- 第 73 楼来自 vczh 的回复 (2026-04-13 15:20:31 PDT) ---

试用都被人薅烂了,500个opus只要$39已经是慈善做到底了,能跑一千多个小时,四舍五入就是免费,还有什么不满足

--- 第 74 楼来自 TimCookCook 的回复 (2026-04-20 13:23:23 PDT) ---

https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/ https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/ As shared in our recent blog post, we’re making the following changes to Copilot plans for individuals as part of our ongoing efforts to ensure service reliability and a sustainable… Est. reading time: 2 minutes 暖心升级,opus-models-removed-from-pro

--- 第 75 楼来自 vczh 的回复 (2026-04-20 16:22:53 PDT) ---

改信gpt大法了,7.5x的4.7狗都不用

--- 第 76 楼来自 收束观测者 的回复 (2026-04-21 19:57:16 PDT) ---

最近insider的subagent tool可以选model了 史诗升级

--- 第 77 楼来自 vczh 的回复 (2026-04-22 00:05:35 PDT) ---

这么强,可以搞更复杂的活了,这也算一个premium request还是多个

--- 第 78 楼来自 收束观测者 的回复 (2026-04-22 00:10:13 PDT) ---

这我就不知道了 我用的公司账号看不到credit usage 某天晚上开了大概40个左右的long horizon task的session然后被限流了

--- 第 79 楼来自 Hali 的回复 (2026-04-22 20:19:52 PDT) ---

宛如奶UAR Aspire一样 大家好东西就捂着吧 全网盯着泥潭 /uploads/short-url/lkC96frEh1PO8zAFe17WqCSaji2.jpeg?dl=1

--- 第 80 楼来自 收束观测者 的回复 (2026-04-25 10:00:26 PDT) ---

微软并不需要看泥潭才知道自己在token上亏钱了 而且copilot给的模型都是阉割版的,大企业客户也只有opus 4.6有1M context,其他200-400不等

--- 第 81 楼来自 Onvon 的回复 (2026-04-27 11:11:14 PDT) ---

只要公司policy不锁100%usage 就能接着奏乐接着舞 我这个月都150%了 自用就搞个学生身份薅点gpt5.4算了

--- 第 82 楼来自 TimCookCook 的回复 (2026-04-27 11:11:47 PDT) ---

https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/ https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/ Starting June 1, your Copilot usage will consume GitHub AI Credits. Est. reading time: 4 minutes 长对话玩法没了,6.1开始

--- 第 83 楼来自 xxxyyy 的回复 (2026-04-27 11:17:09 PDT) ---

xhs说字节貌似会给员工报销50%的AI产品订阅费

--- 第 84 楼来自 收束观测者 的回复 (2026-04-27 11:22:57 PDT) ---

没上限吗

--- 第 85 楼来自 xxxyyy 的回复 (2026-04-27 12:15:56 PDT) ---

貌似1400?正好够买一年chatgpt pro什么的。感觉以后字节员工可以薅biz plat,靠Amex报销一部分,再公司报销剩下的来白嫖

--- 第 86 楼来自 vczh 的回复 (2026-04-27 16:15:08 PDT) ---

六月份开始,yearly用户全面涨价,monthly转token based。而我的pro+七月份到期,极限薅完。token based狗都不用,以后重度用户需要chatgpt pro

--- 第 87 楼来自 Yangff 的回复 (2026-04-27 16:17:42 PDT) ---

你的内部订阅呢

--- 第 88 楼来自 vczh 的回复 (2026-04-27 16:38:51 PDT) ---

那个不是pro就是business,忘记是哪个了,以前都不够用,别说新的计价方式

--- 第 89 楼来自 Yangff 的回复 (2026-04-27 16:39:18 PDT) ---

是enterprise而且全部unlimited啊 你要是敢站起来蹬我看一个月token就能从公司灏个几百一千刀的(并不推荐)

--- 第 90 楼来自 vczh 的回复 (2026-04-27 17:33:30 PDT) ---

为什么跟我看到的不一样,难道我上晚了

--- 第 91 楼来自 Yangff 的回复 (2026-04-27 17:38:37 PDT) ---

不啊,现在还是,我确认了可以在个人项目用之后才上的

--- 第 92 楼来自 jht03 的回复 (2026-04-27 17:42:44 PDT) ---

vczh: 新的计价方式 应该是整个公司pooled额度,只要有人用得少,你就可以把他们的额度用了

--- 第 93 楼来自 liu0714 的回复 (2026-04-27 18:14:38 PDT) ---

大佬不是senior SDE 还愁token不够用吗

--- 第 94 楼来自 vczh 的回复 (2026-04-27 19:01:15 PDT) ---

liu0714: SDE 还愁token不够用吗 jht03: 应该是整个公司pooled额度 上班的时候我有pooled的claude code,自己的开源项目可不能用上班的那个。不过微软给员工还有个人的,但是之前pro+是per request的,就很便宜,自己买避免以后说不清楚

--- 第 95 楼来自 收束观测者 的回复 (2026-04-27 19:27:38 PDT) ---

Yangff: 内部订阅 不需要用工作邮箱登录吗 vczh: 微软给员工还有个人的 我怎么听说只有VS Enterprise给的每个月的azure credit?

--- 第 96 楼来自 Yangff 的回复 (2026-04-27 19:37:31 PDT) ---

可以绑定你的personal账号然后你的personal账号就可以用msft的enterprise订阅,policy那边说了可以在hobby project用

--- 第 97 楼来自 TimCookCook 的回复 (2026-04-27 20:33:02 PDT) ---

https://github.blog/changelog/2026-04-27-copilot-student-gpt-5-3-codex-removal-from-model-picker/ https://github.blog/changelog/2026-04-27-copilot-student-gpt-5-3-codex-removal-from-model-picker/ Starting today, in our Copilot Student plan, we are removing GPT-5.3-Codex from the model picker. It remains available through auto model selection. Auto model selection is built to match each… Est. reading time: 1 minute 再次限制,学生会员给的codex无了