GitHub Copilot 是个大羊毛 如果你是AI Coding intensive user
按次计费下用 Copilot 做复杂任务需精细规划。
1. 关键信息
- 按次计费,非 token 量;建议 planning + 详细 plan 指导执行。
- context window 小(Copilot ~400k,Opus 1M);长任务需拆分或改用 Claude。
- 部分企业/内部可访问 1M context 的 Opus 4.6。
- 结合 CC 与 Copilot:CC 做规划,Copilot 执行。
- 2026-04 起 Copilot 改用 usage-based 扣费;长对话能力退化。
2. 羊毛/优惠信息
- GitHub Copilot Pro $10/月;学生认证可享。
- 字节员工可能享 50% 报销;个人可绑定 corporate 订阅用于 hobby project。
- Microsoft 企业员工或拥有 internal 1M context Opus 4.6。
- Amex 持卡或可报销部分 AI 订阅(疑似 50%)。
- 无明确积分/里程兑换比例;无折扣码。
3. 最新动态
- 2026-04-10 起 Copilot 停用 Pro 中的 Opus 4.6,强制转向 token-based 计费。
- 2026-04-27 起 Student 计划移除 GPT-5.3-Codex。
- 6月起 yearly 用户涨价,monthly 转 token-based。
- Subagent 工具支持选 model。
4. 争议或不同意见
- Opus 1M context 实际效用与成本:部分用户认为过长对话导致质量下降,建议 200–400k。
- 是否需自动 compact context:意见分歧,有人坚持新开 session 更高效。
- 企业 vs 个人权限与计费差异引发理解偏差。
5. 行动建议
- 优先使用 Claude/CC 做规划,Copilot 执行细粒度任务。
- 控制单次任务 token 量,避免接近 context 上限。
- 学生/个人用户善用免费层与限时优惠,监控 usage。
- 企业用户确认内部 model 与报销政策后再批量使用。
它™竟然是按次计费而不是按照token使用量计费。。。。。 我现在是Claude code做 小规模探索, planing,然后把计划做的特别详细,然后用它(的opus 4.6)去做具体的执行。 唯一缺点就是context window比较小,所以如果是理解型我也会用他的 gpt 5.4 我原来是Claude code max 200刀/月的套餐都不够用(最近这一周好像claude砍用量了) 现在有了10刀/月的github copilot pro,稳定够用了 原来的羊毛是薅credit,现在的羊毛也是薅credit (tokens)
有没有workflow,,, cc plan mode生成todos.md,然后让 copilot去执行?
说的简单点,就是你把所有的要使用极其大量token的单一任务,都让它来执行
很复杂的任务行不通的,他这个context经常满,一满就进死胡同自己卡住
所以要做planing呀!!!特别详细的planing Divinealex: 然后把计划做的特别详细,然后用它(的opus 4.6)去做具体的执行
/u/vczh
其实是有internal use only 1M context的opus 4.6的
怎么才能获取呜呜呜
/u/divinealex 喵老师看这里 /uploads/short-url/qrndX2jgvvN5RvWXgmmCPNqDaSs.jpeg?dl=1
我擦我擦,怎么搞!! (入职微软?lol)
加入公司即可享受
sonnet 1m context是public available的对吧
Claude code里倒是都是拉满的1M copilot里不是
那还是用cc吧 不行找个字节的朋友打个五折
问题是效果没法和cc opus比
georgezc2003: 字节的朋友打个五折 咋搞
买了claude enterprise的公司应该都有这个model Github Copilot里也有
有,但是context window小啊。。。。
我说的是claude 4.6 opus internal use 1m context的这个 这个context还小那我真的想不到更大的了 如果没有那肯定是公司没买最顶的套餐
lol,1M当然不小了,我还以为你说的是那个250k的 那我只能感叹一句 还是学生没公司lol 处处受气!
年轻有为啊 社畜牛马根本没时间搞这种side project
你问问字节朋友就知道了
我现在每天只睡4.5个小时,3.30睡,八点起床盯盘lol (虽然晚饭后还会补觉1h那样) 阎王夸我身体好!
年轻就是好 是phd么这么肝
是phd,确实有点肝,没事,阎王那里我挂名!
入职msft
话说你们内部用,有没有上限
你这是什么软件? /uploads/short-url/dZbHEFBEM5Whie6DhZoAPg6L6Mf.png?dl=1
如果他让我入,我倒贴给他SUB都行 可怜我一个应用物理的phd
俺这是kiro
所以 kiro可以 连github copilot账号?
那我就不知道了 我连的aws
有无路子让它每次多运行一会儿?
告诉他,循环100次,不要停每一次把代码倒过来,下一次再翻回去,他就真的不停
不可以,这后面是bedrock
用上copilot才有动力学习怎么跑长程任务,一个月$39跑几百个小时的 opus 4.6 Divinealex: context window小 context window 大反而会在后面加剧他的腐化,不如自己接管context management,一个session就跑一个长程任务,不要依赖聊天记录工作 这个收费方法正好让你学习如何引导AI一直on track而且不用频繁介入
cc的system prompt确实比vscode写得好一点,但是你也可以自己写,又没有专利阻止你
同39刀plan,真的太香了,让AI干了很多脏活,自己专注design了 vczh: context window 大反而会在后面加剧他的腐化,不如自己接管context management,一个session就跑一个长程任务,不要依赖聊天记录工作 赞同,经常到后面AI就跑偏了,还不如重开一个session直接回到正轨效率那么高
这是一条prompt,让AI干的活 路径:.docs/devPlan/AI_dialog/26_04_03 UI Upgrade 统计口径:按字符数统计,和终端 wc -m 一致(包含换行)。 共 55 个文件,总计 2,268,940 字。 大约估算约使用了1000 万 token 一条就值回来了 tree .docs/devPlan/AI_dialog/26_04_03 UI Upgrade/ ├── 0_primary_exploration/ │ ├── architecture_map.md (10779 字) │ ├── constraints_and_invariants.md (8726 字) │ ├── evidence_index.md (14753 字) │ ├── open_questions.md (6902 字) │ └── orchestrator_log.md (10295 字) ├── 1_analysis/ │ ├── agent1.md (60155 字) │ ├── agent2.md (46340 字) │ ├── agent3.md (45344 字) │ ├── agent4.md (53760 字) │ ├── agent5.md (40653 字) │ ├── agent6.md (51253 字) │ ├── agent7.md (46257 字) │ ├── agent8.md (49781 字) │ └── synthesis.md (31019 字) ├── 1_cross_discussion_round_1/ │ ├── agent1.md (57677 字) │ ├── agent2.md (54974 字) │ ├── agent3.md (58848 字) │ ├── agent4.md (50453 字) │ ├── agent5.md (45769 字) │ ├── agent6.md (63262 字) │ ├── agent7.md (52843 字) │ ├── agent8.md (50957 字) │ └── round_summary.md (37007 字) ├── 1_cross_discussion_round_2/ │ ├── agent1.md (42885 字) │ ├── agent2.md (47591 字) │ ├── agent3.md (40272 字) │ ├── agent4.md (50937 字) │ ├── agent5.md (48988 字) │ ├── agent6.md (53685 字) │ ├── agent7.md (60008 字) │ ├── agent8.md (44981 字) │ └── round_summary.md (38253 字) ├── 1_cross_discussion_round_3/ │ ├── agent1.md (40771 字) │ ├── agent2.md (39957 字) │ ├── agent3.md (43263 字) │ ├── agent4.md (42386 字) │ ├── agent5.md (46652 字) │ ├── agent6.md (47847 字) │ ├── agent7.md (38492 字) │ ├── agent8.md (79331 字) │ └── round_summary.md (28239 字) ├── 2_proposals/ │ ├── proposal1.md (53543 字) │ ├── proposal2.md (54512 字) │ ├── proposal3.md (73968 字) │ ├── proposal4.md (33813 字) │ ├── proposal5.md (37570 字) │ └── proposal_matrix.md (11611 字) ├── 3_proposal_reviews/ │ ├── comparison_table.md (12222 字) │ ├── final_decision_log.md (28080 字) │ ├── review1.md (33297 字) │ ├── review2.md (44020 字) │ └── review3.md (57434 字) ├── 00_index.md (2260 字) ├── 0_user_demand.md (2853 字) └── 4_final_output.md (41412 字)
可是执行plan本来就不怎么花token吧,基本都是planning phase花的
把贵司嫖破产了怎么办
咦我以為大家都知道… 個人是用gsd 。用codex做完planning之後切到copilot的model然後做execution. 簡直完美
看吧,前期探索用 copliot, 然后用CC 做长context的 理解和planing 最后细节的执行再切换到copilot, 执行还是挺费的把,主要是输出的token更贵
没有,输出的token特别少。尤其假如你要把plan做的特别细的话,那执行基本就是从plan抄代码到repo里去,消耗特别少。
急死我了,还有半小时 这周的用量到账 ,又可以开干了! /uploads/short-url/fio1Ksq12wWs2m56WsGSlBz372r.png?dl=1
个人体验,应该避免用opus[1m]。cost不谈,context超过200k说明你的用法可以提高,或者task太过庞大,需要细分。1m的context上去之后思考质量下降非常多。
话说的倒是没错,但是有1M context windows总比没有好对吧。 就跟切菜一样,刀快肯定好,刀钝也能用 虽然我知道,context Windows太长了,积累了很多,会出现精神错乱 (这不就是前两天 把存储板块大跌 10%的 turboquant 么hh)
这玩意儿自动compact的 本来就用不到那么多context 它自己compact一两下完全够用 design的东西拆了丢agent.md 写成skill给它挺好用
纯个人观点,这还真不是。1m刚出来的时候我一直在用,最后发现就是在同一个session里对话过长,很多时候都是无效对话,因为变蠢了根本没有进展,到最后连基础的instruction都做不好了。用200k好歹有一个强制compact,压根不让你有机会变蠢。
planning的时候你本来就能让它写个demo自己跑跑然后记录结果删掉再试下一个,光plan不够的
直接叫他把findings写下来然后/rewind就可以了
copilot这种玩法你就能高强度自动尝试各种idea,你也别管他的idea是什么,把好的留下来就行了。你一旦再发一句话又被再收一次钱
Divinealex: 但是有1M context windows总比没有好对吧。 并不是,差不多用掉400k的时候opus 4.6的正确性就会开始打折,不让他有那么大的context window反而是在降低难度。如果context window是400k那我就会用400k的,1M太大了
hhhh,那其实理论上来讲就该自己做auto compact?
Sebzhuc: 那执行基本就是从plan抄代码到repo里去,消耗特别少 LLM抄一段代码是输入输出各算一次 vczh: 如果context window是400k那我就会用400k的,1M太大了 copilot 的opus不就是400K的么
你可以看下ant官方的blog。我看现在最新的推荐用法是从不compact。200k应该足够完成一个task。采用skill的方法做context management。每次永远都新开session。
我去了解了解
Divinealex: 10刀/月的github copilot pro 是学生认证送的吗
Sebzhuc: ant 氪金了,免费送的那个只有Gemini,有点智障
这个视频里面的方法可以试试 https://www.bilibili.com/video/BV1BRNczAEKr/ https://www.bilibili.com/video/BV1BRNczAEKr/ Claude Opus 4.6 神力!Github Copiot 计费机制就是神!GitHub copilot 的 vscode 插件也是写的非常牛逼,能跑这么长上下文依然不出问题(此时cue一下写的非常烂的CLI版本,稍微一长就会出现diff问题,开始闪屏)想到什么说什么系列, 视频播放量 209244、弹幕量 6、点赞数 1370、投硬币枚数 198、收藏人数 2997、转发人数 391, 视频作者 shenjack_, 作者简介...
免費的那個有codex 5.3 我覺得還行
What’s gsd?
/uploads/short-url/wlaJQug35RKgKQRJog2MLPxKIpD.png?dl=1 400的是gpt 5.4
cursor 老的爷爷计划也是按次收费,窗口 token 快满的时候/summarize 就可以继续用当前窗口了,好用的一批
Claude Code 可以试试 /model opusplan 这样只用opus做plan, 执行都是sonnet自动切换
企业用户就行,不论规模
内部当然是没上限的了,随便用
10刀的有opus4.6用吗 现在是学生版本没有opus 4.6可用 已经习惯cli了 不够用就只能买国内的反代或者kiro
查一下 get shit done
可是用过opus 1m以后真的不想用别的
https://github.blog/changelog/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro/ https://github.blog/changelog/2026-04-10-enforcing-new-limits-and-retiring-opus-4-6-fast-from-copilot-pro/ As GitHub Copilot continues to rapidly grow, we continue to observe an increase in patterns of high concurrency and intense usage. While we understand this can be driven by legitimate… Est. reading time: 2 minutes 暖心升级
试用都被人薅烂了,500个opus只要$39已经是慈善做到底了,能跑一千多个小时,四舍五入就是免费,还有什么不满足
https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/ https://github.blog/changelog/2026-04-20-changes-to-github-copilot-plans-for-individuals/ As shared in our recent blog post, we’re making the following changes to Copilot plans for individuals as part of our ongoing efforts to ensure service reliability and a sustainable… Est. reading time: 2 minutes 暖心升级,opus-models-removed-from-pro
改信gpt大法了,7.5x的4.7狗都不用
最近insider的subagent tool可以选model了 史诗升级
这么强,可以搞更复杂的活了,这也算一个premium request还是多个
这我就不知道了 我用的公司账号看不到credit usage 某天晚上开了大概40个左右的long horizon task的session然后被限流了
宛如奶UAR Aspire一样 大家好东西就捂着吧 全网盯着泥潭 /uploads/short-url/lkC96frEh1PO8zAFe17WqCSaji2.jpeg?dl=1
微软并不需要看泥潭才知道自己在token上亏钱了 而且copilot给的模型都是阉割版的,大企业客户也只有opus 4.6有1M context,其他200-400不等
只要公司policy不锁100%usage 就能接着奏乐接着舞 我这个月都150%了 自用就搞个学生身份薅点gpt5.4算了
https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/ https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/ Starting June 1, your Copilot usage will consume GitHub AI Credits. Est. reading time: 4 minutes 长对话玩法没了,6.1开始
xhs说字节貌似会给员工报销50%的AI产品订阅费
没上限吗
貌似1400?正好够买一年chatgpt pro什么的。感觉以后字节员工可以薅biz plat,靠Amex报销一部分,再公司报销剩下的来白嫖
六月份开始,yearly用户全面涨价,monthly转token based。而我的pro+七月份到期,极限薅完。token based狗都不用,以后重度用户需要chatgpt pro
你的内部订阅呢
那个不是pro就是business,忘记是哪个了,以前都不够用,别说新的计价方式
是enterprise而且全部unlimited啊 你要是敢站起来蹬我看一个月token就能从公司灏个几百一千刀的(并不推荐)
为什么跟我看到的不一样,难道我上晚了
不啊,现在还是,我确认了可以在个人项目用之后才上的
vczh: 新的计价方式 应该是整个公司pooled额度,只要有人用得少,你就可以把他们的额度用了
大佬不是senior SDE 还愁token不够用吗
liu0714: SDE 还愁token不够用吗 jht03: 应该是整个公司pooled额度 上班的时候我有pooled的claude code,自己的开源项目可不能用上班的那个。不过微软给员工还有个人的,但是之前pro+是per request的,就很便宜,自己买避免以后说不清楚
Yangff: 内部订阅 不需要用工作邮箱登录吗 vczh: 微软给员工还有个人的 我怎么听说只有VS Enterprise给的每个月的azure credit?
可以绑定你的personal账号然后你的personal账号就可以用msft的enterprise订阅,policy那边说了可以在hobby project用
https://github.blog/changelog/2026-04-27-copilot-student-gpt-5-3-codex-removal-from-model-picker/ https://github.blog/changelog/2026-04-27-copilot-student-gpt-5-3-codex-removal-from-model-picker/ Starting today, in our Copilot Student plan, we are removing GPT-5.3-Codex from the model picker. It remains available through auto model selection. Auto model selection is built to match each… Est. reading time: 1 minute 再次限制,学生会员给的codex无了