泥潭日报 uscardforum · 每日精选

背完了支持多模态 rag 的agent,微调了一个小的大模型,没有厂子约面试

内容摘要

学生用低成本方案装模做项目应对面试。

1. 关键信息

  • 面试需准备多模态 RAG agent 项目与微调小模型(7b)经验。
  • 使用 GCP 300$ 免费信用及 Colab Pro 学生认证(#8、#13、#23)。
  • 4090 性能有限,32b 模型全量微调至 7b(#10)。
  • 数据来源为开源、脱敏、可商用的训练集,非教程复现(#20、#22)。
  • flash attn 安装困难,学术界仍在使用 conda(#29)。

2. 羊毛/优惠信息

  • GCP:300$ 免费信用。
  • Colab Pro:学生认证每周数十小时 H200,kaggle 积分。
  • AutoDL:学生认证 30$ / 24h,H800 80G 9$/小时(#23)。
  • lightning.ai:手机号每月 15 积分,h200(#14)。
  • 无明确卡种优惠。

3. 最新动态

  • 帖子引发讨论,聚焦硬件性价比与项目真实性(#3、#10、#26)。
  • 建议开源项目并 Twitter 推广,先发再迭代(#16、#18)。

4. 争议或不同意见

  • 硬件选择分歧:4090 寒碜 vs GCP 云上 MLOps(#3、#8、#10)。
  • 项目价值争议:toy 项目是否足以应对面试(#17、#21)。
  • 盈利模式与 flashattn 必要性存在疑问(#26、#32)。

5. 行动建议

  • 搭建并开源多模态 RAG 项目,落地数据与代码。
  • 善用 GCP/Colab/AutoDL 降低成本,简历增加项目经历。
  • 提前准备微调数据来源与 flash attn 安装方案。
原始内容
--- 第 1 楼来自 nin11 的回复 (2026-04-01 09:26:47 PDT) ---

面试官 会问我什么呢 装成啥样他才不会发现我是啥也没做的菜狗呢。。

--- 第 2 楼来自 gin_m 的回复 (2026-04-01 09:29:36 PDT) ---

学长宿舍里面有

--- 第 3 楼来自 peridot 的回复 (2026-04-01 09:30:19 PDT) ---

换个学长吧 4090也太寒碜了

--- 第 4 楼来自 DeutscheGrammophon 的回复 (2026-04-01 09:30:26 PDT) ---

姐妹们又来团建啦

--- 第 5 楼来自 nin11 的回复 (2026-04-01 09:30:33 PDT) ---

不是 到底微调大模型 用这个嘛? 我得编一个吧

--- 第 6 楼来自 nin11 的回复 (2026-04-01 09:31:39 PDT) ---

你到底会不会啊 别又放阴间小曲

--- 第 7 楼来自 DeutscheGrammophon 的回复 (2026-04-01 09:32:17 PDT) ---

为啥阴间

--- 第 8 楼来自 Rosmontis 的回复 (2026-04-01 09:39:35 PDT) ---

你说你用gcp的免费300刀credit做了个LoRA都说比用学长宿舍的4090好 用gcp好歹说明你熟悉云上MLops

--- 第 9 楼来自 nin11 的回复 (2026-04-01 09:40:40 PDT) ---

太好了 就这样编 保真吧

--- 第 10 楼来自 Overmindss 的回复 (2026-04-01 09:50:34 PDT) ---

4090能跑啥啊 32b撑死了 全量微调可能就7b?

我本地就是4090 但是大模型都是薅gcp

--- 第 11 楼来自 nin11 的回复 (2026-04-01 10:01:04 PDT) ---

我用的弱鸡 大模型就是7b。。 我还去gcp上弄么

--- 第 12 楼来自 tomandjerry 的回复 (2026-04-01 10:50:06 PDT) ---

介绍给我吧,1063我都没有

--- 第 13 楼来自 tomandjerry 的回复 (2026-04-01 10:51:25 PDT) ---

gcp免费的credit现在能开gpu了?

还是要自己充钱?

--- 第 14 楼来自 tomandjerry 的回复 (2026-04-01 10:54:10 PDT) ---

lightning.ai

每个手机号每个月免费15个积分,能用 h200。还有各种搭好的环境。

Screenshot_202604012340×1080 134 KB

--- 第 15 楼来自 nin11 的回复 (2026-04-01 10:56:27 PDT) ---

太好了吧 猫老师

--- 第 16 楼来自 Forlorner 的回复 (2026-04-01 10:58:35 PDT) ---

试试发几个open source project

然后在twitter上自己推广一下

--- 第 17 楼来自 nin11 的回复 (2026-04-01 10:59:57 PDT) ---

我这个项目很toy。。。 拿来面ft的 只比直接rag+agent 多了一点点步骤

--- 第 18 楼来自 Forlorner 的回复 (2026-04-01 11:00:28 PDT) ---

先发上去,慢慢一点点更新

这样你简历上有的写

--- 第 19 楼来自 nin11 的回复 (2026-04-01 11:01:24 PDT) ---

简历我编完了呢。。

--- 第 20 楼来自 tomandjerry 的回复 (2026-04-01 11:13:10 PDT) ---

那我问你,你微调的数据哪里来的?

难道你就走教程在 gsm8k rlhf 了一个 qwen 2.5 0.5b (aka ml hello world)?

--- 第 21 楼来自 Forlorner 的回复 (2026-04-01 11:16:07 PDT) ---

那你就把编的project都落地一遍就行了

--- 第 22 楼来自 nin11 的回复 (2026-04-01 11:16:13 PDT) ---

【引用自 tomandjerry】:
你微调的数据哪里来的
训练集 找了开源的xxx? 可以商用且脱敏过了 找一个标注过的 直接用的
【引用自 tomandjerry】:
难道你就走教程在 gsm8k rlhf 了一个 qwen 2.5 0.5b (aka ml hello world)?
我是这样的人嘛? 我一笔都没动呢 怎么可能走教程

--- 第 23 楼来自 Overmindss 的回复 (2026-04-01 12:58:02 PDT) ---

colab pro学生认证每周有几十个小时我记得

然后kaggle也可以

其实我觉得自己充钱也不是不行… AutoDL H800 80G也就九块钱一个小时 30刀/24h 属于是phd stipend也付得起了…

--- 第 24 楼来自 tomandjerry 的回复 (2026-04-01 13:16:01 PDT) ---

我也有colab pro,但是colab环境限制太多,我跑 verl 还要自己安装很多包。调试环境就要1个多小时了(说的就是煞笔flash attn)

单卡30刀一天,16卡就是480刀一天。

开次机几十就没了

我以前也用autodl,但是autodl本身虚拟化太严重,不能用docker。除此之外不错

--- 第 25 楼来自 Overmindss 的回复 (2026-04-01 13:23:53 PDT) ---

这些平台我觉得弄个简历小项目是够的(autodl:都这价格了要啥自行车),你这16卡属于是超纲了(给简历上加上分布式是吧

对于nlp flash attn安好就算入门了 (cv已死

--- 第 26 楼来自 Rosmontis 的回复 (2026-04-01 14:38:31 PDT) ---

autoDL卖这么便宜咋赚钱的

话说llm以后得nlp到底什么情况,话说学界现在还在死磕kv cache,flash attn不是前年的东西吗现在应该都是标配了吧?

--- 第 27 楼来自 SuKi2cn 的回复 (2026-04-01 14:39:11 PDT) ---

租个卡或者搞个什么lambda的免费credit? 不过这帖子怎么刚发就被举报过多了

--- 第 28 楼来自 system 的回复 (2026-04-01 14:40:11 PDT) ---
--- 第 29 楼来自 tomandjerry 的回复 (2026-04-01 14:46:36 PDT) ---

我是指 flash attn 这个包难安装,如果没有预编译的版本可选,编译他就要1个小时。

学术界还在用什么conda,又慢又垃圾。

--- 第 30 楼来自 nin11 的回复 (2026-04-01 14:48:38 PDT) ---

因为有疯狗追着咬呗

--- 第 31 楼来自 system 的回复 (2026-04-01 14:50:37 PDT) ---
--- 第 32 楼来自 Overmindss 的回复 (2026-04-01 14:58:33 PDT) ---

不清楚盈利模式

我是cv难民(已死) 个人感觉llm之后普通lab做基模和小而美基本没有了吧 data/prompt/后训/对齐/agentic这些多一些

多模态大模型和原生多模态这些也有些

flashattn自己从头安一次就懂了

--- 第 33 楼来自 otonoco 的回复 (2026-04-01 15:16:52 PDT) ---

小的大模型 到底是小模型 还是大模型?