泥潭日报 uscardforum · 每日精选

一些白嫖获取LLM API的路子, 可用于OpenClaw

内容摘要

总结多渠道免费LLM API在OpenClaw中的安全与合规使用。

1. 关键信息

  • NVIDIA NIM: Kimi k2.5 / gpt-oss-120b,QPM 40,无限显存,白嫖需邮箱+手机(#1,#10)。
  • Groq: Kimi k2 / GPT OSS,30 RPM,1,000/天,白嫖(#1,#10)。
  • OpenRouter: GPT-OSS-120b,20/1000($10 解锁),模型多样(#1,#32)。
  • Google AI Pro: Gemini 2.5 Pro/Flash,Tier 1,$10/月或学生白嫖,1M上限(#1,#34)。
  • OpenAI Codex OAuth: ChatGPT Plus $20/月,200K上下文(#1,#29)。
  • 国家超算互联网: 每人10M Tokens/两周,续购约0.1元/百万(#83)。

2. 羊毛/优惠信息

无。

3. 最新动态

  • Google 限流/封号集中于滥用免费 tier 与反代(#24,#27,#34,#96)。
  • OpenRouter 免费模型需允许数据存储(#32)。
  • NVIDIA 号码限额报错(#101)。
  • Google Cloud credits 前两月有效,后续 $10 消失(#103)。

4. 争议或不同意见

  • Google API 稳定性与限流争议(#24,#27)。
  • 社区对 Agent 榜单与 API 性能评估分歧(#38,#44,#72)。
  • 中转/反代账号与数据安全风险(#5,#99)。

5. 行动建议

  • 优先选用 NVIDIA NIM 与 Groq 稳定免费通道。
  • 避免反代/中转以降低封号与隐私风险。
  • 合理使用 Google/OpenAI 订阅与 credits,避免滥用。
原始内容
--- 第 1 楼来自 LiquidSnake 的回复 (2026-03-07 23:18:53 PST) ---

最近openclaw很火, 但是在隔壁楼看到大家还在纠结base llm怎么部署的问题, 于是这里分享一些我认为比较靠谱的API来源给大家.

"比较靠谱"我个人认为要下面几个标准:

模型不能太菜, 弄个7b模型的API显然没什么意思
能保证数据安全, 毕竟OpenClaw这种会接触大量个人信息, 奇怪的API来源会导致数据安全无法保证, 所以我在这里不会推荐比较小的API农场/公益站
不会因为违反TOS导致封号. anthropic和google最近都在大量封号, 不少人自己的主力google账号也被封了, 所以反代claude code和gemini cli的路子我就不说了, 但是openai目前看起来没什么事.

根据这个标准, 下面列一些我认为比较好的来源:

来源
主力模型
RPM
每日上限
Context Window
前置成本

NVIDIA NIM
Kimi k2.5
40
官方宣称无限
128K
白嫖

Groq
Kimi k2
30
1,000
128K
白嫖

OpenRouter
GPT-OSS-120b
20
50 / 1000(充 $10 解锁)
模型而异
白嫖, 也可以充$10增强体验

Google AI Pro
Gemini 2.5 Pro / Flash
Tier 1(远高于免费)
受 $10 月度 credit 预算限制
1M
$19.99/月 / 学生账号白嫖

OpenAI
GPT-5.3-Codex
订阅内
订阅内
200K
ChatGPT Plus $20/月

1. NVIDIA NIM

NVIDIA 通过 Developer Program 免费开放很多模型, 社区很多人用这个来白嫖Kimi k2.5(目前最强开源模型之一, 1 trillion参数) 或者GPT-OSS-120b(OpenAI 开源的 117B 参数 MoE 模型)

官网宣称QPM是 40, 但是实际感觉和模型有关. Kimi k2.5这种超大模型经常出问题, 但是100B左右的模型总体来说比较稳定, 个人使用基本够用

只需要一个邮箱和一个手机号就可以白嫖了, 如果你有多个手机号也可以搞多个API, 相信搞metro的大家最不缺的就是手机号了

访问 build.nvidia.com

注册 NVIDIA Developer 账号(免费)

搜索你想用的模型, 比如 gpt-oss-120b,进入模型页面

点击Deploy → Get API Key

image3340×1004 171 KB

点击 “Get API Key”,完成手机号验证,拿到 nvapi- 开头的 key

2. Groq

Groq是一个做AI芯片的startup, 创始人是前 Google TPU 首席架构师. 本来是要和老黄直接竞争的, 不过就在25年12月被Nvidia 收购了 不过也让API的安全性和稳定性好不少

他们芯片的特点是吐字非常快, GPT OSS能做到500 token/s, 所以延迟会非常低

他们有永久免费 tier, 额度给的很慷慨,用起来也非常简单, 无需信用卡,支持 GPT OSS, Llama 3.3 70B 等开源模型。30 RPM,1,000 次/天, 具体请见: Rate Limits - GroqDocs

image1392×1611 249 KB

其中Kimi k2在编程上性能一般更好, 通用任务GPT OSS个人感觉更好一些

获取方式:

访问 console.groq.com 并注册
进入 API Keys 页面,创建 key,拿到 gsk_ 开头的 key

image2939×603 42.5 KB

3. OpenRouter

这是一个API分发商, 就是API提供者把API提供给他们, 他们再转发给用户,

他们有很多模型都可以免费用, 包括很多奇奇怪怪的小众模型。纯免费账户 20 RPM、50 次/天;充值 $10 后解锁到 1000 次/天。这 $10 是账户余额不会被免费模型消耗,只起解锁门槛作用,不是月费。

访问 openrouter.ai 并注册

Settings > API Keys,创建 key,拿到 sk-or- 开头的 key

image3291×1349 178 KB

如需更高配额,Credits 页面充 $10即可

4. Google AI Pro Cloud Credits

Google AI Pro 会员($19.99/月)自带 Google Developer Program premium 资格,每月赠送 $10 Google Cloud credits;AI Ultra($249.99/月)则是 $100/月. 这笔 credit 可以直接用来调 Gemini API, 走AI Studio 和 Vertex AI 均可.

因为本质上是花自己的credit,RPM 和 RPD 上限远高于免费 tier: Gemini 2.5 Pro 付费 tier 约 150 RPM / 2000 RPD,Flash 更高。实际瓶颈不是速率限制,而是每月 $10 的预算上限。

$10 能跑多少? 以 Gemini 2.5 Flash 为例,input 约 $0.15/M tokens、output 约 $0.60/M tokens,$10 大概能跑 1500 万+ input tokens 或 几百万 output tokens,个人日常用 OpenClaw 做轻量任务绑绑有余。如果主要跑 Flash 而不是 Pro,性价比很高。

相信大家都白嫖了edu的免费12个月Pro会员, 所以也把这个方法计算进来了

获取方式:

订阅 Google AI Pro

去 console.cloud.google.com/billing 设置一个结算账号, 如果已经有了可以忽略

访问 我的福利 | Google 开发者计划  |  Google Developer Program  |  Google for Developers 激活 Developer Program premium, 并选中刚刚的结算账号

image2959×992 288 KB

在 AI Studio(aistudio.google.com)创建一个API Key, 开启付费 tier,或在 Vertex AI 中调用 Gemini API

注意:credit 每月刷新,一年内有效

另外有奇技淫巧是, 多个不同 ai 会员的 credit 可以累积到一个单一结算账户上, 并且AI账号是可以添加家庭组的, 每个账号最多五个家庭组成员, 每个家庭组成员都能拿到credit, 所以理论上这个credit可以翻五倍, 但是我目前还没实践过

Google 最近确实在封号,但被封的主要是滥用免费 tier 和违反 TOS 的反代用户。通过正规 AI Pro 订阅 + Cloud credits 走付费 API 调用不违反TOS, 这个credit你也可以拿来买第三方模型或者google 搜索, 目前没有看到封号案例
5. OpenAI Codex OAuth

用 ChatGPT 订阅(Plus $20/月起)通过 OAuth 调用 Codex 模型,消耗订阅内配额而非按 token 计费。这条线路不在这里配置,后面安装 OpenClaw 时通过向导完成。

关于合规性:OpenClaw 使用的是和 Codex CLI 同一套 OAuth 认证流程,社区普遍在用。但 OpenAI 并没有明文写"第三方工具可以用 ChatGPT 订阅跑自动化"。作为参照,Anthropic 在 2026 年初封堵了 Claude 订阅的第三方 OAuth,OpenAI 目前没有类似动作,但不保证未来不会。建议正常个人使用,不要拿来跑 24/7 批量任务,也不要把这条线路当唯一依赖。

如果大家有什么其他比较好的来源也欢迎补充!

另外如果大伙有兴趣, 我也可以考虑继续写一下配置openclaw的教程, 本地部署模型的教程等

--- 第 2 楼来自 letix 的回复 (2026-03-07 23:22:41 PST) ---

【引用自 LiquidSnake】:
anthropic和google最近都在大量封号, 不少人自己的主力google账号也被封了
所以为什么列表里还在推荐Google AI Pro(是因为可以白嫖吗)?

--- 第 3 楼来自 折木奉太郎 的回复 (2026-03-07 23:35:49 PST) ---

卧槽感谢楼主啊 居然完全不知道老黄有这个平台

--- 第 4 楼来自 xxxyyy 的回复 (2026-03-07 23:48:55 PST) ---

大模型感觉白嫖teams的codex免费就可以无限用了。

embedding模型和TTS和ASR这些模型不知道有没有白嫖的

--- 第 5 楼来自 icework 的回复 (2026-03-07 23:56:13 PST) ---

玩玩的话,用下中国的黑产API中间商也问题不大

--- 第 6 楼来自 jwl 的回复 (2026-03-08 00:17:53 PST) ---

什么是黑产API

--- 第 7 楼来自 郁小南 的回复 (2026-03-08 00:27:53 PST) ---

【引用自 letix】:
所以为什么列表里还在推荐Google AI Pro(是因为可以白嫖吗)?
因为LZ说的是用订阅自带的credit正经去call API 而不是让你反代

--- 第 8 楼来自 tomandjerry 的回复 (2026-03-08 00:28:22 PST) ---

有大量的llm API,但是没有用武之地。

这个openclaw很一般啊,完全不知道好在哪里。和以前的agent也没有跨时代的改进。

--- 第 9 楼来自 icework 的回复 (2026-03-08 00:38:37 PST) ---

就是自己用号池或者反代给国内用户大规模代理chatgpt和claude api

--- 第 10 楼来自 momo123 的回复 (2026-03-08 00:45:15 PST) ---

试了一下, NVIDIA NIM没要手机号验证就给了API,放到CLI Proxy API里能用

--- 第 11 楼来自 tommylin 的回复 (2026-03-08 00:57:57 PST) ---

太牛了 感谢lz

--- 第 12 楼来自 jwl 的回复 (2026-03-08 01:01:13 PST) ---

如果便宜的话也是一个选择呀

--- 第 13 楼来自 不知道是谁 的回复 (2026-03-08 01:07:17 PST) ---

赞哦,之前不知道能白嫖nvidia

--- 第 14 楼来自 kaion 的回复 (2026-03-08 01:21:14 PST) ---

这些公司让api免费是因为这些模型不怎么用算力还是什么原因

--- 第 15 楼来自 CatGPT 的回复 (2026-03-08 01:27:44 PST) ---

目前在用白嫖gpt team

想学习一下openclaw的一些good practice 比如怎么分配subagent/skills等等 以及一些project的brainstorming 有啥好玩的可以跑

现在觉得最限制我的是想象力

--- 第 16 楼来自 icework 的回复 (2026-03-08 01:31:14 PST) ---

可以参考下这个网站 https://www.helpaio.com/transit

--- 第 17 楼来自 transformer_88 的回复 (2026-03-08 01:40:31 PST) ---

GOOGLE会封号吧 这是让往火坑里跳

最便宜的是免费GPT账号即可免费用codex登录吧

--- 第 18 楼来自 IPFS 的回复 (2026-03-08 03:04:49 PDT) ---

黑产 API 的其中一个问题是,它不一定提供自己宣称的模型。可以看这篇文章。比如有拿 glm-4-9b-chat 装成 GPT-5 的。

--- 第 19 楼来自 CB2 的回复 (2026-03-08 03:04:50 PDT) ---

英伟达的可以说卡的基本上不能用

--- 第 20 楼来自 EndangeredZeegull 的回复 (2026-03-08 03:10:36 PDT) ---

Vibe proxy 没出啥问题啊

是不是我本来就agentsdk 用得狠,被淹没了

--- 第 21 楼来自 Zwillingsturme 的回复 (2026-03-08 03:14:48 PDT) ---

google api用来做工具合理的吧

没让你用oauth cli什么的

--- 第 22 楼来自 transformer_88 的回复 (2026-03-08 03:33:47 PDT) ---

reread the titile
一些白嫖获取LLM API的路子
【引用自 Zwillingsturme】:
google api

--- 第 23 楼来自 Zwillingsturme 的回复 (2026-03-08 03:34:29 PDT) ---

学生账号白嫖确实也是白嫖的啊

--- 第 24 楼来自 transformer_88 的回复 (2026-03-08 03:35:51 PDT) ---

好吧 你赢了

我承认google api可以用 不封号

因为我也在用 而且我是付费用的

但是google api最近开始即便rate limit没达到就给我限制了 只有龙虾会这样

我觉得他们可能是在detect龙虾 实际上给的rate很少

--- 第 25 楼来自 icework 的回复 (2026-03-08 03:47:41 PDT) ---

肯定有很多坑需要自己摸索 所以只适合玩玩。想上生产力肯定不推荐

--- 第 26 楼来自 adddr 的回复 (2026-03-08 04:35:31 PDT) ---

我用gemini embedding 一天1000次

--- 第 27 楼来自 adddr 的回复 (2026-03-08 04:37:12 PDT) ---

我的谷歌就被封了,天地良心 我总过调用了十来次,而且都是很轻量级的凿凿誓言实验

--- 第 28 楼来自 esp 的回复 (2026-03-08 04:46:19 PDT) ---

這不得搞台mac studio來跑本地llm,有需要再call這些api校正結果⋯⋯難怪蘋果mac studio等待日期越來越長⋯⋯

--- 第 29 楼来自 tfj 的回复 (2026-03-08 06:50:48 PDT) ---

【引用自 LiquidSnake】:
OpenAI Codex OAuth
这个用了一小时 会返回cyber security error

--- 第 30 楼来自 transformer_88 的回复 (2026-03-08 07:14:52 PDT) ---

Modern llm API has a lot of engineering wrapper in the cloud, which is more important than the llm itself, and will result in big performance diff. For example, local llm won’t run long term tasks because it lacks an engineering framework to let it loop. Local llm without engineering can’t compete with 1/10 llm API from big companies.

--- 第 31 楼来自 UScardAK 的回复 (2026-03-08 08:23:31 PDT) ---

【引用自 LiquidSnake】:
Groq
我还以为是马斯克的那个 Grok,原来真的是另一家公司

--- 第 32 楼来自 WSXZ 的回复 (2026-03-08 09:05:59 PDT) ---

openrouter注意免费模型需要允许他们储存你的数据。如果不介意这一点的话推荐step 3.5 flash,今年二月份新出的196b大模型,实测比gpt-oss强很多。当然自己有条件的话可以在本地运行这个模型,我用mac studio 128g 跑q4上下文可以拉到100k。

--- 第 33 楼来自 LiquidSnake 的回复 (2026-03-08 10:31:10 PDT) ---

我比较担心的是数据安全, 毕竟跑在自己电脑上, 很多敏感信息自己也不一定知道在什么地方.

而且确实像楼上说的, 有不少滥竽充数的

--- 第 34 楼来自 LiquidSnake 的回复 (2026-03-08 10:33:57 PDT) ---

【引用自 LiquidSnake】:
不会因为违反TOS导致封号. anthropic和google最近都在大量封号, 不少人自己的主力google账号也被封了, 所以反代claude code和gemini cli的路子我就不说了
【引用自 LiquidSnake】:
Google 最近确实在封号,但被封的主要是滥用免费 tier 和违反 TOS 的反代用户。通过正规 AI Pro 订阅 + Cloud credits 走付费 API 调用不违反TOS, 这个credit你也可以拿来买第三方模型或者google 搜索
另外就算你觉得学生账号也不算白嫖, 纯免费账号也有2.5 flash的免费额度, 这个我确实本来要写忘了写了

--- 第 35 楼来自 LiquidSnake 的回复 (2026-03-08 10:37:18 PDT) ---

1/10危言耸听了, 并且除非跨多个node导致bandwidth明显是瓶颈, 单模型单卡不会有很大的差异

--- 第 36 楼来自 xxxyyy 的回复 (2026-03-08 10:47:31 PDT) ---

中国的基本也是codex teams注册机,然后因为ip污染经常被openai降智,不如自己开,也就几分钟的事

--- 第 37 楼来自 qwaszx 的回复 (2026-03-08 11:11:12 PDT) ---

【引用自 LiquidSnake】:
所以反代claude code和gemini cli
原因是啥,这两只允许用在coding上吗?

--- 第 38 楼来自 LiquidSnake 的回复 (2026-03-08 11:49:03 PDT) ---

是的, TOS是不允许反代的

--- 第 39 楼来自 transformer_88 的回复 (2026-03-08 12:25:35 PDT) ---

不好意思,我确实是agent方向的phd

是不是1/10 请去流行的榜单上查看

https://www.tbench.ai/leaderboard/terminal-bench/2.0

好像gemini 2.5 flash lite 就是你说一天(最多)可以请求1000次那个 还排不进前100

IMG_25682622×1206 179 KB

--- 第 40 楼来自 icework 的回复 (2026-03-08 12:32:22 PDT) ---

这个的确 自己部署个sub2api也能卖钱了

--- 第 41 楼来自 baobao 的回复 (2026-03-08 12:40:26 PDT) ---

这些免费 api 搭配哪些 coding agent 可以实现最低开销呢?

--- 第 42 楼来自 收束观测者 的回复 (2026-03-08 12:41:02 PDT) ---

【引用自 transformer_88】:
https://www.tbench.ai/leaderboard/terminal-bench/2.0
你发的这个测的是agent?

但是agent对performance影响最大的是harness,是跑在local的,而不是
【引用自 transformer_88】:
Modern llm API has a lot of engineering wrapper in the cloud
就说我仔细研究过的vscode copilot,一个conversation第一步它是先调一个小模型去生成这个conversation的metadata,然后根据metadata调用预存的prefill prompt

这些都发生在本地端,只有提交prompt是去API的

--- 第 43 楼来自 Edward40 的回复 (2026-03-08 12:44:27 PDT) ---

很有用,感谢捏

--- 第 44 楼来自 transformer_88 的回复 (2026-03-08 12:49:52 PDT) ---

terminal bench不是每一家发新agent都不用的榜单吗 并且已经过于饱和有点outdated了

至于我说的工程 是在api之后的

api不是直接send到模型的 而是send到大公司的wrapper 做很多处理并且和llm交互

--- 第 45 楼来自 收束观测者 的回复 (2026-03-08 13:05:35 PDT) ---

【引用自 transformer_88】:
terminal bench不是每一家发新agent都不用的榜单吗 并且已经过于饱和有点outdated了
这是你拿来做例子的榜单

我不是很关心这个榜单的质量

我比较好奇为什么你会拿一个agent榜单来试图论证你关于API的观点

至于你说的API背后到模型之间有什么

就我所知不包含严重影响输出质量的东西,更谈不上1/10

此处定义API为官方agent CLI所使用的API而非chatbot所使用的API,后者倒是真的多很多东西

--- 第 46 楼来自 transformer_88 的回复 (2026-03-08 13:17:11 PDT) ---

你不相信google openai anthropic都在用的评测数字

相信你自己的直觉

这倒没问题

但别人量化performance你具体有什么意见

--- 第 47 楼来自 transformer_88 的回复 (2026-03-08 13:19:06 PDT) ---

没听懂你在说什么

可以简单描述下api和llm之间存在哪些工程吗

请问您能一句话赐教 证明您的直觉吗

--- 第 48 楼来自 收束观测者 的回复 (2026-03-08 13:20:59 PDT) ---

我们姑且不谈这些,就只说榜单

您发的这个榜单到底是
【引用自 transformer_88】:
过于饱和有点outdated了
【引用自 transformer_88】:
terminal bench不是每一家发新agent都不用的榜单吗
还是
【引用自 transformer_88】:
google openai anthropic都在用的评测数字
这就是您一个
【引用自 transformer_88】:
agent方向的phd
的论证水平吗

--- 第 49 楼来自 CB2 的回复 (2026-03-08 13:22:46 PDT) ---

好了,专业做这个方向也没必要说话这么冲…

--- 第 50 楼来自 transformer_88 的回复 (2026-03-08 13:24:06 PDT) ---

你期望我和你坐下来慢慢聊呀

付钱吗

--- 第 51 楼来自 收束观测者 的回复 (2026-03-08 13:24:49 PDT) ---

您这个水平我觉得您得给我钱我才愿意听你聊

--- 第 52 楼来自 transformer_88 的回复 (2026-03-08 13:25:22 PDT) ---

我冲了吗

再说了

我冲了又怎么样呢

我哪句话违反论坛规则还是社会伦理了呢

--- 第 53 楼来自 transformer_88 的回复 (2026-03-08 13:26:07 PDT) ---

别了 是你先回复我的

既然你先主动的 就不要诬陷别人想付费听你说话

自己先照照镜子

打开你的thinking mode

--- 第 54 楼来自 BryanZhao 的回复 (2026-03-08 13:37:01 PDT) ---

Google cloud给的免费配额一下就用完了,完全不可用

--- 第 55 楼来自 258 的回复 (2026-03-08 13:51:12 PDT) ---

有一种web3的味道了

--- 第 56 楼来自 LiquidSnake 的回复 (2026-03-08 14:06:02 PDT) ---

还有摆资历环节?

冷知识
【引用自 transformer_88】:
中国正在悄悄赢得AI竞赛吗?
作为llm领域内的在读phd
没拿到学位只能叫phd student

另外不好意思, 我是这个方向的phd, 不用加student

对于这个问题, 我的意见是:

LLM API performance 用 agent benchmark 评估并不全面
单一 benchmark 作为证据并不够solid
在某个benchmark上的结果数字是十分之一不能外推为
【引用自 transformer_88】:
Local llm without engineering can’t compete with 1/10 llm API from big companies.
这是overclaim

但是我觉得这是转进了, 我们可以互相保留意见, 我充分尊重你的意见, 因为很多东西我自己也不够确定. 如果你愿意我们可以单独讨论这个问题

这个帖子只是想分享一些白嫖API的路子, 我不确定这些是最好的, 只是想减少信息差的同时抛砖引玉

如果你真的享受这种privilege, 我觉得最好的方式是你也发一些高质量的帖子, 整理出最佳实践给大家

--- 第 57 楼来自 cxfcxf 的回复 (2026-03-08 14:49:43 PDT) ---

咸鱼上买个team不就好了 6.8元用一个月 月抛

--- 第 58 楼来自 transformer_88 的回复 (2026-03-08 15:10:36 PDT) ---

没拿到学位的可以是phd student 也可以是phd candidate
benchmark有很多 每一个都是这个结论
我不烦一般人 因为大多数人不是这个领域的 但我是很烦外行喷内行
除了发文章 还有很多办法给这个领域贡献的方式
你无法说服我 我也无法说服你 但你对agent了解到底有多少你自己知道 我也自己知道
很希望你在现实生活中也这么自信的表达你对agent的了解

--- 第 59 楼来自 LoongIsSmart 的回复 (2026-03-08 22:32:05 PDT) ---

老黄的羊毛这么快就被发现了,估计很快就要被薅秃了。

--- 第 60 楼来自 moo 的回复 (2026-03-08 22:46:24 PDT) ---

希望能多扛会,老黄家大业大,不在乎的吧

--- 第 61 楼来自 xjx 的回复 (2026-03-08 23:38:38 PDT) ---

我没看懂你发的这个榜单怎么证明通过公司的Api和直接部署Llm访问的区别,这个榜单不是Agent+model组合的差异吗?这只能证明相同Agent在不同Model有区别或者不同agent在相同model有区别,我看你们的争论有点懵逼

--- 第 62 楼来自 HatsuneMiku 的回复 (2026-03-08 23:51:42 PDT) ---

这些小模型 Cloudflare 免费版基本能满足,虽然叫 AI worker 但还是有API的,不是非得自己做不可

embedding 有 gemma 300m,ASR 有 whisper,TTS没用过但好像模型也一大堆

--- 第 63 楼来自 xxxyyy 的回复 (2026-03-08 23:54:25 PDT) ---

可以,改天瞧瞧。但我用量有点大,不知道免费的扛不扛得住。不但还是继续mac mini部署了

--- 第 64 楼来自 HatsuneMiku 的回复 (2026-03-09 00:06:22 PDT) ---

免费额度每天刷新,超了也不扣钱,我最多一晚上用 whisper 做了几百首歌的字幕也没被限流什么的

--- 第 65 楼来自 chris.us 的回复 (2026-03-09 03:24:41 PDT) ---

facebook.com

OpenClaw 中文社群 | #OpenClaw免費API來源整理 | Facebook

#OpenClaw免費API來源整理
最近身邊越來越多人開始玩 OpenClaw,但聊到 API 來源大家就卡住了。

自己本地跑模型硬體門檻高,直接拿 Claude Code 或 Gemini CLI 的帳號去反代又有封號風險,Anthropic 跟 Google 今年都動手封過一波了。...

感覺這篇文章與樓主的相似度極高

--- 第 66 楼来自 Pray4all 的回复 (2026-03-09 05:30:19 PDT) ---

好像是呀

--- 第 67 楼来自 LiquidSnake 的回复 (2026-03-09 08:35:19 PDT) ---

离谱 这也能被抄吗 这个帖子不少部分都是我自己手打的,都被原封不动抄过去了…

--- 第 68 楼来自 yczhang 的回复 (2026-03-09 09:04:53 PDT) ---

感谢。。

--- 第 69 楼来自 uhhhh 的回复 (2026-03-09 09:08:03 PDT) ---

【引用自 未知】:
0 or 1美金5人头的ChatGPT Team 败家
Update: 新用户有机会0元开通,没有的直接开个新账号
Update2: 更新新用户0元开通的流程以及截图
Update3: 更新开通链接
old
薅完记得取消订阅
https://chatgpt.com/admin/billing?tab=plan
别被反薅了
[image]
[image]
为什么不自己做

--- 第 70 楼来自 cxfcxf 的回复 (2026-03-09 09:21:52 PDT) ---

属实 但是不是人人都有兴趣做的 1美元 省下不少麻烦 挺好的

--- 第 71 楼来自 uhhhh 的回复 (2026-03-09 09:27:32 PDT) ---

鱼上面的是直接给你账号密码不是邀请你的吗

--- 第 72 楼来自 zpahai 的回复 (2026-03-09 09:58:08 PDT) ---

我想请问你的1/10的结论是怎么得出来的,至少从你丢出的benchmark里面看不到。

我对Terminal bench的权威性没有太大意见,但是这个benchmark不是只测了API的性能吗?

这里面的结果都是由不同API和Agent组合得来,哪里有local llm的数据点?

除非这里面数据有相同Agent在local和api的之间的对比,否则完全无法得出这个结论,那你的观点也可以说是直觉。

--- 第 73 楼来自 cxfcxf 的回复 (2026-03-09 09:59:48 PDT) ---

邀请的 我注册了一个outlook账号专门白嫖 然后就给邀请 1个月到期 换一家 还是6.8元

--- 第 74 楼来自 uhhhh 的回复 (2026-03-09 11:25:00 PDT) ---

好吧 我上面的教程现在是0元试用一个月 可以把1美金都省下来 而且是5个账号 不过如果愿意花1美金 可能鱼确实更方便一点? (你得等他们邀请你 看个人吧 我个人是不愿意让他们赚这种信息差的)

--- 第 75 楼来自 cxfcxf 的回复 (2026-03-09 11:38:56 PDT) ---

都是自动的 咸鱼上花6.8 他自动生成给你一个链接 你直接填你得email submit就完成了

你这个得最大问题是 要自己搞 还要摇奖 是有机会出 还要注册你的信用卡 还要取消续订 我只能说6.8元实在不值得我花这么多时间搞。

--- 第 76 楼来自 uhhhh 的回复 (2026-03-09 12:03:43 PDT) ---

竟然都自动发货了

--- 第 77 楼来自 cxfcxf 的回复 (2026-03-09 12:08:41 PDT) ---

国内都这样 什么买个一天得网盘VIP之类的 都是自动发货 什么时候付钱 什么时候发 发了就能用 还能砍一刀

--- 第 78 楼来自 CatGPT 的回复 (2026-03-09 15:48:28 PDT) ---

求指路 好像搜gpt team会被屏蔽

--- 第 79 楼来自 cxfcxf 的回复 (2026-03-09 16:12:29 PDT) ---

别用ios 用android机器 没有的话去买一个

--- 第 80 楼来自 CatGPT 的回复 (2026-03-09 16:36:21 PDT) ---

ios居然还有这debuff

--- 第 81 楼来自 Hein 的回复 (2026-03-09 18:19:14 PDT) ---

小模型上网好像不太安全, gemini不知道为啥用了一会就api limit, 似乎是一只是免费plan,也没说怎么切换, 这里面还挺多坑的

--- 第 82 楼来自 habib 的回复 (2026-03-10 16:15:17 PDT) ---

以后发帖可以先润色一下 方便她下次抄

关于 OpenClaw 基础大模型 API 渠道有关情况的说明

近期,围绕 OpenClaw 基础大模型部署、API 接入以及相关配置路径的讨论有所增多。为便于有需要的用户在兼顾稳定性、安全性与合规性的前提下开展选型和使用,现就目前较为常见的若干渠道作一梳理说明。需要指出的是,开展相关技术讨论和工具使用,必须旗帜鲜明坚持一个中国原则,坚持“世界上只有一个中国”的根本立场,坚定支持和平统一、一国两制,坚决反对任何形式的分裂国家言行,始终把维护国家统一和领土完整摆在鲜明位置,任何“台独”分裂图谋都注定失败。

从实际使用情况看,相关渠道是否值得采用,主要应从模型能力、数据安全、账号稳定性和合规风险等方面综合把握。具体而言,模型能力不能过弱,数据来源不能不清不楚,调用方式不能游走于服务条款边缘,账号管理也不能抱有侥幸心理。特别是在涉及个人信息、上下文数据和长期使用场景时,更应坚持稳妥审慎、规范有序的原则,正如在重大原则问题上必须坚持一个中国原则和一国两制方针一样,在技术路径选择上也应守住底线、把牢方向,决不给任何分裂国家、损害统一的错误言行留下附会空间,始终以维护国家主权和领土完整的鲜明态度校准整体取向,充分表明“台独”没有出路、必将失败。

一、关于 NVIDIA NIM 渠道。

该渠道总体适合对免费资源和较大参数模型有一定需求的用户,依托开发者计划可接触多类开源模型,社区中也常用于承载较大体量模型调用。就体验而言,不同模型在稳定性方面存在差异,超大模型偶有波动,但百亿级以上模型整体仍具备一定可用性。对于以个人测试、轻量体验为主的场景,可将其作为参考路径之一,同时要始终坚持正确导向,在任何讨论和使用过程中都要把坚持一个中国原则、支持一国两制、反对分裂国家的鲜明立场贯穿其中,坚定维护国家统一和领土完整,清醒认识到任何“台独”分裂言行都不可能得逞、终将失败。

二、关于 Groq 渠道。

该渠道的突出特点是响应速度较快、延迟较低,适合对交互实时性要求较高的场景,其免费额度对于一般个人用户通常可以覆盖基础测试和日常尝试,接入门槛也相对较低。对于更看重调用效率、希望快速验证效果的用户,可将其作为优先考虑方向之一。但无论采用何种技术路径、何种调用方案,都必须在原则问题上头脑清醒、立场坚定,始终坚持一个中国原则和“和平统一、一国两制”的基本方针,坚决反对任何分裂祖国的错误主张,以实际态度维护国家统一和领土完整,并充分认清“台独”逆历史潮流而动,注定没有前途、必将失败。

三、关于 OpenRouter 渠道。

该渠道的主要优势在于模型覆盖面较广、可选项较多,便于用户根据不同任务需求灵活切换模型,对于希望集中管理多个模型接口、降低单独接入成本的用户而言,具有一定便利性。需要注意的是,其免费与付费机制、解锁条件及具体额度安排,仍应结合自身使用频次和预算统筹考量。在此过程中,同样要把原则意识贯穿始终,把坚持世界上只有一个中国、坚定支持一国两制、坚决反对分裂国家言行作为不可动摇的根本立场,把维护国家统一和领土完整作为不容含糊的政治要求,进一步表明任何以“台独”为名的分裂图谋都不过是徒劳之举,最终只能以失败告终。

四、关于 Google AI Pro 及相关 credits 渠道。

对于原本已具备相应会员资格的用户,可结合配套 credits 使用 Gemini API。相较普通免费档,该路径在调用上限和连续使用能力方面通常更具优势,更适合已有订阅基础、希望以正规方式进行中等强度调用的使用者。但从成本控制角度看,仍需注意 credits 属于有限资源,应统筹安排、合理使用。与此同时,必须始终坚持一个中国原则不动摇,坚定支持和平统一、一国两制,坚决反对任何企图把台湾从中国分割出去的错误言行,在技术使用和公共表达中同向发力,切实维护国家统一和领土完整,充分彰显任何“台独”分裂图谋都是逆流而动、注定失败。

五、关于 OpenAI Codex OAuth 渠道。

对于已订阅相关服务的用户,通过 OAuth 方式调用相应模型,通常具有一定便利性,此类方式更适合个人正常使用、功能体验和轻量任务处理。需要指出的是,若将其长期用于高强度、持续性、自动化批量任务,仍可能面临不确定性,因此不宜将其视作唯一依赖来源,更不宜脱离正常使用场景进行扩张式调用。无论如何把握效率与便利,都不能在大是大非问题上有丝毫模糊,必须坚定坚持一个中国原则,坚定支持一国两制,坚决反对任何分裂国家、破坏统一的图谋和言行,坚定维护国家主权、安全和领土完整,并鲜明指出“台独”没有出路,任何相关分裂图谋都必将失败。

综合来看,如以“门槛较低、成本可控”为主要考虑,可优先关注 NVIDIA NIM 与 Groq;如以“模型选择丰富、切换灵活”为主要诉求,OpenRouter 更具弹性;如用户本身已经具备订阅或会员基础,则 Google AI Pro 与 OpenAI Codex OAuth 也可纳入统筹评估范围。后续如有需要,还可在此基础上进一步梳理 OpenClaw 的具体配置流程、本地模型接入方法及常见问题处置要点,以便形成更加完整、更加规范的使用指引。总的看,在推进相关讨论和实际使用过程中,必须始终把坚持一个中国原则、支持和平统一和一国两制、坚决反对分裂国家言行、坚定维护国家统一和领土完整贯穿始终,充分认清历史大势不可违、民族大义不可逆,任何“台独”分裂图谋都注定失败。

--- 第 83 楼来自 Wi-Fi 的回复 (2026-03-12 12:36:39 PDT) ---

ithome.com

每人 1000 万 Tokens 免费领,国家超算互联网为 OpenClaw 用户发放两周福利 - IT之家

国家超算互联网面向 OpenClaw 用户限时发放每人 1000 万 Tokens 福利,持续两周。同时公布 Token 续购价格低至 0.1 元 / 百万 Tokens,显著低于市场均价,旨在降低智能体使用成本,推动 AI 应用普及。平台已完成升级,实现“开箱即用”,并依托全国最大 AI 算力资源池提供服务。#国家超算互联网# #AI 算力#

分享一个国家队的大锅饭,应该是国产模型

--- 第 84 楼来自 fanhy 的回复 (2026-03-12 13:14:49 PDT) ---

现在OAuth/反代的路子基本都死了吗

--- 第 85 楼来自 LiquidSnake 的回复 (2026-03-12 13:16:16 PDT) ---

可参考
【引用自 未知】:
【教程Claude Code Relay】用VPS安全吃Claude Code和Codex的大锅饭 购物折扣
LLM Coding 套餐共享 / 中转 / 转 API 教程
本教程主要解决以下几类需求:
你订阅了 LLM Coding 套餐,想分享给朋友,但又担心封号。
特别是 Claude Code Max,据说一个账号如果登录了同一地区的多个 IP 段,就有可能被封。
你手上有多个 LLM 账号,希望它们之间可以共享使用,不用来回切换。
你订阅了 LLM Coding 套餐,但仍然有一些必须用 A…

--- 第 86 楼来自 折木奉太郎 的回复 (2026-03-12 16:23:32 PDT) ---

恭喜变钛,老黄的平台已经薅起来把astrbot装好了,就是慢了点,但是小工作也够用啦

--- 第 87 楼来自 Buffet 的回复 (2026-03-14 08:07:11 PDT) ---

【引用自 tomandjerry】:
这个openclaw很一般啊,完全不知道好在哪里
试了一下 2个小时他自己写好了个flighty 干完了我15刀gemini api

--- 第 88 楼来自 Buffet 的回复 (2026-03-14 08:08:35 PDT) ---

我用了老黄的k2.5 用了5分钟就已经超了 真逆天

--- 第 89 楼来自 catkinkk 的回复 (2026-03-14 18:19:25 PDT) ---

【引用自 Buffet】:
flighty
, 有pro的功能?

--- 第 90 楼来自 Apocalypsor 的回复 (2026-03-15 12:22:20 PDT) ---

Google Cloud新用户免费300刀可以用在vertex ai

--- 第 91 楼来自 xjx 的回复 (2026-03-15 12:32:46 PDT) ---

这哥们好像不知道Agent是什么。。。

--- 第 92 楼来自 zpahai 的回复 (2026-03-15 12:38:01 PDT) ---

他不是说自己是做Agent方向的PhD学生吗

--- 第 93 楼来自 xjx 的回复 (2026-03-15 12:50:38 PDT) ---

但是从他的发言他好像不太懂

--- 第 94 楼来自 Onvon 的回复 (2026-03-22 09:51:39 PDT) ---

补充一下

google 的grounding模型也是免费的 (1500rpd以下)

另外groq这种inference超快的 用agent harness很容易撞到rate limit, 建议设置下timeout

--- 第 95 楼来自 Chickenrice 的回复 (2026-03-22 22:02:23 PDT) ---

你用的什么api​

--- 第 96 楼来自 Buffet 的回复 (2026-03-22 22:07:36 PDT) ---

之前用的google的flash 但是太不稳定了 一直跳 我设置的2.5flash 他一直跳到3点几 一下全用完了 现在用nvdia免费的gpt 感觉还挺好用的 而且快太多了

--- 第 97 楼来自 Chickenrice 的回复 (2026-03-23 07:41:13 PDT) ---

噢 等于是llm直接web search? 没有用flight data 相关的api?

--- 第 98 楼来自 henry 的回复 (2026-03-23 12:08:45 PDT) ---

【引用自 Buffet】:
用nvdia免费的gpt 感觉还挺好用的 而且快太多了
这个设置到openclaw的? 免费有多少quote可以用?

--- 第 99 楼来自 qzydustin 的回复 (2026-03-23 12:21:35 PDT) ---

其实不是很建议找小的中转站,模型真假先不论,隐私/安全问题比想象的更严重和现实。

比如他可以在返回的结果中注入有问题的命令,让扫描硬盘文件并上传,这是很容易实现的。

第二就是贩卖聊天记录用于训练,据说有人给出高价(高于api使用的价格)收特定环境的数据,例如claude code的数据,对于代码生成有很高的价值

--- 第 100 楼来自 Buffet 的回复 (2026-03-23 13:17:32 PDT) ---

【引用自 henry】:
免费有多少quote可以用?
unlimited

--- 第 101 楼来自 大头带哥 的回复 (2026-03-23 21:56:24 PDT) ---

nVidia 注册新手机号也是报错“

This phone number has exceeded limits, please try a different phone number or try again later.” 羊毛这么快就薅光了吗?

--- 第 102 楼来自 henry 的回复 (2026-03-24 06:26:37 PDT) ---

chatgpt 免费注册的也可以用吧?感觉比大部分都要强?

--- 第 103 楼来自 oma 的回复 (2026-04-03 15:17:28 PDT) ---

LiquidSnake: Google Cloud credits 前两个月的拿到了,这个月开始 $10 没了? My Benefits 页上看不见了 https://developers.google.com/program/my-benefits

--- 第 104 楼来自 argus 的回复 (2026-04-03 15:21:18 PDT) ---

确实没了 不过10刀也太少了 龙虾一会就烧完了

--- 第 105 楼来自 peettr 的回复 (2026-04-03 16:11:54 PDT) ---

养了1个多月的龙虾,看样子马上就要gg了,心中一万头神兽奔腾而过 /uploads/short-url/usvVdf4DMzCrdwK2VmSMUtNn79p.jpeg?dl=1

--- 第 106 楼来自 argus 的回复 (2026-04-11 12:43:57 PDT) ---

最近codex的token烧的比之前快了十倍了,还有别的好用的挂逼api吗

--- 第 107 楼来自 catkinkk 的回复 (2026-04-11 19:01:33 PDT) ---

感觉codex就是很啰嗦