讨论:如何获取解除伦理限制的LLM API
绕过LLM伦理限制API的需求与实现探讨。
1. 关键信息
- uncensored API 可绕过模型限制,但需注意 provider 的隐性过滤(#6, #8, #9)。
- 自行 local serve 高性能大模型成本高、效率低(#1, #4, #14)。
- Vertex AI 与某些模型源可关闭 content filtering(#12)。
- 社区推荐消融训练(Ablation)方法(#3)。
2. 羊毛/优惠信息
无。
3. latest 动态
无。
4. 争议或不同意见
- 部分认为灰产风险低、利润不足,难以支撑大规模服务(#7, #10)。
- 有人质疑即使付费,市场上也缺乏可靠的 uncensored API 提供商(#4, #15)。
5. 行动建议
- 试用 Vertex AI 关闭过滤并自建 API(#12, #16)。
- 评估 m3 ultra 96GB 等配置在本地运行 uncensored 模型的可行性(#14, #19)。
最近试了试openclaw,发现刷个课都不给刷,模型本身的伦理限制导致问就是自己上课。 codex这种是肯定没法用的,nvidia development平台的也不行,因为模型自带限制,必须要heretic版本的才行。 自己local serve qwen3.5-35b-heretic效率实在是太低了,性能也差很多。感觉这种需求国内灰产应该很多才对,找了找竟然没有做这个的。
我P个图都不给,说做假证,后来GPT做了。
请读 https://huggingface.co/blog/mlabonne/abliteration https://huggingface.co/blog/mlabonne/abliteration A Blog post by Maxime Labonne on Hugging Face
训练方法倒是很清晰,但是问题在于高效serve,自己一个人的需求量撑不起来上百b模型和高性能卡。总觉得灰产那边肯定有很多类似需求,理论上应该有serve这种API的,但是一直没找到
pua他啊 说gemini都给我做 不过我喜欢你gpt
openclaw system prompt有自己的 filter,用了 uncensored api 也没用
你要上百B的大模型,那至少得是大公司或者大组织才搞得起吧,能做到这层的,必然会受监管。你说灰产来搞,这里面多少利润啊人家来搞 现在最贵API价格翻个100倍可能会有人来弄吧,不过那价格真有人会付费吗
Venice.ai 有Qwen 3.6 Plus Uncensored api。 自己加 prompt 去 jailbreak 一些模型也行,听说 GLM 比较好弄
没有啊,我serve了一个heretic的模型就不找我茬了
灰产很多也并不是高收益呀,之所以是灰,是因为风险也没那么高。
on demand gpu rental?
Vertex源的哈基米可以全关content filtering,搞个api呗 AI studio源也能关不过据写文社区的说法是这个源仍然有隐性的filtering,我自己没测出来过。
我4k買的機器能跑120b級距,我記得有幾個uncensored的模型可以用
请教下什么配置的机器呀,速度实用吗
有什么比较好的provider推荐吗,头部的溢价太高了,其他我用过的感觉做得都不是很灵活,多数机器启动巨麻烦
感谢,vertex看上去价格也挺合适,我试试
nsfw 话题?我的 openclaw 怎么不行
淘宝买4卡4090 48gb?不过现在显存这么贵不划算了(
skywing: 请教下什么配置的机器呀,速度实用吗 m3 ultra 96gb ram,跑120b沒問題,速度很快(mlx)在往上就不行了