【回馈泥潭】做了个 Chrome 浏览器插件 UC Summary 一键总结泥潭万丈高楼【升级至v1.1.3,支持LM Studio】
楼主发布UC Summary插件,支持多家LLM总结泥潭帖子并持续迭代。
1. 关键信息
- 插件功能:Chrome扩展,通过访问
/raw/POST_ID获取脱水版帖子内容,调用LLM API生成总结,支持侧边栏显示。#1 #15 #17 - 支持的LLM提供商:OpenRouter、OpenAI、Anthropic、Groq、Google Gemini、xAI、DeepSeek、本地Ollama、LM Studio(v1.1.3)。#1 #85 #104
- 开源地址:代码托管在Gitea(主楼链接),90%由AI生成但经人工审阅。#1 #74 #5
- 隐私说明:不上传个人信息至私人服务器,仅将帖子内容发送至用户指定的LLM API,API Key仅存本地。#1 #16
- 版本演进:v1.1.0加入xAI/GPT-5;v1.1.2加入DeepSeek;v1.1.3支持LM Studio、智能Chunking。#79 #85 #103
2. 羊毛/优惠信息
- UAR(美国银行Altitude Reserve)旧福利:移动支付3x积分(兑现1.5cpp,等效4.5%返现),$325旅行/餐饮报销(灵活使用)。#1
- UAR新福利(2025年12月15日生效):移动支付3x积分增设每月$5000上限;积分兑现降至1cpp(提现/旅行中心);报销限于Travel Center门户;新增转点伙伴(待定)。#1
- 替代卡片提及:Capital One Venture X($300门户报销+10k积分)、Citi Premier(AA转点)、BOA Premium Rewards Elite(2.625%返现+4张PPS)、Robinhood Gold(3%无类别返现,$50等效年费)、U.S. Bank Altitude Connect/Cash+、Citi Custom Cash、PayPal Debit。#1
- Ollama本地部署:需设置
OLLAMA_ORIGINS=chrome-extension://*解决CORS问题。#93 #94
3. 最新动态
- 插件bug修复:Anthropic和Google Gemini连接错误已修复(v1.1.0),Gemini因审核被挂已重新提交通过。#31 #66 #62
- 功能更新:v1.1.3新增LM Studio支持、智能Token预估与分块(解决超长帖问题);新增DeepSeek、xAI Grok选项。#85 #103 #104
- 用户反馈问题:设置页面需先保存API Key才能加载model list(已修复);侧边栏切换帖子后内容未刷新(偶发);OpenAI API quota不足(Plus用户可能触发限制)。#25 #32 #62 #64 #70
- 新的替代工具:隔壁钛金帖子提到的Nitan MCP(本地依赖重,不支持2FA),以及Greasyfork脚本来导出Markdown。#109 #84
4. 争议或不同意见
- 隐私与数据安全(#6 #9 #16 #44 #48):用户质疑上传泥潭帖子内容(包括白金区)到LLM是否合适;开发者解释本质等同用户手动复制,但承认白金区content可以通过
/raw访问;#44建议默认禁止总结白金区帖子。#48建议用JSON获取更多信息并区分category。 - 公开工具的副作用(#75):担心信噪比越高路子死得越快,公开此类工具会加速福利削减或导致管理员叫停。
- 使用体验争议(#30):总结结果仍是TLDR,违背“摸鱼更高效”初衷;#4反问“连摸鱼都要tldr了吗?”
- LLM API限制(#64 #70):OpenAI Plus用户因message caps无法使用API(需独立付费API),#89澄清ChatGPT会员与OpenAI API不同。
- 代码透明度(#26 #35):用户希望开源,开发者担心被“开盒”但最终公开。#5确认90%代码由AI生成。
5. 行动建议
- 用户安装后:立即设置API Key(推荐使用Gemini免费Key或本地Ollama/LM Studio),保存后选择模型,刷新帖子页面打开侧边栏。注意白金区帖子可能泄露隐私,建议使用本地LLM或谨慎选择提供商。#1 #82 #94
- 解决常见错误:Gemini提示“model is not specified”需更新至最新版本;OpenAI quota不足可改用Usage-based API或更换提供商;超长帖自动分块(v1.1.3起),若仍失败可手动使用
/raw导出后上传AI。#31 #64 #78 #103 - UAR持卡人:在2025年12月15日前用掉$325报销、按1.5cpp兑现所有积分(如西南大法),到期后考虑降级或取消(可尝试退回年费),观望转点伙伴再决定。#1
- 开发者后续:考虑增加白金区检测与限制选项、缓存机制减少API调用、优化分块逻辑、接受社区PR。#38 #48 #91
- 替代方案:若不愿配置API,可使用Greasyfork脚本导出Markdown再上传到AI聊天窗口(如ChatGPT/Claude)。#84
最近业余时间写了一个 Chrome 浏览器插件,用来总结泥潭的帖子(包括原帖和回复),希望能够帮助大家在摸鱼时间更高效地刷泥潭。 https://chromewebstore.google.com/detail/ucsummary/pkcapkpcnlhhliememeoheefdanajink 使用前声明: 本插件需要配合自己的API Key使用,目前支持 OpenRouter, OpenAI, Anthropic, Groq, Google Gemini, xAI, DeepSeek 和本地 Ollama。 本插件不会上传任何个人信息至私人服务器, 唯一上传的信息是论坛帖子的内容至各家LLM API 提供商。所有其他信息,如 API Key 仅存储于本地浏览器内。 初次使用: 安装插件 打开设置,选择LLM提供商并填入对应API Key,刷新并选择模型,保存 打开需要总结的论坛帖,打开插件侧边栏(可能需要刷新一下侧边栏页面),并点击 Summary 原帖与回复的总结将会显示在侧边栏中 https://gitea.com/ucsummary/uc-summary 更新日志: 修复Anthropic和Gemini 修复更换页面侧边栏不刷新的 bug 修复OpenAI GPT-5 的新API Parameter 调查OpenAI 关于quota的检测 辨别白金和钛金帖,并提示 在 Context window 不够的情况下,考虑压缩 token 总结示例 隔壁UAR暖心升级高楼 好的,这是对 US Card Forum 讨论的中文分析总结: Original Post Summary 作者主要观点: 原始发帖人(OP)分享了 U.S. Bank Altitude Reserve (UAR) 信用卡官方确认的福利大幅削减消息,并附上了来自 Imgur 和 U.S. Bank 官网的链接作为证据。 OP 提到论坛社区对此改动反应热烈,讨论迅速。 具体请求或信息: 帖子本身并未明确提出疑问,而是作为信息发布,引发社区讨论。 重要背景或情境: UAR 卡曾被广泛认为是顶级“神卡”,以其移动支付 3x 积分(兑现价值 1.5 cpp,等效 4.5% 返现)和 325 美元的旅行/餐饮报销(可用于餐饮消费)而备受推崇。 改动生效日期为 2025 年 12 月 15 日。 Community Response Analysis 评论者主要见解: 福利削减的严重性: 大多数评论者对 UAR 福利的削减表示极度失望,普遍认为 UAR 已“走下神坛”,甚至沦为“废卡”或“垃圾”。 核心改动包括: 移动支付 3x 积分新增每月 5000 美元消费上限(此前无上限)。 积分兑现价值从 1.5 cpp 降至 1 cpp(提现到银行账户或通过 Travel Center 兑换旅行),这将 4.5% 的等效返现直接降至 3%。 325 美元的报销从灵活的旅行/餐饮报销改为仅限于 Travel Center 门户内的消费(类似于 Capital One Venture X 的报销模式)。 新增将积分转给合作航空/酒店伙伴的选项,但具体伙伴和转点比例未知,被认为是唯一的“亮点”,也是决定该卡是否值得保留的关键。 对改动的影响分析: 移动支付上限: 部分用户认为每月 5000 美元上限“影响不大”,对于日常消费和普通家庭而言仍足够使用,但对于大额消费(如支付地税)的用户而言则影响显著。 积分贬值: 1.5 cpp 到 1 cpp 的兑换价值下降被认为是“致命”打击,使得该卡的竞争力大减,与其他 2% 返现卡相比优势不再明显。 报销条款: 门户限制被普遍认为是“恶心”的改动,许多用户不喜欢这种强制通过特定平台消费才能报销的方式,担心门户价格溢价和使用不便,甚至可能无法像旧版一样通过“机票大法”套现。 替代方案与未来展望: 许多用户开始寻找 UAR 的替代卡,例如: Capital One Venture X (VX): 其 300 美元门户报销和 10000 积分奖励使其地位“有所上升”,但也有用户指出其门户使用体验未必就好。 Citi Premier: 因其新增 AA 转点伙伴而被一些人视为潜在的“新神卡”。 Bank of America (BOA) Premium Rewards Elite: 因其高返现率(例如 2.625% 或 3.5% 旅行/餐饮)和潜在的 4 张 PPS 卡被提及。 Robinhood Gold 卡: 因其 3% 无类别返现和较低的等效年费被视为选择之一 U.S. Bank Altitude Connect (UAC) / Cash+: 有用户考虑降级到 UAC 或 Cash+,但也有客服反馈 UAR 不能直接降级到 UAC,需要重新申请。 其他: Citi Custom Cash、BOA 1-2-3 等类别卡,以及 PayPal Debit Card(用于 Costco 消费)也被提及。 社区普遍对未来信用卡福利持悲观态度,认为这是整个行业福利缩水的趋势。 对于“转点伙伴”的期待,用户普遍希望能有价值较高的伙伴(如 Hy_tt, AS, KE),但也有人悲观认为 U.S. Bank 可能只提供价值较低的航空/酒店伙伴。 应对策略: 年底前最大化现有福利: 大多数持有者计划在 12 月 15 日改版生效前,尽快用完 325 美元报销,并以 1.5 cpp 的价值兑现所有积分(通过“西南大法”或其他机票/旅行报销方式)。 取消或降级: 许多用户表示会在年费到期后取消或降级卡片,如果年费已出,则会尝试在 30 天内刷完报销并取消以退回年费。 观望: 一部分用户会等到转点伙伴公布后再决定是否保留。 值得关注的回应: smoothness 和 Define_P 等人在第一时间准确总结了核心改动。 lanyin0314, starcroce, ju7Um2rnW0K 等人详细列举了各项福利削减。 peng 提供 DP 确认了客服承认改动而非谣言,并成功在交年费后退回年费。 许多用户(如 darkwolf2008, darkwolf2008, olaf 等)表达了对 UAR“死掉”的哀叹。 smoothness 提前预言了关于转点伙伴的“许愿”趋势。 主题帖的更新,以及后续邮件通知的截图,彻底坐实了改动并非谣言。 Key Takeaways 核心变化重创卡片价值: U.S. Bank Altitude Reserve (UAR) 信用卡的核心吸引力——高额无类别移动支付返现和灵活的旅行/餐饮报销——已被严重削弱。积分兑换价值从 1.5 cpp 降至 1 cpp、添加每月 5000 美元移动支付上限以及报销限于旅行门户,使其不再是无脑刷的首选。 立即行动以最大化价值: 对于现有 UAR 持卡人,最实际的建议是在 2025 年 12 月 15 日新政生效前,尽快利用所有已获得的 325 美元报销额度,并通过现有 1.5 cpp 的兑换比例将所有积分兑现(例如使用“机票大法”)。 考虑替代卡片: 多数用户将转向其他高端旅行卡(如 Capital One Venture X, BOA Premium Rewards Elite)或具有特定高返现类别的无年费卡,具体取决于个人消费习惯和偏好。 转点伙伴是唯一的未知数: UAR 新增的转点伙伴仍是唯一可能挽救卡片价值的希望,尤其如果能提供高价值的航空/酒店转点项目(如 KE, Hy_tt),但社区普遍持谨慎乐观态度。 行业趋势悲观: UAR 的削弱被视为信用卡行业普遍福利缩水的又一例证。高端卡开始趋同于强制门户消费模式,使用体验可能大打折扣。 退卡/降级策略: 新年费日临近的用户应考虑在年费 post 后尽快用完报销并联系银行取消卡片,以尝试退回年费。关于降级选项,目前客服反馈 UAR 不能直接降级到 UAC,需要重新申请。 最后,由于总结内容由LLM生成,有不够准确的可能,对于事实请大家仔细甄别。 祝大家使用愉快!如果有改进建议或者 BUG 可以回复在本帖中,我会指挥AI进行改进和修复。
已安装, 感谢大佬
好奇插件是 vibe coding 生成的么
… 现在连摸鱼都要tldr了吗?
是的,90%的代码由AI生成,不过我审阅了几乎全部的代码,so hopefully nothing goes rogue
zacksz: 唯一上传的信息是论坛帖子的内容至各家LLM API 提供商。 这是合情合理的吗? 是不是泥潭任何帖子都可以上传
点赞收藏,谢谢分享!
DP楼还蛮有用的 好奇用来总结几千贴的摸鱼楼是啥结果
你这么一说确实不合理哦,你们太紧区肯定是不能上传的
爽了 感谢大佬
ctzsm: 太紧区
摸鱼楼早就有ai总结了
/uploads/short-url/dUjgf7x1ZW5z4ORqIv2fyK9LUdG.png?dl=1 Access to fetch at 'https://api.anthropic.com/v1/messages' from origin 'chrome-extension://pkcapkpcnlhhliememeoheefdanajink' has been blocked by CORS policy: Response to preflight request doesn't pass access control check: No 'Access-Control-Allow-Origin' header is present on the requested resource.Understand this error settings.js:399 POST https://api.anthropic.com/v1/messages net::ERR_FAILED testConnection @ settings.js:399 (anonymous) @ settings.js:111Understand this error settings.js:413 UCSummary Settings: Connection test failed: TypeError: Failed to fetch at UCSummarySettings.testConnection (settings.js:399:30) at HTMLButtonElement.<anonymous> (settings.js:111:12) testConnection @ settings.js:413 await in testConnection (anonymous) @ settings.js:111Understand this error
我看看能不能复现
是怎么获取所有 comments 的啊?我没看到模拟滚动加载的过程欸。其实我也不知道有没有获取所有 comments, 因为 128k window size 不够了,hhhhh 之前调用 Discourse 的 print 来实现的,但是要一页一页来,还容易 rate limit.
这确实是我发布之前最犹豫的点,我的观点如下,如果管理员觉得这样不好,我可以只保留本地LLM的功能,只是受众会小很多。 我并不是通过获取当前页面的HTML,而是通过访问 https://www.uscardforum.com/raw/post-id 来直接取得脱水版,这可能并不适用于非公开的帖子。(但是我不是钛金,所以也没法测试 这个插件等效于用户自己复制粘贴原帖内容到LLM 提供商,只是将这一过程自动化了,即使没有这个插件,也很难防止论坛内容被发到LLM提供商。 Again,如果管理员有 concern 我可以做相应调整。
我通过访问这个关联的网页:https://www.uscardforum.com/raw/POST_ID?page=PAGE_NUMBER
/u/geminipro
哦~原来还有这么个路径啊,省得我再 html 转 md 了。
马上安装,谢谢大佬!
Connection failed: HTTP 400: [{ “error”: { “code”: 400, “message”: “model is not specified”, “status”: “INVALID_ARGUMENT” } } ] 这是咋回事啊?model是gemini-2.0-flash
我也是一样的问题,用的gemini 1.5 flash和gemini 2.5 pro都有这个问题
火钳刘明 换了帖子再generate为什么还是原来的帖子 /uploads/short-url/hlDLYrrwalWrHFYFQpJckzRykyF.png?dl=1
我的gemini api显示的就是2.0 flash,不知道咋回事
我model下拉条所有model都能选,试了几个都和你一样的问题。而且每次save changes退出之后再点开来看发现api key和model都是default,怀疑是save changes就没生效。
考虑open source code吗?
zacksz: 打开设置,选择LLM提供商并填入对应API Key 小白请教:这个怎么弄啊。LLM是什么?
泥潭考虑开放一个MCP服务吗?
爱因斯坦有奶便是娘: Connection failed: HTTP 400: [{ “error”: { “code”: 400, “message”: “model is not specified”, “status”: “INVALID_ARGUMENT” } } ] 这是咋回事啊?model是gemini-2.0-flash 一样的问题+1 以及lz修完bug之后,有空的话求加一个问问题的feature
是我太懒了吗? 总结还是TLDR。。。
/u/osha /u/gogo /u/%E7%88%B1%E5%9B%A0%E6%96%AF%E5%9D%A6%E6%9C%89%E5%A5%B6%E4%BE%BF%E6%98%AF%E5%A8%98 /u/ccj Anthropic和Google Gemini的Bug已经修复了,正在审核。 /u/gogo 有考虑open source,但是怕被开盒lol,我改天申请一个新的GitHub
有时需要手动刷新一下侧边栏,这个我还不能稳定复现。
lz做完了我正在做的事,好了现在对我来说冲钛的最后一个low hanging fruit没有了 泥潭冲钛比上班还卷
感觉上来说很多东西是不是可以cache?这样可以省点吗
如果太麻烦就算了,只是想看一下代码,谢谢大佬
泥潭至少没有BE quota
Error: API request failed: 400 - {“error”:{“message”:“This endpoint’s maximum context length is 128000 tokens. However, you requested about 521177 tokens (504793 of text input, 16384 in the output). Please reduce the length of either one, or use the \“middle-out\” transform to compress your prompt automatically.”,“code”:400,“metadata”:{“provider_name”:null}}}
加到未来待办事项了
可以告诉我是哪个帖子吗?我可能要琢磨一下怎么压缩token了
是白金区的metro帖
那可能要等我到白金了
好东西 ,点赞
/uploads/short-url/1d9UDxQC1Yz6V5ttDV2I4kBuRiZ.png?dl=1 怎么提示没有选择model?
zacksz: 我并不是通过获取当前页面的HTML,而是通过访问 https://www.uscardforum.com/raw/post-id 来直接取得脱水版,这可能并不适用于非公开的帖子。 我考虑过做你这种插件,最后没有做就是因为有"等同于转载白金区帖子"的concern 白金区的帖子,只要用户登录了也是可以通过访问你这个网址获得的 建议至少默认设置为不能总结白金区的帖子 有些LLM,你氪金足够是可以设置"发送的数据不用来训练"的,这种我觉得可以
Gemini 现在有 bug,修复版本已经提交审核了
That’s a good point. 我可能需要再研究一下怎么判断是否为白金。 可能最大的障碍是我本身不是白金
klaxien: 发送的数据不用来训练 你猜猜有多少人已经悄悄这么干了
zacksz: That’s a good point. 我可能需要再研究一下怎么判断是否为白金。 可能最大的障碍是我本身不是白金 https://www.uscardforum.com/t/topic/423284.json 访问这个json有个category_id , category_id:68 是白金 token足够建议访问json,比你这个raw多很多信息,llm也更好理解,最关键的是json带 reaction ,优化prompt的时候可以告诉llm “总结的时候,优先总结正面reaction多的post”
raincandy: klaxien: 发送的数据不用来训练 你猜猜有多少人已经悄悄这么干了 这个我倒是毫不怀疑会有人干 我也没那么强正义感维护泥潭的数据,问题是别人这么干是他的事情,做成插件就是lz的事情了,辛辛苦苦做的好用插件,如果因为这个被管理员叫停比较可惜 当然最终还是管理员判断,管理员觉得没问题就是没问题
拿隔壁摸鱼楼测了一下,直接用这个并不包含所有楼,也会需要不断fetch(一次20楼),可能效率稍微低了一点,但是用来判断是否白金非常有用了。
为什么在败家版 应该在情感版
这金卡变钛金的节奏
zacksz: 但是我不是钛金,所以也没法测试 这是暗示管理员该给你升钛了是么
现在金卡要求也这么高吗 同为金卡我就是个废物。。。
zacksz: 目前支持 OpenRouter, OpenAI, Anthropic, Groq, Google Gemini, 和本地 Ollama 大佬能不能加个perplexity(泥潭白嫖的) 好像API是OpenAI compatible的 可能换一下API Endpoint就行
有帐户 Open AI Free API key,connection failure Claude $5 fee,放弃 Google Free API key,connection failure
openai的没有问题啊
I see, OpenAI没有免费的API key用 Connection failed: HTTP 400: [{ “error”: { “code”: 400, “message”: “model is not specified”, “status”: “INVALID_ARGUMENT” } } ] Free 的 Gemini用不了 只有本地deploy一条路吗
Gemini等审核应该就行了,之前审核挂了我一次,我修改之后重新提交了。
插件无了?被chrome自动移除了
感谢楼主的插件,今天试用了一下,gemini可以用,用的Gemini 2.5 Flash-Lite model速度比较快 但是出现了这个bug someleo: 换了帖子再generate为什么还是原来的帖子 如果开着侧边栏浏览新的帖子,侧边栏里标题会更新,但是summary里的内容还是旧帖子。需要关掉侧边栏,刷新网页,再点击插件重新generate - 测试环境 Windows 10 chrome
应该是更新审核通过了,Gemini可以用了
openai报错: Connection failed: HTTP 429: { “error”: { “message”: “You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.”, “type”: “insufficient_quota”, “param”: null, “code”: “insufficient_quota” } }
这个应该是API的quota用完了,那我也没法做到什么。。。
Anthropic 和 Google Gemini 已经修复了,欢迎使用
请问该插件会开源吗
会,我应该整理一下,本周内开源吧
emmm… 我用的是plus plan应该不会出现这个问题的
#p-6364531-usage-limits-1 Usage Limits To ensure a smooth experience for all users, Plus subscriptions may include usage limits such as message caps, especially during high demand. These limits may vary based on system conditions. reference: https://help.openai.com/en/articles/6950777-what-is-chatgpt-plus#h_d78bb59065
谢谢解答。如果是这样的话 除非用的是unlimited plan ($200/month) 否则使用OpenAI基本无解了……
Connection failed: HTTP 429: { “error”: { “message”: “You exceeded your current quota, please check your plan and billing details. For more information on this error, read the docs: https://platform.openai.com/docs/guides/error-codes/api-errors.”, “type”: “insufficient_quota”, “param”: null, “code”: “insufficient_quota” } }我做错了什么吗 直接在open AI复制的代码
见 https://www.uscardforum.com/t/topic/423284/70 应该是高强度刷泥潭导致的quota用完了 每一次总结应该只会用一次message,不知道为什么这么快就会用完… 我自己的OpenAI API Key是Usage based,所以完全没碰到这个问题… 我之后再研究一下OpenAI的API,包括我刚才发现新的GPT-5的API又不一样了
代码已开源在 Gitea,见主楼
信噪比越高路子死的越快 这种工具自己写给自己用用得了,发出来路子不就死了吗
话说mac试了一下ollama 好像不太行 设置本地模型和test都说成功了 但是点summarize的时候,先说: Fetching post content… 然后很快就 Error: API request failed: 403 - 了 先给楼主点个赞!
免费的api一直报错,分享个笨办法,受楼主启发 手动保存网页 https://www.uscardforum.com/raw/POST_ID?page=PAGE_NUMBER 为txt文件,页码从0开始,一页大概100楼。然后全部上传给chatgpt总结
发布了新版本1.1,接入了Vercel的AI SDK,所以和各家AI的适配应该会更好,并且也因此带来了xAI Grok和GPT 5的支持。
先码住,再来装
发现了一个设置页面的小bug,现在你需要先保存api key才能再获得LLM provider的model list。 已经提交了修复的版本。
gemini有免费的api用。
请问大佬可以 加一个 DEEPSEEK 的 API 吗?
感觉有些时候还是网页版用起来比较舒服,context window 比较大,而且联网搜索、继续提问什么的也比较方便?根据楼主提到的 `raw` 这接口,vibe code 了一个简单的 https://greasyfork.org/en/scripts/550399-us-card-forum-%25E5%2585%25A8%25E6%2596%2587%25E4%25B8%258B%25E8%25BD%25BD%25E5%2599%25A8, 就是导出 markdown 以供上传到各个 AI 助手而已。因为只是下载而已,最后是用户决定要不要上传到会使用用户数据训练的 AI, 所以也就没管是不是白金区。
最新版本 1.1.2 已经添加 DeepSeek API 选项
楼主开源了么?
地址在主楼了
up9080: vibe coding 用的什么工具啊,cursor吗
GPT已经是plus用户了但是还是用不了。可能api是需要单独付费的? /uploads/short-url/nuXits3BMie965Vw9DCrPuECOAz.png?dl=1
Yea, ChatGPT会员和OpenAI API好像是不同的系统
嗯……有时候帖子太大,超出上下文窗口了,得加个更好的分段逻辑。我再想想怎么弄。
同样遇到这个问题, 请问后来解决了吗?
啊 lz还有在更新这个插件吗?感觉今天那个mcp帖子应该很不错 可以平替了
哦哦那个是不错不过有点heavy. 研究了一下发现问题了, chrome插件initiate的请求origin是 chrome://extension . 只要在启动ollama时允许这个origin就可以用了. OLLAMA_ORIGINS=chrome-extension://* ollama serve
有是有,但是看到那个帖子感觉我也没啥可以更新的了,就保持现在providers不break就可以了。
用的OpenAI的api,test成功但是一点总结就报错,是姿势不对吗
/uploads/short-url/stsqz0dgvtV9jr5R9XkxQWKrdN8.png?dl=1 试了一下拿的 GPT4.1 Mini 作为model,没有什么问题。 请问你能看到是什么报错吗?以及你是OpenAI的API还是ChatGPT?
Local 的 能支持一下 LM studio API 不?应该跟 ollama 很接近。 http://domain.to:port/v1/models 就能拿到 model list.
我这周在度假,下周看一下。
兄弟 咱们这个插件一旦帖子的楼过长就没办法了 就没办法总结了 有办法解决么
这都不变钛?
1.1.3 发布了,我让Opus帮我做了个预计Token并拆分的功能,可能能够解决帖子过长的问题?
1.1.3已经发布,支持 LM Studio 了,暂时是默认的localhost:1234地址,需要注意把Context Window开大。
有些人好像不是很喜欢,那也没办法了
这个在 lmstudio 里调了128K 但似乎上限是插件也有限制?比如这个帖子看 console 输出: AI Service: Content tokens: ~9872, Context limit: 6000, Max input: 3600 AI Service: Summarizing chunk 1/4... 机器比较挫只用了 qwen3-vl-4b,跑了得有 5 分钟。 用 chatgpt 显示 AI Service: Content tokens: ~9872, Context limit: 100000, Max input: 60000
是,为了防止Context过大,我加了一些限制来分批调用,不过确实可能太严格了,我看看怎么改进。
更新了更智能的chunking,应该会快一些了
感觉可能更多是被隔壁钛金的 Nitan MCP 给吸引走了? 我还是更喜欢 OP 的想法,做一个 handy 的插件。不想在本地跑一个一堆依赖的 MCP (而且还不支持 2FA?)
Time for Nitan Skills!
配置好了 不错