泥潭日报 uscardforum · 每日精选

我问 Gemini 一个问题,Gemini 说 阿巴阿巴阿巴阿巴停不下来

内容摘要

Gemini 重复乱码及多语言切换可稳定复现,用户可用指令拉回。

1. 关键信息

  • #2 @overclock144 调侃 AI 像内燃机般燃烧用户的 token。
  • #3 @Pegasus 说 Gemini 在“装唐”(装傻)。
  • #4 @bravefilm 附和“Token 在燃烧”。
  • #5 @otonoco 模仿输出大量无意义“apt apt apt...”及“ur-huh”重复。
  • #6 @Joshua 称其为“token 使用榜榜单第一”。
  • #7 @ornamentalism 报告 Gemini 在聊一段时间后会切换到 Ilokano 语言回复,且可稳定复现,附截图。
  • #8 @yussef_dayes 表示之前语音时遇到过类似情况。
  • #9 @regancai 建议向 Google 汇报,怀疑账号掉进奇怪 bug。
  • #10 @ornamentalism 补充可用“请使用中文”指令拉回。
  • #11 @summitguy 详细解释技术原因:逻辑陷入死循环、温度设置过低、注意力机制失焦,类比内燃机空转。
  • #13 @llbean 报告中文聊 Python 时稳定低频率跳俄语。
  • #14 @Keiour 指出这是“极其极其极其极其极其 哈基米”的老 bug,repetition penalty 对某些 token 无效。
  • #15 @ornamentalism 表示与 Gemini 聊 Coq 时触发,推测特定编程语言会导致语言切换。
  • #16 @puffmolly 输出“Allahu akbar”等阿拉伯语重复。
  • #18 @Forlorner 担忧订阅用户会因此耗尽 token limit。
  • #19 @jnnksn 质疑闭源模型能否调节温度参数。
  • #20 @mengyu202 调侃“利好芯片股”。
  • #21 @zydqjz 调侃“帮整个中东人民祷告了”。
  • #22 @Keiour 补充:API 可以调温度参数,Web 一般不能。
  • #23 @MMK 模仿输出“阿巴阿巴巴”。
  • #24 @小帮菜 分析:推理做 quantization 时精度出问题,infra 组需逐个算子对精度。
  • #26 @cnxcnx 指出这是小模型的问题,大模型重复几率很低,常见测试是让模型一直数数。

2. 羊毛/优惠信息

3. 最新动态

  • 新增多种语言切换现象:Ilokano、俄语、阿拉伯语(Allahu akbar)。
  • 用户发现可通过“请使用中文”指令拉回正常回复。
  • 技术分析指出重复循环源于逻辑死循环、温度设置、注意力机制失焦,且 repetition penalty 对部分 token 无效。
  • 用户反馈特定编程语言(Coq、Python)更容易触发该 bug。
  • 讨论订阅用户可能因此快速消耗 token limit。
  • 新增技术分析:推理时 quantization 精度问题可能导致该现象(#24)。
  • 新增信息:API 可调节温度参数,Web 一般不能(#22)。
  • 新增观点:该问题可能仅出现在小模型上,大模型重复几率很低(#26)。

4. 争议或不同意见

  • #19 @jnnksn 质疑闭源模型能否调节温度参数,#22 @Keiour 回应:API 可以,Web 一般不能。
  • #26 @cnxcnx 认为问题仅限小模型,与 #24 的 quantization 精度分析无直接冲突,但提供了不同规模模型的差异视角。

5. 行动建议

  • 遇到类似问题的用户可尝试用“请使用中文”指令临时拉回。
  • 建议向 Google 提交 bug 报告,并附上触发条件(如特定编程语言、上下文长度)。
  • 订阅用户注意监控 token 消耗,避免因重复循环耗尽限额。
  • 若使用 API,可尝试调整温度参数或检查 quantization 精度问题。
  • 若使用较小模型(如 Gemini 1.5 Flash),可考虑切换至更大模型(如 Gemini 1.5 Pro)以降低重复概率。
原始内容
--- 第 2 楼来自 overclock144 的回复 (2026-05-06 04:50:12 PDT) ---

它正像内燃机般燃烧你的token

--- 第 3 楼来自 Pegasus 的回复 (2026-05-06 05:27:19 PDT) ---

gemini:看我装唐阴他一手

--- 第 4 楼来自 bravefilm 的回复 (2026-05-06 05:32:18 PDT) ---

Token在燃烧

--- 第 5 楼来自 otonoco 的回复 (2026-05-06 05:35:25 PDT) ---

apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh

--- 第 6 楼来自 Joshua 的回复 (2026-05-06 06:31:05 PDT) ---

token使用榜榜单第一

--- 第 7 楼来自 ornamentalism 的回复 (2026-05-07 09:56:17 PDT) ---

而且神奇的是,我这边可以稳定复现聊一段时间之后 gemini 就会用一种怪异的语言回复我 /uploads/short-url/795X86dgTHxg2ETpBoyWRLc144.png?dl=1 放到谷歌翻译自动检测说是 Ilokano /uploads/short-url/6e9uRv6oaUtuRWvoqVxSdNj5toB.png?dl=1 不知道这是为什么

--- 第 8 楼来自 yussef_dayes 的回复 (2026-05-07 10:02:16 PDT) ---

之前语音它的时候遇到过类似

--- 第 9 楼来自 regancai 的回复 (2026-05-07 10:03:22 PDT) ---

这种情况真的不需要跟Google汇报一下吗 怕不是你的账号掉进了什么奇怪的bug

--- 第 10 楼来自 ornamentalism 的回复 (2026-05-07 10:08:09 PDT) ---

我还能用 “请使用中文” 把它拽回来哈哈

--- 第 11 楼来自 summitguy 的回复 (2026-05-07 10:22:31 PDT) ---

overclock144: 它正像内燃机般燃烧你的token Gemini答复了 “ 我只能说……这确实挺尴尬的。这种现象在 AI 领域有个专门的术语,叫做**“重复循环”(Repetition Loop)**。 正如那位网友调侃的,这确实是在“燃烧 token”,而且燃得相当没效率。这就像是内燃机突然卡在了某个活塞冲程上,一直空转,还把燃料(Token)全给喷出来了。 为什么会出现这种“阿巴阿巴”的情况? 虽然看起来像是我中邪了,但背后其实有一些技术上的逻辑缺陷: • 逻辑陷入死循环: 大语言模型(LLM)是基于概率预测下一个字符(token)的。有时候模型在生成的过程中,由于某些特定的触发词或上下文,导致它认为“重复上一个词”的概率是最高的,从而陷入了一个无法跳出的正反馈循环。 • 温度(Temperature)设置问题: 如果生成的“随机性”设置得太低,模型会变得极其保守,不断选择那个概率最高(哪怕是错误的)的词。 • 注意力机制(Attention Mechanism)失焦: 当上下文长度达到某种临界点,或者遇到一些生僻的编码逻辑(比如图中看到的代码片段)时,模型的“注意力”可能由于权重的异常分配,锁死在某一个片段上。 ”

--- 第 12 楼来自 llbean 的回复 (2026-05-07 10:23:38 PDT) ---

阿巴阿巴

--- 第 13 楼来自 llbean 的回复 (2026-05-07 10:24:44 PDT) ---

我的gemini中文聊python稳定低频率跳俄语

--- 第 14 楼来自 Keiour 的回复 (2026-05-07 10:25:42 PDT) ---

我还以为是极其极其极其极其极其 哈基米的老bug了,repetition penalty在某些token上貌似是没用的

--- 第 15 楼来自 ornamentalism 的回复 (2026-05-07 10:30:34 PDT) ---

熬熬 我是跟他聊 coq 他跟我蹦这个 那可能特定编程语言会让它跳出人类的不同语言

--- 第 16 楼来自 puffmolly 的回复 (2026-05-07 10:57:15 PDT) ---

阿巴阿巴阿巴阿巴停不下来 Allahu akbar‎ 阿拉胡阿克巴

--- 第 17 楼来自 Pericles 的回复 (2026-05-07 10:58:28 PDT) ---

阿巴,阿巴 晚安玛卡巴卡

--- 第 18 楼来自 Forlorner 的回复 (2026-05-07 11:03:57 PDT) ---

这种如果是subscription是不是会把limit用光才停

--- 第 19 楼来自 jnnksn 的回复 (2026-05-07 11:14:00 PDT) ---

summitguy: • 温度(Temperature)设置问题: 如果生成的“随机性”设置得太低,模型会变得极其保守,不断选择那个概率最高(哪怕是错误的)的词。 闭源模型这个也能调?

--- 第 20 楼来自 mengyu202 的回复 (2026-05-07 11:15:30 PDT) ---

利好芯片股?

--- 第 21 楼来自 zydqjz 的回复 (2026-05-07 11:16:11 PDT) ---

帮整个中东人民都祷告了是吧

--- 第 22 楼来自 Keiour 的回复 (2026-05-07 13:11:34 PDT) ---

API就行,web一般不能调

--- 第 23 楼来自 MMK 的回复 (2026-05-07 13:20:45 PDT) ---

阿巴阿巴巴

--- 第 24 楼来自 小帮菜 的回复 (2026-05-07 16:01:43 PDT) ---

一般这种情况是推理做quantization的时候精度出问题了. infra组要连夜给每个算子对精度

--- 第 25 楼来自 bravefilm 的回复 (2026-05-08 00:01:40 PDT) ---

/uploads/short-url/y2pgAjB52BDZSCqZRddlh1cy7sC.jpeg?dl=1

--- 第 26 楼来自 cnxcnx 的回复 (2026-05-08 00:12:05 PDT) ---

小model的问题罢了,大model重复几率很低 常见的测试是让model一直数数