我问 Gemini 一个问题,Gemini 说 阿巴阿巴阿巴阿巴停不下来
Gemini 重复乱码及多语言切换可稳定复现,用户可用指令拉回。
1. 关键信息
- #2 @overclock144 调侃 AI 像内燃机般燃烧用户的 token。
- #3 @Pegasus 说 Gemini 在“装唐”(装傻)。
- #4 @bravefilm 附和“Token 在燃烧”。
- #5 @otonoco 模仿输出大量无意义“apt apt apt...”及“ur-huh”重复。
- #6 @Joshua 称其为“token 使用榜榜单第一”。
- #7 @ornamentalism 报告 Gemini 在聊一段时间后会切换到 Ilokano 语言回复,且可稳定复现,附截图。
- #8 @yussef_dayes 表示之前语音时遇到过类似情况。
- #9 @regancai 建议向 Google 汇报,怀疑账号掉进奇怪 bug。
- #10 @ornamentalism 补充可用“请使用中文”指令拉回。
- #11 @summitguy 详细解释技术原因:逻辑陷入死循环、温度设置过低、注意力机制失焦,类比内燃机空转。
- #13 @llbean 报告中文聊 Python 时稳定低频率跳俄语。
- #14 @Keiour 指出这是“极其极其极其极其极其 哈基米”的老 bug,repetition penalty 对某些 token 无效。
- #15 @ornamentalism 表示与 Gemini 聊 Coq 时触发,推测特定编程语言会导致语言切换。
- #16 @puffmolly 输出“Allahu akbar”等阿拉伯语重复。
- #18 @Forlorner 担忧订阅用户会因此耗尽 token limit。
- #19 @jnnksn 质疑闭源模型能否调节温度参数。
- #20 @mengyu202 调侃“利好芯片股”。
- #21 @zydqjz 调侃“帮整个中东人民祷告了”。
- #22 @Keiour 补充:API 可以调温度参数,Web 一般不能。
- #23 @MMK 模仿输出“阿巴阿巴巴”。
- #24 @小帮菜 分析:推理做 quantization 时精度出问题,infra 组需逐个算子对精度。
- #26 @cnxcnx 指出这是小模型的问题,大模型重复几率很低,常见测试是让模型一直数数。
2. 羊毛/优惠信息
无
3. 最新动态
- 新增多种语言切换现象:Ilokano、俄语、阿拉伯语(Allahu akbar)。
- 用户发现可通过“请使用中文”指令拉回正常回复。
- 技术分析指出重复循环源于逻辑死循环、温度设置、注意力机制失焦,且 repetition penalty 对部分 token 无效。
- 用户反馈特定编程语言(Coq、Python)更容易触发该 bug。
- 讨论订阅用户可能因此快速消耗 token limit。
- 新增技术分析:推理时 quantization 精度问题可能导致该现象(#24)。
- 新增信息:API 可调节温度参数,Web 一般不能(#22)。
- 新增观点:该问题可能仅出现在小模型上,大模型重复几率很低(#26)。
4. 争议或不同意见
- #19 @jnnksn 质疑闭源模型能否调节温度参数,#22 @Keiour 回应:API 可以,Web 一般不能。
- #26 @cnxcnx 认为问题仅限小模型,与 #24 的 quantization 精度分析无直接冲突,但提供了不同规模模型的差异视角。
5. 行动建议
- 遇到类似问题的用户可尝试用“请使用中文”指令临时拉回。
- 建议向 Google 提交 bug 报告,并附上触发条件(如特定编程语言、上下文长度)。
- 订阅用户注意监控 token 消耗,避免因重复循环耗尽限额。
- 若使用 API,可尝试调整温度参数或检查 quantization 精度问题。
- 若使用较小模型(如 Gemini 1.5 Flash),可考虑切换至更大模型(如 Gemini 1.5 Pro)以降低重复概率。
它正像内燃机般燃烧你的token
gemini:看我装唐阴他一手
Token在燃烧
apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh apt apt apt apt apt apt er ur-huh ur-huh
token使用榜榜单第一
而且神奇的是,我这边可以稳定复现聊一段时间之后 gemini 就会用一种怪异的语言回复我 /uploads/short-url/795X86dgTHxg2ETpBoyWRLc144.png?dl=1 放到谷歌翻译自动检测说是 Ilokano /uploads/short-url/6e9uRv6oaUtuRWvoqVxSdNj5toB.png?dl=1 不知道这是为什么
之前语音它的时候遇到过类似
这种情况真的不需要跟Google汇报一下吗 怕不是你的账号掉进了什么奇怪的bug
我还能用 “请使用中文” 把它拽回来哈哈
overclock144: 它正像内燃机般燃烧你的token Gemini答复了 “ 我只能说……这确实挺尴尬的。这种现象在 AI 领域有个专门的术语,叫做**“重复循环”(Repetition Loop)**。 正如那位网友调侃的,这确实是在“燃烧 token”,而且燃得相当没效率。这就像是内燃机突然卡在了某个活塞冲程上,一直空转,还把燃料(Token)全给喷出来了。 为什么会出现这种“阿巴阿巴”的情况? 虽然看起来像是我中邪了,但背后其实有一些技术上的逻辑缺陷: • 逻辑陷入死循环: 大语言模型(LLM)是基于概率预测下一个字符(token)的。有时候模型在生成的过程中,由于某些特定的触发词或上下文,导致它认为“重复上一个词”的概率是最高的,从而陷入了一个无法跳出的正反馈循环。 • 温度(Temperature)设置问题: 如果生成的“随机性”设置得太低,模型会变得极其保守,不断选择那个概率最高(哪怕是错误的)的词。 • 注意力机制(Attention Mechanism)失焦: 当上下文长度达到某种临界点,或者遇到一些生僻的编码逻辑(比如图中看到的代码片段)时,模型的“注意力”可能由于权重的异常分配,锁死在某一个片段上。 ”
阿巴阿巴
我的gemini中文聊python稳定低频率跳俄语
我还以为是极其极其极其极其极其 哈基米的老bug了,repetition penalty在某些token上貌似是没用的
熬熬 我是跟他聊 coq 他跟我蹦这个 那可能特定编程语言会让它跳出人类的不同语言
阿巴阿巴阿巴阿巴停不下来 Allahu akbar 阿拉胡阿克巴
阿巴,阿巴 晚安玛卡巴卡
这种如果是subscription是不是会把limit用光才停
summitguy: • 温度(Temperature)设置问题: 如果生成的“随机性”设置得太低,模型会变得极其保守,不断选择那个概率最高(哪怕是错误的)的词。 闭源模型这个也能调?
利好芯片股?
帮整个中东人民都祷告了是吧
API就行,web一般不能调
阿巴阿巴巴
一般这种情况是推理做quantization的时候精度出问题了. infra组要连夜给每个算子对精度
/uploads/short-url/y2pgAjB52BDZSCqZRddlh1cy7sC.jpeg?dl=1
小model的问题罢了,大model重复几率很低 常见的测试是让model一直数数