开发agent大家有什么见解嘛
开发Agent的讨论深入探讨了AI辅助编码的挑战与实践,特别是模型的不确定性以及如何通过代码来稳定Agent的行为。
1. 关键信息
- (之前已归纳)讨论围绕“开发Agent”展开,明确为“开发agent”而非“用agent开发”。
- (之前已归纳)提到了可以使用现成的Framework或公司CLI。
- (之前已归纳)用户询问开发Agent的具体目的,例如解决特定问题。
- (之前已归纳)建议利用Claude等AI助手辅助Agent的编码工作。
- (之前已归纳)推荐GitHub仓库
badlogic/pi-mono作为AI Agent工具集,包含CLI、LLM API、UI库等,可用于学习和实践。 - (之前已归纳)用户cl3提到“N姐好多面試呀!”,暗示了讨论可能涉及与招聘或职业发展相关的背景,但具体细节未展开。
- 最新回复用户表示在开发Agent的过程中遇到了困难,形容为“头秃了”。
- IlllIIlIIIllIIl指出,开发Agent的主要难点在于模型输出的不确定性,即使模型当前表现良好,也可能随时出现错误,需要大量代码来验证其输出。
- IlllIIlIIIllIIl认为许多所谓的“全自动”Agent难以落地,容易陷入无限循环或卡死,强调应设定明确的规则和范围,让Agent稳定地完成一到两件重复性的小任务。
- IlllIIlIIIllIIl认为花哨的框架不如自己手写判断逻辑来得稳健,本质上Agent开发就是处理模型的不确定性,并用代码来“接住”这些不稳定的输出。
- IlllIIlIIIllIIl建议从最简单的任务开始,优先解决“稳定”问题,再考虑复杂性。
- deng47将使用本地LLM搞Agent比作教导一个婴儿走路,形象地说明了本地模型的不成熟和需要大量调教。
- whtf提到“Qclaw已经内测了,即将发布”,暗示可能是一个新的Agent或相关产品。
- otonoco建议在开发Agent时要“循序渐进”并“设定好安全词”,强调了稳定性和风险控制。
2. 羊毛/优惠信息
- 无
3. 最新动态
- whtf提到“Qclaw已经内测了,即将发布”。
4. 争议或不同意见
- 无明显争议,讨论主要集中在技术实现和应用方向的探讨。
5. 行动建议
- (之前已归纳)对于想开发Agent的用户,可以考虑利用现有的Framework或CLI工具。
- (之前已归纳)在开发前,明确Agent需要解决的具体问题和应用场景。
- (之前已归纳)可以尝试使用Claude等AI工具辅助Agent的开发编码。
- (之前已归纳)推荐研究
badlogic/pi-mono这个GitHub项目,通过代码学习和实践Agent的开发。 - 对于在开发Agent过程中遇到困难的用户,可以继续探索和寻求解决方案。
- IlllIIlIIIllIIl建议开发者优先关注Agent的“稳定性”,从简单任务入手,并强调通过代码处理模型的不确定性。
- deng47的经验表明,使用本地LLM进行Agent开发需要耐心和大量的调教。
- otonoco建议在Agent开发过程中,应采取“循序渐进”的方式,并设置“安全词”来控制风险。
哎 ng真是太可怜了
问完gemini来当伸手党
明明昨晚还在k8s linux
占楼编辑
现在NG很多作用
是用agent开发,还是开发agent?
开发agent
Agent可以用agent开发
有很多现成的framework可以用,甚至可以直接套壳那几家的cli
可以说的仔细点嘛
你开发agent要具体解决一个什么问题么
不知道啊 要面的组说是在搞
让Claude code给你把这个repo讲一遍 拿着自己用用就懂了
github.com
GitHub - badlogic/pi-mono: AI agent toolkit: coding agent CLI, unified LLM...
AI agent toolkit: coding agent CLI, unified LLM API, TUI & web UI libraries, Slack bot, vLLM pods
N姐好多面試呀!
先找个agent,然后让他去开发你的agent
别只聊 LangChain 那套简单的 ReAct 逻辑。现在的卷点在于:
Long-term Memory:Agent 怎么在多轮对话中不丢上下文?是靠 Vector DB 还是靠最新的 Infinite Context 技术?
Planning & Tool Use:面对复杂任务,Agent 是如何拆解的?对于返回的 Tool Output 报错,它有没有 Self-Correction的能力?
Reliability & Evaluation:Agent/LLM 最怕 幻觉。面试时可以问问他们怎么做 Agent Eval,是用 LLM-as-a-judge 还是有一套固定的 Sandbox 环境跑测试。
只要聊到这三点,面试官就知道你是真钻研过 Agentic Workflow 的
不过对于 NG,前面2点也有可能要求太过了。就看你想不想成为像我一样,当一个真正的 LLM/AI Agent 了
换我头秃了
现在搞 Agent 挺让人头大的。外面吹得天花乱坠,但真动手写代码就发现,大部分时间都在跟那几条指令较劲。最烦的不是逻辑怎么写,而是模型现在表现好,过一会儿可能就乱说话了,你还得写一堆代码去检查它的输出对不对。
很多所谓的“全自动”其实根本没法落地。你要是真让它自己去想,它能给你跑出无限循环或者直接卡死。所以现在还是得老老实实地定好规矩,让它在一个明确的范围里转。别想着用它解决所有问题,能稳定地帮人干成一两件重复的小事,这产品就算成了。
另外,那些花哨的框架其实没那么重要,很多时候自己手写几个判断逻辑反而更稳。本质上,现在做 Agent 就是在处理模型产生的不确定性,把那些不稳的地方用代码接住。
要是真想动手,建议先从最简单的任务开始,先把“稳定”这关过了,再去想那些复杂的。
This sounds like an agent response
楼主最近这么活跃 刷到好几次你的帖子了
【引用自 IlllIIlIIIllIIl】:
稳
【引用自 IlllIIlIIIllIIl】:
接住
进厂打螺丝没人要呀
上次医生后续呢
我在用本地LLM搞agent,有时候感觉LLM就是个婴儿,而我正在造学步车,教ta走路
image640×539 46 KB
泥潭最新大热门人物
nin姐什么时候能和山哥一样有专属tag
童话里 我已经嫁给他了
现在个人tag露头就秒,得想点擦边的
【引用自 Nik0major】:
得想点擦边的
冬哥的牛牛
74c2d73699dc24eecb55ea1ec52427a91320×530 80.7 KB当然是知识付费,Qclaw已经内测了,即将发布
循序渐进
设定好安全词
同感,我也是ollama的本地model,和花钱订阅的api相比差太多了