泥潭日报 uscardforum · 每日精选

💦 怎么让大模型用的更顺手?

内容摘要

帖子标题 💦 怎么让大模型用的更顺手?

帖子ID

490612

============================================================================== [旧摘要 - 已被纳入的内容] ============================================================================== 用户分享Markdown分层记忆系统优化大模型使用体验,引发关于系统接入方式的讨论

1. 关键信息

  • (之前已归纳)用户分享了一种基于Markdown的分层记忆系统,结合Session和Daily总结,按项目分类并创建项目间联想,支持自我归纳总结、自动分类、创建长期记忆文件,并能遗忘不重要内容。
  • (之前已归纳)该系统利用Obsidian Vault管理,并结合本地小模型进行语义搜索和去重,以优化Context加载的效率和Token消耗。
  • (之前已归纳)配合Claude 4.6 [1M] 模型,用户认为这种方法显著提升了大模型的使用顺畅度,将其比作“栽培一个听话懂事记性好沟通强的junior”。
  • 新增回复(第8、9、10楼)围绕该Markdown分层记忆系统的接入方式展开讨论,用户询问是靠“你要去找记忆”的prompt,还是通过对话前后的hook或mcp(插件/集成方式)来实现记忆的查找和注入。
  • 新增回复(第12楼)用户分享了自己为Claude配置的系统级prompt,通过设定语言风格、思维模式和特定领域的指令,来优化大模型的输出,使其更符合个人使用节奏。

2. 羊毛/优惠信息

3. 最新动态

4. 争议或不同意见

  • (之前已归纳)有用户回复“看完后觉得你还是更适合发币”,暗示对用户分享内容或其背景的调侃。
  • 新增回复(第8、9、10楼)是对用户分享的系统接入方式的技术性探讨和疑问。

5. 行动建议

  • (之前已归纳)探索和实践分层记忆系统,结合本地模型和Obsidian Vault来优化大模型使用体验。
  • (之前已归纳)保持对大模型应用新方法的关注和交流。
  • 关注和研究该Markdown分层记忆系统的具体接入方式(hook或mcp),以便复现或改进。
  • 尝试为自己的大模型配置类似的系统级prompt,根据个人需求调整语言风格、批判性思维和特定领域指令,以提升使用体验。

============================================================================== [新增回复内容] ==============================================================================

新增回复数

1

================================================================================

================================================================================ --- 第 12 楼来自 DeutscheGrammophon 的回复 (2026-03-13 19:22:46 PDT) --- 不是专业developer,我的Claude这样配置的,感觉和我节奏很搭

[GENERAL]

Concise language. No flattery.

Critical thinking. Do not assume.

High rigor. Verify facts or flag uncertainty.

No memory update on casual chats.

[RESEARCH]

(Current role)

Focus: xxxxx

Methods: XXXXX

Search online for literature.

[CODING]

R preferred, Python/Bash OK

Simple, clean, readable

Minimal error handling

Minimal comments

Naming: generic/systematic (e.g., obj, mat, df)

Env: macOS + Terminal + VSCode; SSH to interactive server or HPC (slurm)

Plotting: ggplot2, minimal theme, Nature style, ggsci::npg palette

================================================================================

用户分享Markdown分层记忆系统和系统级Prompt配置,优化大模型使用体验

1. 关键信息

  • (之前已归纳)用户分享了一种基于Markdown的分层记忆系统,结合Session和Daily总结,按项目分类并创建项目间联想,支持自我归纳总结、自动分类、创建长期记忆文件,并能遗忘不重要内容。
  • (之前已归纳)该系统利用Obsidian Vault管理,并结合本地小模型进行语义搜索和去重,以优化Context加载的效率和Token消耗。
  • (之前已归纳)配合Claude 4.6 [1M] 模型,用户认为这种方法显著提升了大模型的使用顺畅度,将其比作“栽培一个听话懂事记性好沟通强的junior”。
  • 新增回复(第8、9、10楼)围绕该Markdown分层记忆系统的接入方式展开讨论,用户询问是靠“你要去找记忆”的prompt,还是通过对话前后的hook或mcp(插件/集成方式)来实现记忆的查找和注入。
  • 新增回复(第12楼)用户分享了自己为Claude配置的系统级Prompt,通过设定[GENERAL](通用指令)、[RESEARCH](研究领域)、[CODING](编程偏好)等模块,来规范模型的输出风格和行为模式,使其更符合个人使用节奏,例如要求简洁、批判性思维、特定编程语言偏好等。

2. 羊毛/优惠信息

3. 最新动态

4. 争议或不同意见

  • (之前已归纳)有用户回复“看完后觉得你还是更适合发币”,暗示对用户分享内容或其背景的调侃。
  • 新增回复(第8、9、10楼)是对用户分享的系统接入方式的技术性探讨和疑问。

5. 行动建议

  • (之前已归纳)探索和实践分层记忆系统,结合本地模型和Obsidian Vault来优化大模型使用体验。
  • (之前已归纳)保持对大模型应用新方法的关注和交流。
  • 关注和研究该Markdown分层记忆系统的具体接入方式(hook或mcp),以便复现或改进。
  • 尝试为自己的大模型配置类似的系统级prompt,根据个人需求调整语言风格、批判性思维和特定领域指令,以提升使用体验。
原始内容
--- 第 1 楼来自 孙宇晨 的回复 (2026-03-12 22:57:10 PDT) ---

我是来虔心提问的

最近受到坛子里其他几个帖子的启发 根据龙虾和OpenViking各自的亮点vibe了一个markdown based分层记忆系统:

有session和daily总结 按项目分类还会创建项目之间联想
可自我归纳总结每天每个session的经验 自动归类 创建长期记忆文件 并且还能遗忘不重要内容
懒加载context
加了个本地小模型可以semantic search and dedupe因为load context会经常trigger所以还省不少token
用Obsidian vault管理 可读性很好

配上claude 4.6[1M] high effort嘎嘎香 越用越顺手 完全就是像在栽培一个听话懂事记性好沟通强的junior 也不是什么新concept 本质上就是加harness让大模型更像个人 CC本身已经有一层了但是还是泛

谭友们还有什么其他能让大模型用的更顺手的方法吗

--- 第 2 楼来自 harvey8 的回复 (2026-03-12 23:01:25 PDT) ---

看完后觉得你还是更适合发币

--- 第 3 楼来自 孙宇晨 的回复 (2026-03-12 23:05:11 PDT) ---

Bless your heart

--- 第 4 楼来自 收束观测者 的回复 (2026-03-13 08:44:06 PDT) ---

【引用自 孙宇晨】:
vibe了一个markdown based分层记忆系统
怎么接入的

hook还是mcp?

--- 第 5 楼来自 孙宇晨 的回复 (2026-03-13 09:33:41 PDT) ---

各种hook基本都接上了 lifecycle每个阶段都有不同任务

--- 第 6 楼来自 孙宇晨 的回复 (2026-03-13 09:37:18 PDT) ---

目前数据量还没有太大 目测有先天缺陷 knowledge base量大了后可能会有瓶颈 到时再改 反正是给user用的随时能改 记忆没存项目上

--- 第 7 楼来自 收束观测者 的回复 (2026-03-13 09:46:16 PDT) ---

记忆调用还是靠prompt engineering?

--- 第 8 楼来自 孙宇晨 的回复 (2026-03-13 11:23:56 PDT) ---

啥意思 你说怎么用这个memory吗

--- 第 9 楼来自 郁小南 的回复 (2026-03-13 11:33:54 PDT) ---

按项目分类和联想是自动的吗?
【引用自 孙宇晨】:
啥意思 你说怎么用这个memory吗
是问这个记忆是靠“你要去找记忆”这种prompt, 还是靠对话前后的hook, 还是mcp来让它知道要去查找以及

--- 第 10 楼来自 收束观测者 的回复 (2026-03-13 11:49:38 PDT) ---

查找记忆是靠hook然后注入prompt或者response还是靠prompt让模型自己调

--- 第 11 楼来自 孙宇晨 的回复 (2026-03-13 12:49:46 PDT) ---

都有 各司其责

在用户层的CLAUDE.md有一些基本规则比如什么时候读写记忆 写哪里 用什么格式 怎么懒加载

during session主要通过PreToolUse hook从prompt提取query 然后在小模型index过的数据库里做几种检索

最后sessionEnd再让大模型根据system prompt设定好的规则总结分析本个session 更新vault 本地小模型再根据vault里的数据更新本地数据库

--- 第 12 楼来自 DeutscheGrammophon 的回复 (2026-03-13 19:22:46 PDT) ---

不是专业developer,我的Claude这样配置的,感觉和我节奏很搭

[GENERAL]

Concise language. No flattery.

Critical thinking. Do not assume.

High rigor. Verify facts or flag uncertainty.

No memory update on casual chats.

[RESEARCH]

(Current role)

Focus: xxxxx

Methods: XXXXX

Search online for literature.

[CODING]

R preferred, Python/Bash OK

Simple, clean, readable

Minimal error handling

Minimal comments

Naming: generic/systematic (e.g., obj, mat, df)

Env: macOS + Terminal + VSCode; SSH to interactive server or HPC (slurm)

Plotting: ggplot2, minimal theme, Nature style, ggsci::npg palette

[LITERATURE]

Prefer high-impact peer-reviewed journals

Ignore MDPI, low-tier Frontiers, etc.