💦 怎么让大模型用的更顺手?
帖子标题 💦 怎么让大模型用的更顺手?
帖子ID
490612
============================================================================== [旧摘要 - 已被纳入的内容] ============================================================================== 用户分享Markdown分层记忆系统优化大模型使用体验,引发关于系统接入方式的讨论
1. 关键信息
- (之前已归纳)用户分享了一种基于Markdown的分层记忆系统,结合Session和Daily总结,按项目分类并创建项目间联想,支持自我归纳总结、自动分类、创建长期记忆文件,并能遗忘不重要内容。
- (之前已归纳)该系统利用Obsidian Vault管理,并结合本地小模型进行语义搜索和去重,以优化Context加载的效率和Token消耗。
- (之前已归纳)配合Claude 4.6 [1M] 模型,用户认为这种方法显著提升了大模型的使用顺畅度,将其比作“栽培一个听话懂事记性好沟通强的junior”。
- 新增回复(第8、9、10楼)围绕该Markdown分层记忆系统的接入方式展开讨论,用户询问是靠“你要去找记忆”的prompt,还是通过对话前后的hook或mcp(插件/集成方式)来实现记忆的查找和注入。
- 新增回复(第12楼)用户分享了自己为Claude配置的系统级prompt,通过设定语言风格、思维模式和特定领域的指令,来优化大模型的输出,使其更符合个人使用节奏。
2. 羊毛/优惠信息
- 无
3. 最新动态
- 无
4. 争议或不同意见
- (之前已归纳)有用户回复“看完后觉得你还是更适合发币”,暗示对用户分享内容或其背景的调侃。
- 新增回复(第8、9、10楼)是对用户分享的系统接入方式的技术性探讨和疑问。
5. 行动建议
- (之前已归纳)探索和实践分层记忆系统,结合本地模型和Obsidian Vault来优化大模型使用体验。
- (之前已归纳)保持对大模型应用新方法的关注和交流。
- 关注和研究该Markdown分层记忆系统的具体接入方式(hook或mcp),以便复现或改进。
- 尝试为自己的大模型配置类似的系统级prompt,根据个人需求调整语言风格、批判性思维和特定领域指令,以提升使用体验。
============================================================================== [新增回复内容] ==============================================================================
新增回复数
1
================================================================================
================================================================================ --- 第 12 楼来自 DeutscheGrammophon 的回复 (2026-03-13 19:22:46 PDT) --- 不是专业developer,我的Claude这样配置的,感觉和我节奏很搭
[GENERAL]
Concise language. No flattery.
Critical thinking. Do not assume.
High rigor. Verify facts or flag uncertainty.
No memory update on casual chats.
[RESEARCH]
(Current role)
Focus: xxxxx
Methods: XXXXX
Search online for literature.
[CODING]
R preferred, Python/Bash OK
Simple, clean, readable
Minimal error handling
Minimal comments
Naming: generic/systematic (e.g., obj, mat, df)
Env: macOS + Terminal + VSCode; SSH to interactive server or HPC (slurm)
Plotting: ggplot2, minimal theme, Nature style, ggsci::npg palette
================================================================================
用户分享Markdown分层记忆系统和系统级Prompt配置,优化大模型使用体验
1. 关键信息
- (之前已归纳)用户分享了一种基于Markdown的分层记忆系统,结合Session和Daily总结,按项目分类并创建项目间联想,支持自我归纳总结、自动分类、创建长期记忆文件,并能遗忘不重要内容。
- (之前已归纳)该系统利用Obsidian Vault管理,并结合本地小模型进行语义搜索和去重,以优化Context加载的效率和Token消耗。
- (之前已归纳)配合Claude 4.6 [1M] 模型,用户认为这种方法显著提升了大模型的使用顺畅度,将其比作“栽培一个听话懂事记性好沟通强的junior”。
- 新增回复(第8、9、10楼)围绕该Markdown分层记忆系统的接入方式展开讨论,用户询问是靠“你要去找记忆”的prompt,还是通过对话前后的hook或mcp(插件/集成方式)来实现记忆的查找和注入。
- 新增回复(第12楼)用户分享了自己为Claude配置的系统级Prompt,通过设定[GENERAL](通用指令)、[RESEARCH](研究领域)、[CODING](编程偏好)等模块,来规范模型的输出风格和行为模式,使其更符合个人使用节奏,例如要求简洁、批判性思维、特定编程语言偏好等。
2. 羊毛/优惠信息
- 无
3. 最新动态
- 无
4. 争议或不同意见
- (之前已归纳)有用户回复“看完后觉得你还是更适合发币”,暗示对用户分享内容或其背景的调侃。
- 新增回复(第8、9、10楼)是对用户分享的系统接入方式的技术性探讨和疑问。
5. 行动建议
- (之前已归纳)探索和实践分层记忆系统,结合本地模型和Obsidian Vault来优化大模型使用体验。
- (之前已归纳)保持对大模型应用新方法的关注和交流。
- 关注和研究该Markdown分层记忆系统的具体接入方式(hook或mcp),以便复现或改进。
- 尝试为自己的大模型配置类似的系统级prompt,根据个人需求调整语言风格、批判性思维和特定领域指令,以提升使用体验。
我是来虔心提问的
最近受到坛子里其他几个帖子的启发 根据龙虾和OpenViking各自的亮点vibe了一个markdown based分层记忆系统:
有session和daily总结 按项目分类还会创建项目之间联想
可自我归纳总结每天每个session的经验 自动归类 创建长期记忆文件 并且还能遗忘不重要内容
懒加载context
加了个本地小模型可以semantic search and dedupe因为load context会经常trigger所以还省不少token
用Obsidian vault管理 可读性很好
配上claude 4.6[1M] high effort嘎嘎香 越用越顺手 完全就是像在栽培一个听话懂事记性好沟通强的junior 也不是什么新concept 本质上就是加harness让大模型更像个人 CC本身已经有一层了但是还是泛
谭友们还有什么其他能让大模型用的更顺手的方法吗
看完后觉得你还是更适合发币
Bless your heart
【引用自 孙宇晨】:
vibe了一个markdown based分层记忆系统
怎么接入的
hook还是mcp?
各种hook基本都接上了 lifecycle每个阶段都有不同任务
目前数据量还没有太大 目测有先天缺陷 knowledge base量大了后可能会有瓶颈 到时再改 反正是给user用的随时能改 记忆没存项目上
记忆调用还是靠prompt engineering?
啥意思 你说怎么用这个memory吗
按项目分类和联想是自动的吗?
【引用自 孙宇晨】:
啥意思 你说怎么用这个memory吗
是问这个记忆是靠“你要去找记忆”这种prompt, 还是靠对话前后的hook, 还是mcp来让它知道要去查找以及
对
查找记忆是靠hook然后注入prompt或者response还是靠prompt让模型自己调
都有 各司其责
在用户层的CLAUDE.md有一些基本规则比如什么时候读写记忆 写哪里 用什么格式 怎么懒加载
during session主要通过PreToolUse hook从prompt提取query 然后在小模型index过的数据库里做几种检索
最后sessionEnd再让大模型根据system prompt设定好的规则总结分析本个session 更新vault 本地小模型再根据vault里的数据更新本地数据库
不是专业developer,我的Claude这样配置的,感觉和我节奏很搭
[GENERAL]
Concise language. No flattery.
Critical thinking. Do not assume.
High rigor. Verify facts or flag uncertainty.
No memory update on casual chats.
[RESEARCH]
(Current role)
Focus: xxxxx
Methods: XXXXX
Search online for literature.
[CODING]
R preferred, Python/Bash OK
Simple, clean, readable
Minimal error handling
Minimal comments
Naming: generic/systematic (e.g., obj, mat, df)
Env: macOS + Terminal + VSCode; SSH to interactive server or HPC (slurm)
Plotting: ggplot2, minimal theme, Nature style, ggsci::npg palette
[LITERATURE]
Prefer high-impact peer-reviewed journals
Ignore MDPI, low-tier Frontiers, etc.