You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
✍️ 写在前面
简悦是基于本地系统的稍后读系统,当配置了 本地快照 系统后,可以方便的将阅读模式的内容加入到稍后读保存到本地。
不只如此,简悦也可以非常完美的配合很多的本地笔记 App e.g. Obsidian 实现将稍后读 → 导入到 Obsidian (也支持将阅读模式的图片转换为用户的图床)
所以简悦的大部分稍后读用户都是这么使用的,因此在这些用户的本地会产生很多
.html
或.md
的文件。随着本地大模型的兴起,因此可以利用这些本地大模型,实现基于本地系统的 RAG(检索增强生成)。
👥 文章受众
简悦用户,尤其是针对简悦的 Obsidian 用户。
如果你是新用户的话,可以直接看本文底部的相关教程,只要实现了 使用前提 的相关设置均可以实现本文的描述内容。
✅ 使用前提
已配置 本地快照
Obsidian 用户,已配置 简悦导入到 Obsidian 相关功能
需简悦高级账户权限,如有必要 请升级你的账户
注意:
此流程不是必须要使用 Obsidian,仅需配置了本地快照即可。只是因为导入到 Obsidian 里面包含了 Metadata 所以可以更方便的使用。(下面例子中有详细实例)
🛠️ Trae
这是字节跳动公司开发的 AI IDE,内置了自家的豆包大模型以及 DeepSeek R1,目前可以免费使用。
AI IDE 有个重要功能,可以访问在 IDE 内的全部文件,才能更好的帮助用户构筑代码等操作。
所以,如果将简悦的知识库纳入到 IDE 的话,就可以实现 RAG。
🔄 工作流
使用简悦的阅读模式可精准的获取正文
加入稍后读,自动触发简悦 → Obsidian,可将阅读模式的内容导入到 Obsidian(同时也可配合 图床插件 实现图片的导入)
利用 Trae 检索这些文件(一般来自
SimpRead
文件夹)利用 Trae 内置的大模型( DeepSeek)针对检索的内容进行提问,可得到精准的回复
整个过程就是一个非常典型的 RAG 方案(简悦负责生成知识库;Trae 提供检索和智能生成)
🖼️ 截图
⚙️ 配置
步骤很简单,首先 下载 Trae ,安装后运行(首次运行需要简单的配置,过程从略),然后打开文件夹
指向 Obsidian 文件夹(一般来说使用配置库的用户对应的文件夹叫作
SimpRead
),如果只配置了本地快照的用户,需要指向output
文件夹。加载 SimpRead 文件夹后,需要等待索引全部完成。(速度很快,我这边 3700+ 个稍后读,5分钟左右索引完毕)
❓ 如何使用
在 IDE 的右侧就能看到 Chat 聊天界面,然后根据下图所示选择
这里并没有使用 DeepSeek 的推理模型,主要是我感觉推理模型不是太能完美的处理 RAG 😂
📋 几个实例
以下是结合这套工作流的特色列举的一些经典用法。
1️⃣ 分析全文概要
可以直接指定任意文件进行提问
输入
分段详细解析全文 (适合长文章的精读)
下图是深度解析后的内容视频演示
2025-03-21_18-50-08.mp4
2️⃣ 每日回顾
虽然无法实现 阅读助手 简单便捷的每日回顾(如下图)
不过结合导入到 Obsidian 时 Markdown 模板设置的 Metadata,也可以完美的实现此方式,原理是:当设置了导入到 Obsidian 的 Metadata 后,导出的每个
.md
文件都会具有如下结构。所以可以基于对
date
的判断可以做到类似的效果,比如:Trae 会严格的按照这些规则帮你归纳总结回顾。
3️⃣ 基于简悦的标签进行归纳总结
与
date
属性一样,可以让 Trae 检索tag
属性,来实现基于标签的归纳总结下面截图只是其中一部分内容,注意 Trae 已经根据
科技史话/AI战争
检索了 26 个文件。4️⃣ 直接询问
比较霸王茶姬和茶颜悦色单店营收能力
请简述下与星巴克有关的内容,整理为一份简报。(留意下图检索了 25 个文件)
📝 总结
使用 Trace 的资源管理器,将任意简悦导出的文本文件( 上文以
.md
举例,但只要是文本文件均可,比如直接导入简悦的output
文件夹)均可以通过 Trae 内置的 AI 进行提问,而这个过程就是典型的 RAG 方式。知识库有简悦生成,索引部分由 Trae 内置的嵌入模型完成(Trae 并未说明嵌入模型是什么),提问(Chat)部分则包含了 DeepSeek 及豆包(字节跳动字节的大模型)
💡 特点
如果你是简悦用户,尤其是简悦的 Obsidian 用户,几乎零门槛几分钟就能实现属于自己的 RAG 方案。
⚖️ 优缺点
Trae 的大模型需要调用它们的服务器,所以隐私上并没有纯粹的本地大模型好,但优势在于本地仅安装 Trae 即可,对设备的配置没有任何要求,且可以稳定的使用 DeepSeek(速度还不错)
🔗 引申
如果你希望使用 ChatGPT 5 或者 Claude 这类模型的话,也可以考虑使用 Trae 国际版 或 Cursor
但从使用效果来看的话,Trae 国内版是最好的(毕竟大模型服务端都在国内)
如果你希望更好在 Trae IDE 中查看 Markdown 文件,可以考虑安装 Markdown Editor 插件
安装后打开 Markdown 文件后会得到下图所示
👋 新用户看过来
如果你对这套 RAG 方案感兴趣的话,可以很简单的实现这套方案,仅需要:
升级到 高级账户
下载并安装简悦
配置 本地快照
Obsidian 用可直接使用简悦官方推出的 配置库方案
注意:非 Obsidian 用户可以直接忽略 4️⃣ 只要能生成本地快照即可,但具有 Metadata 属性的文本文件可以更好的让 Trae 定位文件。
🔗 关联
1️⃣ 简悦插件 · 阅读助手 4.0 版
2️⃣ 简悦插件 · 导出简悦知识库(用于 RAG 打造个人专属 AI 知识库)
3️⃣ 将你的稍后读用于 LLM 的数据来源(RAG),利用简悦插件 · 导出简悦知识库零代码打造你的个人专属 AI 资料库
4️⃣ 基于简悦零代码打造你的个人专属 AI 本地 LLM 知识库(RAG) - Ollama + Cherry Studio 篇
Beta Was this translation helpful? Give feedback.
All reactions