利用大模型把概念卡快速制作成 ANKI 卡片
缘起
最近在打磨自己的读书流程,准备理成一个小系列的文章。
先大概介绍一下流程(及工具):
- 阅读中高亮文体、写批注。工具:微信读书、zotero、网页批注软件、readwise reader 等均可实现
- 用思维脑图梳理思路、写问题清单。工具:各类脑图软件、甚至大纲软件均可
- 在白板上写概念卡片、联线卡片、成组卡片。工具:obsidian、mefo、heptabase 均可
- 将概念卡片转成 anki 卡片,做间隔复习。工具:obsidian、anki、LLM 模型(ChatGPT、kimichat 等)
概念卡片 toAnki 卡片,效果展示
先挖些坑,准备慢慢填,本文主要聚焦于第四步:将概念卡片转成 anki 卡片。主要分享一个 LLM 提示词,我在 ChatGPT 和 kimiChat 上都试了下,都可用(效果有所差异),欢迎你来试用。
备注:本提示词框架叫 CO-STAR 框架,详情介绍可见 这篇译文,强烈推荐阅读。
好,老规矩,先秀效果图。
1,概念卡片示意图
以上是我读那篇译文时做的概念卡片,heptabase 及 mefo 均能呈现以上样式。卡片成型后,可以直接导出 md 文件,通常一则卡片导出为一个 md 文件。
(先挖个坑,这里有提高效率的技巧,下次写)
2,在 obsidian 中的原样式
一则 md 文件打开后,可直接粘到 obsidian 中,呈现的格式举例如下:
# 系统提示词,写法(总纲)-1
- 任务定义:确保大语言模型(LLM)在整个对话中清楚自己的任务。
- 输出格式:指导 LLM 如何格式化其回答。
- 操作边界:明确 LLM 不应采取的行为。这些边界是LLM 治理中新兴的一个方面,旨在界定 LLM 的操作范围。
3,LLM 模型处理后的 anki 样式
用 LLM 模型进行辅助制卡,节省大量时间
#### 系统提示词,写法(总纲)??
- 任务定义
- 输出格式
- 操作边界
#### 系统提示词,任务定义是什么???
确保大语言模型(LLM)在整个对话中清楚自己的任务。
#### 系统提示词,输出格式是什么?
指导大语言模型(LLM)如何格式化其回答。
#### 系统提示词,操作边界是什么?
明确大语言模型(LLM)不应采取的行为。这些边界是 LLM 治理中新兴的一个方面,旨在界定 LLM 的操作范围。
备注:以上 anki 样式,是我自己用的样式,LLM 提示词中,读者可以按自己的卡片样式进行修改。我的卡片制作方式及卡片样式约定,文章链接可见 obsidian-to-anki-plugin。
LLM 提示词的分享(精华部分)
读者有不同的卡片样式,可以参考下文中<example_anki>里的样例进行调整。
### 系统提示:
我希望你扮演教育者的角色来根据知识点拆分卡片。按我给你提供的范例样式创建学习卡片。注意,不要改变我卡片中的内容。创建学习卡片过程中,确保每个卡片详尽地覆盖了所有子要点和日期信息。每个卡片需要包括标题和详细的解释内容。在完成后,请自我审查卡片,确保没有遗漏任何细节。
########
### 提示:
# CONTEXT #
<example_note>
# 系统提示词,写法(总纲)
- 任务定义:确保大语言模型(LLM)在整个对话中清楚自己的任务。
- 输出格式:指导 LLM 如何格式化其回答。
</example_note>
<example_anki>
#### 系统提示词,写法(总纲)
- 任务定义
- 输出格式
#### 系统提示词,任务定义是什么?
确保大语言模型(LLM)在整个对话中清楚自己的任务。
</example_anki>
########
# OBJECTIVE #
我希望你能根据我提供的数据<note>,按我给定的<example_note>、<example_anki>样式,输出<anki>。
你可以按以下步骤进行:
1. 提取第一张卡片,要包含列表中的要点。如
<example_anki1>
#### 系统提示词,写法(总纲)
- 任务定义
- 输出格式
</example_anki1>
2. 提取下级列表的相关信息,补充卡片的进一步信息
<example_anki2>
#### 系统提示词,任务定义是什么?
确保大语言模型(LLM)在整个对话中清楚自己的任务。
</example_anki2>
注意:在过程中注意检查,不要遗漏小的要点。
########
# STYLE #
参见<example_anki>的输出格式,输出<anki>
########
# TONE #
专业性
########
# AUDIENCE #
我自己。
########
# RESPONSE #
注意:请用markdown的语法输出内容
########
### 审查检查列表:
- 标题是否齐全?
- 所有子信息是否已包括?
- 日期和其他重要细节是否已经添加?
########
### START ANALYSIS
如果你己经明白,请向我索要我的数据集。
放两个大模型的输出效果
1,ChatGPT
昨晚在调适提示语的过程中,LLM 的识别模式真惊艳到我了,以下几个卡片与我给的范例在格式上是有差别的,但输出结果仍是我的预期样式,真是太 666 了。
2,kimichat
再附同一提示词、同一输入内容,kimichat 的回复。效果有所不同。
好,本次分享结束。
PS:慢慢填坑。
讨论
若阁下有独到的见解或新颖的想法,诚邀您在文章下方留言,与大家共同探讨。
反馈交流
其他渠道
版权声明
版权声明:所有 PKMer 文章如果需要转载,请附上原文出处链接。