Obsidian 插件:【Readme】Local GPT
插件名片
概述
Local GPT 辅助,以实现最大隐私和离线访问
原文出处
下面自述文件的来源于 Readme
Readme(翻译)
下面是 local-gpt 插件的自述翻译
【机翻】
Obsidian 的本地 GPT 插件
没有加速。MacBook Pro 13, M1, 16GB, Ollama, orca-mini.
本地 GPT 插件可提供最大隐私和离线访问的辅助功能。
该插件允许您在所选文本上打开上下文菜单,以选择 AI 助手的操作。
默认操作:
- 继续写作
- 总结文本
- 修正拼写和语法
- 在文本中查找行动项
- 一般帮助(只需将所选文本用作任何目的的提示)
您还可以添加自己的操作,分享最佳操作或从 社区 获取一个
支持的 AI 提供者:
- Ollama
- 兼容 OpenAI 的服务器
限制:
- 不支持移动设备。
安装步骤
Obsidian 插件商店
This plugin is available in the Obsidian community plugin store https://obsidian.md/plugins?id=local-gpt
你可以通过 BRAT 安装这个插件:pfrankov/obsidian-local-gpt
安装 LLM
Ollama (推荐)
额外提示:如果想要使用 Ollama 进行流式完成,应该在 API 模式下运行:OLLAMA_ORIGINS='*' ollama serve
。
OpenAI 兼容服务器
有几种选项可以运行本地类似 OpenAI 的服务器:
- llama.cpp
- llama-cpp-python
- LocalAI
- …可能还有更多
这里是 llama.cpp 的一个示例:
- 安装 llama.cpp,并按照适用于您的操作系统的构建说明进行操作
- 下载在 ChatML 对话格式上训练的模型。例如,Orca 2
- 通过调用
./server -c 4096 --host 0.0.0.0 -t 16 --mlock -m models/orca-2-7b.Q4_K_M.gguf
来运行服务器,或者按照 文档中描述的方式 进行操作。
配置 Obsidian 快捷键(可选)
- 打开 Obsidian 设置
- 进入快捷键选项
- 过滤“Local”,你应该看到“Local GPT: 显示上下文菜单”
- 点击“+”图标,然后按下快捷键(例如
⌘ + M
)
路线图
- 从列表中选择模型而不是输入它们的名称的能力
- 共享和应用预设(系统提示 + 提示 + 模型)
- 其他 AI 提供商(OpenAI 等)
- 流式完成
- 提示的可选设置(top_p、top_k、温度、重复惩罚)
- 如果第一个 URL 不可用,则执行回退操作(远程 GPU)
- 更改操作的顺序
- 将您的本地文档计入结果,如此处所述:https://ollama.ai/blog/llms-in-obsidian
其他 AI 提供商
如果您想使用其他提供商,请在 讨论区 中告诉我。
我的其他 Obsidian 插件
- Colored Tags 可以将标签着色为可区分的颜色。
受启发于
反馈交流
其他渠道
版权声明
版权声明:所有 PKMer 文章如果需要转载,请附上原文出处链接。