www.ifb.me Open in urlscan Pro
2606:4700:3030::6815:211e  Public Scan

Submitted URL: https://ifb.me/zh/blog/backend/obsidiansmartconnect
Effective URL: https://www.ifb.me/zh/blog/backend/obsidiansmartconnect
Submission: On November 07 via api from US — Scanned from CA

Form analysis 0 forms found in the DOM

Text Content

Innovation for Bytes
博客
标签
项目
游戏
工具
友链
关于
切换语言
首页
博客
标签
项目
游戏
工具
友链
关于



OBSIDIAN + SMART CONNECTION + OLLAMA:让本地私有大模型成为你的笔记智能体

作者
2024年7月7日
0

由于学校、公司或其他外部环境的限制,很多小伙伴无法使用诸如 OpenRouter、OpenAI 这样的外部闭源大模型。而最近也有不少人在留言中询问,如何在
 Obsidian 的 Smart Connection  插件中使用自己搭建的 Ollama 模型。为了响应大家的需求,我们专门制作了这篇教程,教你如何在
Obsidian 的 Smart Connection 插件中无缝集成 Ollama 模型。希望这篇指南能为大家带来灵感和帮助,让你的笔记系统更加智能高效!


本地下载 OLLAMA 并运行模型


安装 OLLAMA

MACOS

MacOS 下载 Ollama 链接 - https://ollama.com/download/Ollama-darwin.zip

WINDOWS

Windows 下载 Ollama 链接 - https://ollama.com/download/OllamaSetup.exe

LINUX

Linux 下载并安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh



启动模型

下面展示一下在 Mac 电脑里面通过 ollama 启动 llama3 模型,其他操作系统类似。

ollama run llama3




正常启动完成后就可以输入提示词来测试模型是否启动成功。



最后使用 curl 命令看下用 http 的地址是否可以正常访问。




SMART CONNECTION 插件里面配置安装的模型

在插件配置页面请按照如下配置进行填写,特别注意 Model Name 要和你安装的模型名字完全一样,因为后面在 Smart Chat
对话框里面去使用的时候,会取到这个模型名字作为参数传给 Ollama,hostname、port、path 我这里都使用的是默认配置,没有对 Ollama
做过特别定制化的处理应该照着填就好了。



然后就可以打开 Smart Chat 的页面测试刚才的配置是否成功。



如果遇到问题,也可以打开  Obsidian 的 console 查看  Obsidan 发起 http 请求的参数,这里可以看到 model
的名字和配置中的名字会保持一致,所以如果填错了就跑不起来。




总结

刚才整套过程操作下来比较简单,当然,本地部署也面临一些挑战,例如硬件资源需求较高、维护复杂性增加以及需要专门技术人员进行支持等。但总体来说,在注重数据安全和隐私保护的场景中,本地运行的大模型依然是一个非常有竞争力的选择。如果有问题欢迎在评论区留言。

分享内容





标签

ObsidianOllama



上一篇

面向 RAG 的未来:深入探索微软 GraphRAG 技术


下一篇

Mac M1 + Ollama + Llama3:30 分钟教你在个人电脑快速安装配置大模型


推荐文章

Obsidian + NotebookLM:用 AI 深度挖掘笔记价值
Obsidian + Nextjs + Vercel:专家级知识管理与个人博客的完美融合
Kubernetes + Ollama:10 分钟教你在 Kubernetes 中快速部署 Ollama
HuggingFace + Ollama + Llama 3.1:轻松搞定Llama 3.1中文微调版本安装
Obsidian + ChatGPT + Excalidraw:打造高效学习与知识沉淀系统
← 返回博客
NoOne
•
© 2024
•
Innovation for Bytes
•
FFlow
•
FFlow Next
Tailwind Nextjs Theme