Qingwa
(青小蛙)
1
原始链接在: Eidos - Notion 的早期离线替代方案:开源、可扩展,在一处管理你的所有个人数据 - 小众软件
Eidos 是一个开源的、可扩展框架,用于在一个地方管理你一生中的个人数据。想做 Notion 的离线替代方案。数据保存在浏览器或本地文件夹中,可离线使用,支持本地 LLM 实现 AI 辅助,无后台服务器,只有一个 Web 服务,一切都在浏览器中。@Appinn
针对 Notion 不能离线使用这个坑,经常会出现 Notion 替代方案。
Eidos 处于早期开发、体验阶段,主要特点如下:
- 纯 PWA 应用,推荐通过 Chromium 访问
- 无互联网使也可以使用
- AI 整合,支持在线与本地 AI
- Prompt 提示词模板
- 支持 TypeScript/JavaScript 脚本
- 数据保存在浏览器中/本地文件夹
- 无数据同步,但可导入导出数据
- 自托管,在自己的服务器上部署
样式风格,看起来和 Notion 还是非常相近的。
关于 AI,支持 OpenAI 与 Google 的在线 API,以及一大堆本地模型:
实际上,现在就可以使用官方实例了。
获取
原文:https://www.appinn.com/eidos-space/
1 个赞
去 GitHub stars 里吃灰吧( 吃灰失败,已经用上了
AI 方面只是对话,还不能像 Notion 那样和笔记内容互动
akimo
(akimo)
4
这颜值很可以,体验了一下也很丝滑。就是不能同步,一些功能啥的也有待完善,先标个观察看看。
skystar
(skystar)
5
本来唯一吸引我的就是能用自己的AI,结果不能和笔记内容互动。。
skystar
(skystar)
6
想问问有没有用于obsidian的AI扩展?可以和笔记内容交互的
Obsidian 插件我浅浅试过 Copilot 和 Text Generator,都还不错——但 AI 不是本地搭的,和笔记内容互动就是需要把笔记上传啊。
瞅了眼,Copilot 有「 Long Note QA」和「Vault QA」,是基于当前笔记或整个库的问答。但「QA」依赖「本地的矢量索引( local vector index)」,需要本地部署 Ollama 模型。
skystar
(skystar)
11
额,那算了,回头想个办法把文档在浏览器里打开,就有很多办法调用在线AI了
Logseq 有可以打开本地文件的 WebApp: https://demo.logseq.com/ (需要 Chrome 系浏览器)。
也可以自己部署:
docker pull ghcr.io/logseq/logseq-webapp:latest
skystar
(skystar)
13
我是指给obsidian搞个本地服务器,肯定有不少人搞的吧,本地任何设备都可以随时随地编辑同步了
dms
(稻米鼠)
14
只要使用在线 AI 做基于笔记的问答,就肯定要上传笔记,就有隐私问题。
一种方案是用 Obsidian 的各种 AI 插件,通过提问模板精准控制要传送给 AI 的内容,但应该就难以实现基于整个仓库的问答。
然后就是本地跑模型了,但那个资源占用实在有点用不起,用个笔记跟玩大型游戏似的。而且在移动端上呢……
skystar
(skystar)
16
其实我的需求只是单笔记,但是需要可用自己的API,并且不需要手动上传,就像那些辅助代码开发的AI那样,问他问题,直接就会读当前打开的代码,切换到那个代码文件就读哪个
关于这点有待实验,期望的目标是能帮我整理手头接近万篇的资料,不少是部分重复的(很多文章本来就是互相抄的),还有些格式很乱(比如某文档摘录,OCR摘录),另有一些是繁体,需改为简体,等等一些简单,但是传统软件很难一键处理的问题
dms
(稻米鼠)
17
可以做到,而且很多插件都可以做到。但提问模板肯定要自己去写,用来控制具体向 AI 传输哪些数据,至于数据的获取,一般插件都会提供一些基础变量可供使用。或者直接用脚本进行获取。
1 个赞
Jackxwb
(Jackxwb)
18
粗略看了下,好像数据只能保存到浏览器中?好像没 affine 方便?