网页制作成电子书的问题?

前提,在bilibili专栏有一些很有价值的专栏文章,而且专栏独家,禁止转载。

但用电脑看很麻烦,想制成epub(mobi)之类的格式发到kindle上看。

于是找了一些扩展,最好用的epubpress,可以把你打开的所有网页一键制作成epub,但有一个痛点,图片无法保存。而我看的专栏又有比较多的图示部分,现在想请问一下有没有其他扩展可以推荐,Firefox和Chromium皆可,油猴等脚本也用的很熟。

1 个赞
  1. 先下载md、html之类,有成熟的拉取图片的方案
    • 剪藏到笔记软件(WebClipper、简悦等
    • singleFile 下载html
  2. pandoc

网页浏览器不是有很多send to kindle的插件吗?不过可能一页一个文档,没有那么整合

测试完了WebClipper很好用,比Joplin那个官方扩展好用多了,但无法批量拉网页。

singleFile也很好用,可以批量拉网页,但不能套用同一套规则,而是直接把所有网页下下来了,试着做了epub,看起来十分难受。

然后我自己感受了一下,估计是无解了,还是放弃这个念头吧。

提供一个方案,使用 简悦插件 进入阅读模式,保存为html文档,再使用 pandoc 批量转换成epub文件,或者折腾简悦自带的epub功能。

不过epub有自身的问题,一、epub是分页的,但是html不分页,所以某些内容可能会很割裂,除非重新排版;二、epub只支持静态的图片,其他的包括动图、视频iframe在内的html元素统统都会变得broken,体验很差。

1 个赞

这个方案本质上和WebClipper没有区别,都不能批量保存网页,如果只是一两个网页用这个方法很好。

但我需要保存100+的专栏,自己又没有这个毅力,还是慢慢看吧。

之前用过的一个方案,你可以试试,就是结果比较大,卢克文的文集,大约有几百兆,因为图片多。


如何制作观网的个人文集

模拟点击获取个人的所有文章的页面
for( i=0;i<100;i++){document.querySelector(“.add-more”).click()}
遍历页面中的所有内容链接,输出成所需格式
document.querySelectorAll(‘a’).forEach((a,i)=>{ if(a.href.toString().startsWith(‘https://user.guancha.cn/main/content?‘))console.log(`{‘title’:’${a.text.trim()}‘,‘url’:’${a.href}’},`)})

将返回的内容复制、处理并粘贴到recipe的脚本中

控制台运行命令
“C:\Program Files\Calibre2\ebook-convert.exe” d:\books\test.recipe d:\books\lukewentest.epub

通过在线工具转换epub为mobi

我觉得直接网页转PDF吧2333~

1 个赞

如果没有现成的,花几天学个python是否可行 :rofl:

爱了,转成pdf后singleFile扒下来的网页格式不会乱了,解决了。

我自己又想了个简单的办法,我用ubo把b站除了正文以外的部分全部屏蔽了,只剩文字和图片了,直接转epub了……

2 个赞