求助!有无软件可以爬取网页(自目录页获取网址),然后保存成mobi或epub一类电子书格式?

需求:
某网站上有多个目录页,每个目录页上有n多文章链接,现在希望通过某种方式把这些链接里的内容保存下载,之后转换为电子书格式
感谢!

1 个赞

很多.

也可以用Python自己爬.

汗……
给个具体点的软件名称呗

可以尝试搜索一下离线浏览器,还有整站下载

给你推荐个浏览器扩展吧.

WebToEpub:抓取当前网页里的所有连接为章节,生成为 ePub

2 个赞

我来推荐个自己在用的、已经老早不更新的吧。

GrabMyBooks ,java写的,还能用,碰到有些网站直接抓取目录会有乱码问题就是,不过我不知道原因和解决办法。

calibre自带了一个 ebook-convert的工具,能够比较简单的抓取网页内容,如果你会写一点代码的话。可以参考这篇文章。 自己写代码可以自动化处理一些反爬或者加密的文本,自由度大一些。 利用calibre的recipe抓取网页制作电子书 - 简书 (jianshu.com)