需求:
某网站上有多个目录页,每个目录页上有n多文章链接,现在希望通过某种方式把这些链接里的内容保存下载,之后转换为电子书格式
感谢!
1 个赞
很多.
也可以用Python自己爬.
汗……
给个具体点的软件名称呗
可以尝试搜索一下离线浏览器,还有整站下载
给你推荐个浏览器扩展吧.
WebToEpub:抓取当前网页里的所有连接为章节,生成为 ePub
2 个赞
我来推荐个自己在用的、已经老早不更新的吧。
GrabMyBooks ,java写的,还能用,碰到有些网站直接抓取目录会有乱码问题就是,不过我不知道原因和解决办法。
calibre自带了一个 ebook-convert的工具,能够比较简单的抓取网页内容,如果你会写一点代码的话。可以参考这篇文章。 自己写代码可以自动化处理一些反爬或者加密的文本,自由度大一些。 利用calibre的recipe抓取网页制作电子书 - 简书 (jianshu.com)