这样的需求,可以把整个网站下载到本地,然后可以离线浏览这个网站,不知道有没有这样的工具呢?
HTTrack Website Copier
teleportultra和IDM
如果是Linux 或者macOS的话可以 wget -m url
MetaProducts Offline Explorer
我推荐一款给你,百度搜索关键词 小飞兔整站下载
离线网站的网页直接用Chrome浏览器打开完全正常,但是打包后就出现“当前页面的脚本发生错误”的问题,请问如何解决才能让chm文件完全正常打开。
是不是chm调用的是IE核心而不是Chrome核心所导致的?
Internet Download Manager的站点抓取
小飞兔整站下载 https://www.xftsoft.com/
这款软件我曾经用过,发现不会用 ![]()
普通的网站,HTTrack Website Copier 感觉是够用的。有些网站不是静态网站,这个工具抓不了的
可以使用 Zotero,搭配网页插件来保存网页。
网页 可以作为链接或快照附加到任何条目。Zotero 可以保存网页的快照,快照是网页的本地存储副本,其状态与保存时相同。无需互联网连接即可使用快照。
难怪用HTTrack Website Copier没成功过,现在静态网站不多吧?
Zotero自带的Chrome扩展落后于Singfile,有些网页保存不了,要靠Singfile保存了替换快照。
原来还有其他的插件,用 Zotero 主要是可以和软件集成,直接导入 Zotero 了,后面管理起来比较方便。感觉遇到无法保存的网页可以用 SingleFile 试试。
感觉Zotero Connector就是在SingleFile基础上开发的,然后版本比后者要低,没有直接去对比版本号,而是从功能上感觉出来的。
我目前用SingleFile有两个场景:
- 有些网页 Zotero Connector保存有问题
- 更新快照
试了一下没有成功,怎么操作呢,比如搞这个站点https://www.muruoxi.com/