有什么备份网站的工具?很多网站消失了。

关注的几个小众论坛,要么凋零,要么倒闭,真怕哪天更多的这种文字论坛消失了,知乎上搜了也有讲离线软件的,比如WinHTTrack,但是试了没有成功,所以讨论下有没有成功使用离线备份整个网版的呢?

https://archive.org/

论坛帖子地址几十页,绝对不可能每页都记录吧,感觉这个类似网页快照。

xavierskip
25 天
wget 递归下载呀,具体命令参数问一下chatgpt应该可以。

hunyihun
5 天
有个比较好用的软件,叫Cyotek WebCopy

安装 Offline Explorer Enterprise ,,看到哪个网站效果不错,,就扒下来,,几分钟的事情

确实WinHTTrack很难用,我上次也没弄成功

参考这个wget --mirror,我还没抽空试过,你要是想深究的话问一下陈硕大佬

1 Like

What can WebCopy not do?

WebCopy不包含虚拟DOM或任何形式的JavaScript解析。如果一个网站大量使用JavaScript来操作,由于JavaScript被用来动态生成链接,如果它无法发现所有的网站,那么WebCopy就不太可能制作一个真正的副本。 WebCopy不下载网站的原始源代码,它只能下载HTTP服务器返回的内容。虽然它会尽最大努力创建一个网站的离线副本,但高级数据驱动的网站一旦被复制就可能无法像预期的那样工作。

这是个重要问题,我怀疑wget也是不能执行JavaScript的,所以像大量使用JavaScript渲染的网站,比如说b站,很难全部备份下来。

下载试过 有时候能下载几个帖子,有时候不行,所以找别的工具了,

現在都是動態網頁,完美備份很難

摘抄下此链接中的部分内容,看来wget也是一个方法,,,现在遇到有价值的技术资料,必须要原文复制一份才能安心,这把我逼成了 wget --mirror 熟手。
10、使用wget –mirror镜像网站
下面的例子是下载整个网站到本地。

wget –mirror -p –convert-links -P ./LOCAL URL
–miror:开户镜像下载
-p:下载所有为了html页面显示正常的文件
–convert-links:下载后,转换成本地的链接
-P ./LOCAL:保存所有文件和目录到本地指定目录
作者:Lauren
链接:https://www.zhihu.com/question/30793275/answer/814897490
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

1 Like

像论坛bbs 一般不是动态网站把?

显然,本站是动态的

我还以为页面滚来滚去的属于动态网站,页面静止的是静态网站。

不错

樓中樓之前的倒是可能,樓中樓之後就難了,特別是樓中樓還有翻頁的,怎麼抓?

archive.today

vicsdf
一个命令就够了
wget --mirror --convert-links --adjust-extension --page-requisites --no-parent https://www.ss.net.tw/ 2

hrdom

wget好像是可以的

天下没有不散的宴席,真的有一天如果网站不干了,青蛙能不能把论坛数据和网站数据导出一份啊?普通人可以使用的那种数据。@ Qingwa

脚本推荐