批量下载一个网站所有网页的百度快照

有些博客网站关闭之后,百度快照中仍然存有这些网站的内容。比如说 http://www.emacser.com 。我想把整个网站的百度快照全部下载到本地硬盘上,以备日后查询。如果不断地找关键词,再从百度快照中下载的话,太浪费时间。因此想问一下,有没有满足这种需求的工具软件。

自己写个爬虫,你要是爬网站我倒是知道有几个软件。