寻找一个能批量下载微博收藏的软件

如标题所言。几年下来,我收藏的微博已经有上万条之多了,每次点下收藏按钮时都想着“等有空了我就把它们都保存下来”,于是明日复明日的下场就是,现在已经完全失去了整理收藏的动力,而这个“宝库”的内容还在不断攀升……

言归正传。我曾经不止一次试图使用微博自带的那个保存到云笔记的功能,可惜似乎是因为收藏数目过大,每次都以网页卡死的结局惨淡收场。而我试用过的一些微博批量下载软件,似乎并没有针对自有收藏的……也可能是我过于孤陋寡闻了?

总之,我想了解一下,是否有一款软件,能批量地保存一个已登陆账号的收藏夹内的全部收藏微博包括文字内容和所有附图的原图。当然,如果在此基础上能有更多功能,比如筛选或管理,那就更好了……可能这也太贪心了点。

以上就是本帖的全部内容。在此预先向各位回复与提供帮助的坛友们表示衷心的感谢。

呃,根据微博 API 的那个尿性…除非官方做,基本不太可能了。但官方有收藏了为什么还要做…

1 个赞

可以用油猴子自己爬,当然也只能爬自己能登陆的账号,这种官方一般不会屏蔽(也不好屏蔽)。

效果倒是都可以达到,甚至你那些贪心的想法。

但是,这个工作量有点大,因为要考虑到各种微博格式。以及为了防止被屏蔽,可能需要慢速爬取……说人话就是:挺费事的,也不是那种特别美好的一键全部保存的效果,还需要用户会用(听话)才行。

所以呢,如果写脚本,很难收费。费劲半天,还有挺大可能挨骂。而写成其他形式,有可能被质疑隐私问题等等。就是很容易费力不讨好的。

所以啊,除非某程序员自己有这个需求,并且公开出来(自用和公开的工具区别还是比较大的,要增加许多额外的工作量)。否则,不太容易有人去做这种事情(我猜

但是,这样我的答案好像没有什么实际意义就……

如果你肯折腾,可以试试 Web Scraper,这是 Chrome 下的网页数据抓取工具。支持多页面,你理解为支持自己翻页就行了。以及一些可视化操作什么的。不过依旧比较复杂。好处是,一旦学会了使用,以后类似问题都可以用它来解决,而且可以按自己的需求定制结果。

唔,我只是知道这个工具,我不会用,因为我如果有类似需求,我就去写有猴子了。

1 个赞
1 个赞

额,你好,有一样的需求,所以我写了点代码纯粹自己用来着,忘了放哪了,就不拿出来给你了,给你点思路,主要是用python写的主要

GitHub - xchaoinfo/fuck-login: 模拟登录一些知名的网站,为了方便爬取需要登录的网站 里的微博h5登录,然后,分析下h5的回传json,就行了。。就这么简单。。下载我是调用aria2 下载的,我是吧图片啊,视频的名字用微博主内容的关键词命名的,还保存了原始微博的id,就是一串数字,哈哈,就可以了。。

正如稻米鼠所说,不适合公开,倒是不费事…

我当时还根据自己的需求,没半小时执行一次,以免微博被删了。我的目的很简单,我微博收藏了不少有创意的图片啊,视频啊啥的,挺有意思的。

我也探索过文字的更好的保存方式,不过太麻烦放弃了。。

主要是你的需求跟我差不多,所以你可以动手尝试下咯~~

1 个赞

非常感谢~自然是不可能嫌弃的,倒不如说我是非常期待的~

看起来这个web scraper倒是挺适合我这种高不成低不就的家伙,回头我会去尝试一下。

非常感谢您的讲解与回复。仔细想想,说不定哪怕找不到合适的工具也不算完全的坏事,至少我还能在手动保存的时候顺手做点笔记什么的。赛文失马焉知非福嘛(苦笑

唔,看了一下,似乎都是爬别人微博用的,并不能拿来爬自己的收藏夹。当然还是非常感谢你的回复与帮助~

感谢回复~

非常抱歉,因为好像只能设置一个帖子为解决方案,所以考虑后还是决定留给先前那位老兄……因为……说来惭愧,我完全不懂python编程——或者说是不懂如何构建能实现这一切的结构。所以虽然能明白您给出的思路,却不能自己去实现它。

总之还是非常感谢您这么认真的回复的。

小事情,我找找看有没有历史存档,要是还能用就发给你看看,没有多复杂,BTW,我还做了件事,是把下载的图片和视频同步到Google Photos,嗯,真香,不怕被删了…没有实现多复杂的功能,还请不要嫌弃…

1 个赞