future_93
(running in the 93s)
1
如标题所言。几年下来,我收藏的微博已经有上万条之多了,每次点下收藏按钮时都想着“等有空了我就把它们都保存下来”,于是明日复明日的下场就是,现在已经完全失去了整理收藏的动力,而这个“宝库”的内容还在不断攀升……
言归正传。我曾经不止一次试图使用微博自带的那个保存到云笔记的功能,可惜似乎是因为收藏数目过大,每次都以网页卡死的结局惨淡收场。而我试用过的一些微博批量下载软件,似乎并没有针对自有收藏的……也可能是我过于孤陋寡闻了?
总之,我想了解一下,是否有一款软件,能批量地保存一个已登陆账号的收藏夹内的全部收藏微博,包括文字内容和所有附图的原图。当然,如果在此基础上能有更多功能,比如筛选或管理,那就更好了……可能这也太贪心了点。
以上就是本帖的全部内容。在此预先向各位回复与提供帮助的坛友们表示衷心的感谢。
Qingwa
(青小蛙)
2
呃,根据微博 API 的那个尿性…除非官方做,基本不太可能了。但官方有收藏了为什么还要做…
1 个赞
dms
(稻米鼠)
3
可以用油猴子自己爬,当然也只能爬自己能登陆的账号,这种官方一般不会屏蔽(也不好屏蔽)。
效果倒是都可以达到,甚至你那些贪心的想法。
但是,这个工作量有点大,因为要考虑到各种微博格式。以及为了防止被屏蔽,可能需要慢速爬取……说人话就是:挺费事的,也不是那种特别美好的一键全部保存的效果,还需要用户会用(听话)才行。
所以呢,如果写脚本,很难收费。费劲半天,还有挺大可能挨骂。而写成其他形式,有可能被质疑隐私问题等等。就是很容易费力不讨好的。
所以啊,除非某程序员自己有这个需求,并且公开出来(自用和公开的工具区别还是比较大的,要增加许多额外的工作量)。否则,不太容易有人去做这种事情(我猜
但是,这样我的答案好像没有什么实际意义就……
如果你肯折腾,可以试试 Web Scraper,这是 Chrome 下的网页数据抓取工具。支持多页面,你理解为支持自己翻页就行了。以及一些可视化操作什么的。不过依旧比较复杂。好处是,一旦学会了使用,以后类似问题都可以用它来解决,而且可以按自己的需求定制结果。
唔,我只是知道这个工具,我不会用,因为我如果有类似需求,我就去写有猴子了。
1 个赞
hello
7
额,你好,有一样的需求,所以我写了点代码纯粹自己用来着,忘了放哪了,就不拿出来给你了,给你点思路,主要是用python写的主要
用 GitHub - xchaoinfo/fuck-login: 模拟登录一些知名的网站,为了方便爬取需要登录的网站 里的微博h5登录,然后,分析下h5的回传json,就行了。。就这么简单。。下载我是调用aria2 下载的,我是吧图片啊,视频的名字用微博主内容的关键词命名的,还保存了原始微博的id,就是一串数字,哈哈,就可以了。。
正如稻米鼠所说,不适合公开,倒是不费事…
我当时还根据自己的需求,没半小时执行一次,以免微博被删了。我的目的很简单,我微博收藏了不少有创意的图片啊,视频啊啥的,挺有意思的。
我也探索过文字的更好的保存方式,不过太麻烦放弃了。。
主要是你的需求跟我差不多,所以你可以动手尝试下咯~~
1 个赞
future_93
(running in the 93s)
10
非常感谢~自然是不可能嫌弃的,倒不如说我是非常期待的~
future_93
(running in the 93s)
4
看起来这个web scraper倒是挺适合我这种高不成低不就的家伙,回头我会去尝试一下。
非常感谢您的讲解与回复。仔细想想,说不定哪怕找不到合适的工具也不算完全的坏事,至少我还能在手动保存的时候顺手做点笔记什么的。赛文失马焉知非福嘛(苦笑
future_93
(running in the 93s)
6
唔,看了一下,似乎都是爬别人微博用的,并不能拿来爬自己的收藏夹。当然还是非常感谢你的回复与帮助~
future_93
(running in the 93s)
8
感谢回复~
非常抱歉,因为好像只能设置一个帖子为解决方案,所以考虑后还是决定留给先前那位老兄……因为……说来惭愧,我完全不懂python编程——或者说是不懂如何构建能实现这一切的结构。所以虽然能明白您给出的思路,却不能自己去实现它。
总之还是非常感谢您这么认真的回复的。
hello
9
小事情,我找找看有没有历史存档,要是还能用就发给你看看,没有多复杂,BTW,我还做了件事,是把下载的图片和视频同步到Google Photos,嗯,真香,不怕被删了…没有实现多复杂的功能,还请不要嫌弃…
1 个赞