是这样的,我是过来问问,有没有那种批量下载器,我把批量下载地址弄成txt,然后根据txt下载,有没有这种软件,谢谢大家了
很多下载软件支持批量导入下载地址。但根据实际测试,如果一次导入太多会导致软件卡死。基本上大多数软件都是这个样子,并没有设计极大数量的批量导入。
所以如果数量巨大,建议使用命令行工具或者自己写脚本。
Aria2 就支持批量呀
uget
命令行:wget、curl
软件:IDM、FDM
事实上我还保留了一个 flashget 1.96 来干这种活……
还有 IDA(Internet Download Accelerator)
各位有没有更简单方法,比如有没有大神以前写过类似软件
aria2就支持。我因为有周期性爬别人网站的需求,给aria2写了一个壳,把保存链接的txt拖到gridedownloader上,软件会自动跳过已经下载过的文件进行下载(跳过的标准是简单判断链接中的文件名,在本地目录存在尺寸大于0的对应文件)。后续打算弄根据范例url和设定的规律自动生成文件列表的功能(离动手可能还要很久)
链接: 百度网盘 请输入提取码 提取码: 3252
好,我下载试试
DownThemAll 也可以
楼主请关注一下 一个叫做迅雷的软件,我觉得可以满足你的需求
这个软件非常傻瓜,简直快傻叉了
上次两万图片地址,我试了一下……你猜怎着,好像每次只能导入很少的网址吧。记不住具体数量限制了。
这种数量级还是跑命令行得了
来来,我给你下载,正好写了一个断点断续下载的脚本,想怎么下载就怎么下载,同时支持上万下载
请问在哪啊
用IDM,可以用bat插入,可以指定保存的文件名,文件目录。
就是插入速度有点慢,3000个的话,预计要插10分钟。。。
。。。。。。那么万,我这边地址可能过万
边插边下,不影响的。。。哪怕十万,挂一晚上应该全插好了吧。。。
自己写个批处理就好了.
如果是http协议的, 连下载软件都不用.
curl http://www.123.xxx/1.exe
你只需要写成bat执行就好了.
当然了, curl还有很多参数实现更强大的功能,自己研究吧.