求助贴。这样的网址怎么批量验证。。
- 懒散的牛hi-pda.com/000001/000001.jpg到
hi-pda.com/999999/999999.jpg
怎么能快速的验证是否可以访问并下载呢? - 懒散的牛
- 星辰大海装个老版迅雷,7之前的,都有批量下载功能,支持通配符。
或者你用excel拉一下地址批量倒进去也是可以的 - wisidm 分分钟
- 星辰大海idm也行
- 遗忘海岸我用过的下载软件都有批量下载的功能。
- 懒散的牛idm尝试过了啊,不能超过1000个文件。。
这个是10w*10w了。。
很多是空连接啊。。 - ageg用python很简单吧,随便找个demo就有,你自己加个循环和异常处理就能用了复制代码
- import requests
- file_url = "http://codex.cs.yale.edu/avi/db-book/db4/slide-dir/ch1-2.pdf"
- r = requests.get(file_url, stream=True)
- with open("python.pdf", "wb") as pdf:
- for chunk in r.iter_content(chunk_size=1024):
- if chunk:
- pdf.write(chunk)
- import requests
- 懒散的牛感谢感谢。。。python 0基础。。。方便的话能帮忙改一下么?
- ageg复制代码
- #!/usr/bin/python
- # -*- coding: UTF-8 -*-
- import requests
- import os
- file_url = "http://hi-pda.com/{:0>6d}/{:0>6d}.jpg"
- save_dir = "savedir"
- if not os.path.isdir(save_dir):
- os.mkdir(save_dir)
- for a in range(0, 5):
- save_dir_a = os.path.join(save_dir, '{:0>6d}'.format(a))
- if not os.path.isdir(save_dir_a):
- os.mkdir(save_dir_a)
- for b in range(0, 5):
- url = file_url.format(a, b)
- save_file_path = os.path.join(save_dir_a, '{:0>6d}.jpg'.format(b))
- r = requests.get(url, stream=True)
- if r.status_code != 200:
- continue
- with open(save_file_path, "wb") as f:
- for chunk in r.iter_content(chunk_size=1024):
- if chunk:
- f.write(chunk)
- #!/usr/bin/python
- 懒散的牛
- kaidokido
- 懒散的牛