'''保存 url 对应数据至 filepath 文件'''
res = requests.get(url, headers=headers, timeout=20)
with open(filepath, 'wb') as f:
f.write(res.content)
或者使用下面的分块下载,这样可以下载大文件。
res = requests.get(url, headers=headers, timeout=20)
with open(filepath, 'wb') as f:
for chunk in res.iter_content(chunk_size=32):
f.write(chunk)
不使用with ... as也可以,判断状态码为200后保存至文件。
res = requests.get(url, headers=headers, timeout=20)
if res.status_code == 200:
open(path, 'wb').write(res.content)
如果使用 session 的话,则稍加修改
session = requests.Session()
# set session parameters like cookies and headers
res = session.get(url, timeout=20)
if res.status_code == 200:
open(path, 'wb').write(res.content)