Python网络爬虫-requests库使用指南
request的八个方法
requests 所有功能都能通过 “requests/api.py” 中的方法访问。它们分别是:
- requests.request(method, url, **kwargs)
- requests.get(url, params=None, **kwargs)
- requests.options(url, **kwargs)
- requests.head(url, **kwargs)
- requests.post(url, data=None, json=None, **kwargs)
- requests.put(url, data=None, **kwargs)
- requests.patch(url, data=None, **kwargs)
- requests.delete(url, **kwargs)
除了 requests.request() 外,其余 7 个方法与 http 协议中的请求方法一一对应。阅读源码后,不难发现,这 7 个方法其实都是在调用 requests.request() 方法,所以了解 requests.request() 方法提供了哪些参数就变得至关重要了。
对于requests.request(method, url, **kwargs)方法
- method : 请求方式,对应get/put/post等7种
- url : 拟获取页面的url链接
- **kwargs: 控制访问的参数,共15个
method : 请求方式
1 | r = requests.request('GET', url, **kwargs) |
**kwargs: 控制访问的参数,均为可选项
1 | 'key1': 'value1', 'key2': 'value2'} kv = { |
|**kwargs参数列表|
参数 | 解释 |
---|---|
method | 各种方法,比如 get、options、head、post、put、patch、delete,当然也支持自定义扩展 |
url | 请求的 url |
params | 请求携带的 params |
data | 请求 body 中的 data |
json | 请求 body 中的 json 格式的 data |
headers | 请求携带的 headers |
cookies | 请求携带的 cookies |
files | 上传文件时使用 |
auth | 身份认证时使用 |
timeout | 设置请求的超时时间,可以设置连接超时和读取超时 |
allow_redirects | 是否允许重定向,默认 True,即允许重定向 |
proxies | 设置请求的代理,支持 http 代理以及 socks 代理(需要安装第三方库 “pip install requests[socks]”) |
verify | 用于 https 请求时的 ssl 证书验证,默认是开启的,如果不需要则设置为 False 即可 |
stream | 是否立即下载响应内容,默认是 False,即立即下载响应内容 |
cert | 用于指定本地文件用作客户端证书 |
那么发送请求时,我们可以根据自身需求去组合上述的参数。在调用 requests.request() 方法之后,会返回一个 requests.Response 对象供大家使用,关于 Response 的用法,请移步 python 之 requests 模块 - Response 查看。
参考文档
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来源 边缘坐标のWasteland!
评论