本文共 1886 字,大约阅读时间需要 6 分钟。
接口自动化,离不开requests模块,所以在时使用之前需要先行安装,在cmd下使用命令pip install requests即可。
下面通过一个实例引入get方法的使用。
#coding:utf-8import requestsr = requests.get("https://blog.csdn.net/rhx_qiuzhi/")print r.status_codeprint r.text
导入requests模块后,使用get方法就能直接访问url地址,r是response消息,是请求后返回的值,调用response里的status_code方法查看状态码,如果状态码是200,则表明这个借口访问的服务器地址是正确的,但是不能说明功能是ok的,一般需要对相应的内容进行查看,r.text是返回的文本信息。
运行之后直接输出到窗口中,绝对很不方便,将其保存下来进行查看,使用with open 命令
with open("code3.html", "wb") as code: code.write(r.content)
或者也可以保存成“code3.zip”输出到本工程下,如图
上述是直接请求到rhx_qiuzhi的伯博客里的,现在如果进入到csdn博客中,通过参数的形式进行请求。
#coding:utf-8import requestsparams = {"q":"rhx_qiuzhi"}r = requests.get(" https://so.csdn.net/so/search/s.do?",params=params)print r.status_codeprint r.textwith open("code3.html", "wb") as code: code.write(r.content)
再次获取百度首页的url的信息
#coding:utf-8import requestsr = requests.get(" https://www.baidu.com")print r.status_codeprint r.textwith open("code3.html", "wb") as code: code.write(r.content)
出现了乱码的现象,因为百度首页相应的内容是gzip压缩了的,而不是txt的形式,那如何解决呢?
可以直接使用r.content方法,contetn会自动解码gzip和deflate压缩的格式
#coding:utf-8import requestsr = requests.get(" https://www.baidu.com")print "r.status_code",r.status_codeprint "r.encoding:",r.encodingprint "r.headers:",r.headersprint "r.cookies:",r.cookiesprint "r.content:",r.contentwith open("code3.html", "wb") as code: code.write(r.content)
response的返回内容还有其它更多信息
-- r.status_code #响应状态码
-- r.content #字节方式的响应体,会自动为你解码 gzip 和 deflate 压缩
-- r.headers #以字典对象存储服务器响应头,但是这个字典比较特殊,字典键不区分大小写,若键不存在则返回None
-- r.json() #Requests中内置的JSON解码器
-- r.url # 获取url
-- r.encoding # 编码格式
-- r.cookies # 获取cookie
-- r.raw #返回原始响应体
-- r.text #字符串方式的响应体,会自动根据响应头部的字符编码进行解码
-- r.raise_for_status() #失败请求(非200响应)抛出异常