为什么做这个
和同学聊天,他想爬取一个网站的post请求
观察
该网站的post请求参数有两种类型:(1)参数体放在了query中,即url拼接参数(2)body中要加入一个空的json对象,关于为什么要加入空的json对象,猜测原因为反爬虫。既有query参数又有空对象体的body参数是一件脑洞很大的事情。
一开始先在 apizza网站 上了做了相关实验才发现上面这个规律的,并发现该网站的请求参数要为raw形式,要是直接写代码找规律不是一件容易的事情。
源码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
import requests import json headers = { 'accept' : 'application/json, text/javascript, */*; q=0.01' , 'x-requested-with' : 'xmlhttprequest' , 'user-agent' : 'mozilla/5.0 (windows nt 10.0; wow64) applewebkit/537.36 (khtml, like gecko) chrome/54.0.2840.71 safari/537.36' , 'content-type' : 'application/json' , 'accept-encoding' : 'gzip, deflate' , 'accept-language' : 'zh-cn,zh;q=0.8' , 'cache-control' : 'no-cache' , } #空的对象,body参数 data = {} data = json.dumps(data) page = 0 url = '网站地址,后面为参数?param1=1¶m1=' + str (page) response = requests.post(url = url,data = data ,headers = headers ) print (response.url) print (response.text) |
总结
- 现在相关工具中发现现象
- 请求方式确定:post还是get或者其它
- 参数类型:form-data还是raw或者其它
- 参数位置:若是post请求,在query中还是body中,还是二者皆有
ps:python requests 发起http post 请求
python requests 发起http post 请求,带参数,带请求头:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
#!/usr/bin/env python # -*- coding: utf-8 -*- import requests import json url = 'http://official-account/app/messages/group' body = { "type" : "text" , "content" : "测试文本" , "tag_id" : "20717" } headers = { 'content-type' : "application/json" , 'authorization' : 'app appid = 4abf1a,token = 9480295ab2e2eddb8' } #print type(body) #print type(json.dumps(body)) # 这里有个细节,如果body需要json形式的话,需要做处理 # 可以是data = json.dumps(body) response = requests.post(url, data = json.dumps(body), headers = headers) # 也可以直接将data字段换成json字段,2.4.3版本之后支持 # response = requests.post(url, json = body, headers = headers) # 返回信息 print response.text # 返回响应头 print response.status_code |
总结
以上所述是小编给大家介绍的基于python的post请求数据爬取的方法详解,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对服务器之家网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!原文链接:https://segmentfault.com/a/1190000019461304