服务器之家

服务器之家 > 正文

python访问抓取网页常用命令总结

时间:2020-09-29 09:44     来源/作者:huangcong

python访问抓取网页常用命令

简单的抓取网页:

?
1
2
3
4
import urllib.request 
url="http://google.cn/"
response=urllib.request.urlopen(url)  #返回文件对象
page=response.read()

直接将URL保存为本地文件:

?
1
2
3
4
import urllib.request 
url="http://google.cn/"
response=urllib.request.urlopen(url)  #返回文件对象
page=response.read()

POST方式:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
import urllib.parse
import urllib.request
 
url="http://liuxin-blog.appspot.com/messageboard/add"
 
values={"content":"命令行发出网页请求测试"}
data=urllib.parse.urlencode(values)
 
#创建请求对象
req=urllib.request.Request(url,data)
#获得服务器返回的数据
response=urllib.request.urlopen(req)
#处理数据
page=response.read()

GET方式:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import urllib.parse
import urllib.request
 
url="http://www.google.cn/webhp"
 
values={"rls":"ig"}
data=urllib.parse.urlencode(values)
 
theurl=url+"?"+data
#创建请求对象
req=urllib.request.Request(theurl)
#获得服务器返回的数据
response=urllib.request.urlopen(req)
#处理数据
page=response.read()

有2个常用的方法,geturl(),info()

geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。

中文问题的处理,会用到 encode()编码 dencode()解码:

感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!

原文链接:http://www.cnblogs.com/huangcong/archive/2011/09/03/2165565.html

相关文章

热门资讯

2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
Intellij idea2020永久破解,亲测可用!!!
Intellij idea2020永久破解,亲测可用!!! 2020-07-29
歪歪漫画vip账号共享2020_yy漫画免费账号密码共享
歪歪漫画vip账号共享2020_yy漫画免费账号密码共享 2020-04-07
电视剧《琉璃》全集在线观看 琉璃美人煞1-59集免费观看地址
电视剧《琉璃》全集在线观看 琉璃美人煞1-59集免费观看地址 2020-08-12
最新idea2020注册码永久激活(激活到2100年)
最新idea2020注册码永久激活(激活到2100年) 2020-07-29
返回顶部