urllib包和http包都是面向HTTP协议的。其中urllib主要用于处理 URL,使用urllib操作URL可以像使用和打开本地文件一样地操作。而 http包则实现了对 HTTP协议的封装,是urllib.request模块的底层。
1.urllib包简介
2. http 包简介
1.urllib包简介
urllib包主要模块有:
1.urllib.request -----用于打开 URL网址;
2.urllib.error ---------定义了常见的urllib.request会引发的异常;
3.urllib.parse---------用于解析 URL;
具体方法:
urllib.request.urlopen( url,data,proxies ) :用于打开 url
参数如下:
url:要进行操作的 URL地址
data:可选项。向URL 传递的数据。
proxies:可选项。使用的代理地址
1
2
3
4
5
|
import urllib.request url = 'http://www.baidu.com' #网页为百度首页 respone = urllib.request.urlopen(url) #打开url地址,并返回一个 HTTPRespone实例 html = respone.read().decode('utf-8') #调用实例的 read()方法,并用 utf-8进行解码处理。就得出完整的百度的HTML文件 print(html) |
部分打印结果:
1
2
3
4
5
6
7
8
9
10
|
< html > < head > < meta http-equiv = "content-type" content = "text/html;charset=utf-8" > < meta http-equiv = "X-UA-Compatible" content = "IE=Edge" > < meta content = "always" name = "referrer" > < meta name = "theme-color" content = "#2932e1" > < link rel = "shortcut icon" href = "/favicon.ico" rel = "external nofollow" type = "image/x-icon" /> < link rel = "search" type = "application/opensearchdescription+xml" href = "/content-search.xml" rel = "external nofollow" title = "百度搜索" /> < link rel = "icon" sizes = "any" mask href = "//www.baidu.com/img/baidu.svg" rel = "external nofollow" > |
urllib.request.urlretrieve(url,filename,reporthook,data) :用于将 URL的HTML文件下载并保存为本地文件
参数如下:
url:要下载的网页
filename:保存在主机的路径,可选项。
reporthook:一个回调函数,可选项。
data:发送的数据,一般用于 post,可选项。
特别:关于urlretrieve()的回调函数reporthook:可以用来显示下载的进度,几乎已经封装好
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
import urllib.request def callbackfunc(blocknum, blocksize, totalsize): #这三个参数是由 urlretrieve自动赋值的 '''回调函数 @blocknum: 已经下载的数据块 @blocksize: 数据块的大小 @totalsize: 远程文件的大小 ''' percent = 100.0 * blocknum * blocksize / totalsize if percent > 100: percent = 100 print( "%.2f%%"% percent) #保留两位小数 url = 'http://www.sina.com' local = 'd:\\sina.html' #下载的html文件保存在 d盘的sina.html里 urllib.request.urlretrieve(url,local,callbackfunc) #没下载完一个数据块,就会执行回调函数一次 |
执行结果:
1
2
3
4
5
6
7
|
//只显示局部 0.00% 1.38% 2.76% 4.13% 5.51% 6.89% |
2. http包简介
http包提供了 HTTP协议的一些功能,主要模块有:
http.client --- 底层的 HTTP 协议的一些功能,可以为 urllib.request 模块所用
http.server --- 提供了基于 socketserver模块的基本 HTTP服务器类
http.cookies --- cookies 的管理工具
http.client :
HttpClient不是一个浏览器。它是一个客户端的HTTP通信实现库。HttpClient的目标是发送和接收HTTP报文。
两个主要类(用于客户端):
HTTPConnection :基于HTTP协议的客户端,指定 URL(网址) 后,可以 发送请求报文 和 接收响应报文
HTTPRespone :基于 HTTP 协议的服务端回应。一旦用 HTTPConnection 成功连接,可以调用相关方法返回该实例(HTTPRequest实例)。
(1)HTTPConnection 的方法:
构造方法: HTTPConnection( host,port,[timeout] ) 返回一个HTTPConnection 实例
host:表示主机域名或 ip 地址
port:表示端口
timeout:阻塞操作将会在给定时间后超时。可选项
发送请求报文方法:HTTPConnection.request( method,url,body =None,headers = {} )
method:发送的操作,一般为 GET 或者 POST
url :进行操作的 url
body :所发送的数据
headers:发送的 HTTP头部,是一个字典类型
获取响应报文方法:HTTPConnection.getrespone( )
关闭与服务器的连接: HTTPConne.close()
发送一个头部:HTTPConnection.putheader( header,args[ ] ) #头部以一个字典方式发送
发送一个空白行到服务器,标志头部Header的结束:HTTPConnection.endheaders( )
发送数据到服务器:HTTPConnection.send( data ) ,应该在endheaders()之后 和 getrespone()之前调用。
(2)HTTPRespone:
HTTPRespone对象:一旦用 HTTPConnection 成功连接,可以调用HTTPConnection.getrespone()返回该实例(HTTPRequest实例)。
HTTPRespone.getheader(name) :返回头部中的 name 字段对应的值
HTTPRespone.getheaders( ) :以元组的方式返回整个头部的信息
HTTPRespone.read() :返回响应报文中的body部分,也即正文部分
HTTPRespone.status #返回状态码
HTTPRespone.version #返回 HTTP协议版本
http 包应用实例 。
1
2
3
4
5
6
7
8
|
from http.client import HTTPConnection con = HTTPConnection('www.baidu.com',80) con.request('GET','/') #发送请求报文 res = con.getresponse() #获取响应报文对象 print(res.status) #200 (表示状态码) print(res.reason) #OK (表示状态码对应的意义) print(res.read().decode('utf-8')) #打印www.baidu.com的html |
以上这篇对python3 urllib包与http包的使用详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/u014453898/article/details/71713681