如下所示:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
|
#coding:utf-8 ''''' Created on 2014-7-24 @author: Administrator ''' import urllib2 try : url = "http://www.baidu.com" f = urllib2.urlopen(url, timeout = 0 ) #timeout设置超时的时间 result = f.read() # print len(result) print result except Exception,e: print 'a' , str (e) |
以上这篇python爬虫超时的处理的实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/ztsghjls/article/details/64438872