本文实例讲述了Python实现爬取逐浪小说的方法。分享给大家供大家参考。具体分析如下:
本人喜欢在网上看小说,一直使用的是小说下载阅读器,可以自动从网上下载想看的小说到本地,比较方便。最近在学习Python的爬虫,受此启发,突然就想到写一个爬取小说内容的脚本玩玩。于是,通过在逐浪上面分析源代码,找出结构特点之后,写了一个可以爬取逐浪上小说内容的脚本。
具体实现功能如下:输入小说目录页的url之后,脚本会自动分析目录页,提取小说的章节名和章节链接地址。然后再从章节链接地址逐个提取章节内容。现阶段只是将小说从第一章开始,每次提取一章内容,回车之后提取下一章内容。其他网站的结果可能有不同,需要做一定修改。在逐浪测试过正常。
现分享此代码,一是做个记录,方便自己以后回顾。二么也想抛砖引玉,希望各路大神不吝赐教。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
|
#-*-coding:utf8-*- #!/usr/bin/python # Python: 2.7.8 # Platform: Windows # Program: Get Novels From Internet # Author: wucl # Description: Get Novels # Version: 1.0 # History: 2015.5.27 完成目录和url提取 # 2015.5.28 完成目录中正则提取第*章,提取出章节链接并下载。在逐浪测试下载无误。 from bs4 import BeautifulSoup import urllib2,re def get_menu(url): """Get chapter name and its url""" user_agent = "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:39.0) Gecko/20100101 Firefox/39.0" headers = { 'User-Agent' :user_agent} req = urllib2.Request(url,headers = headers) page = urllib2.urlopen(req).read() soup = BeautifulSoup(page) novel = soup.find_all( 'title' )[ 0 ].text.split( '_' )[ 0 ] # 提取小说名 menu = [] all_text = soup.find_all( 'a' ,target = "_blank" ) # 提取记载有小说章节名和链接地址的模块 regex = re. compile (ur '\u7b2c.+\u7ae0' ) # 中文正则匹配第..章,去除不必要的链接 for title in all_text: if re.findall(regex,title.text): name = title.text x = [name,title[ 'href' ]] menu.append(x) # 把记载有小说章节名和链接地址的列表插入列表中 return menu,novel def get_chapter(name,url): """Get every chapter in menu""" html = urllib2.urlopen(url).read() soup = BeautifulSoup(html) content = soup.find_all( 'p' ) # 提取小说正文 return content[ 0 ].text if __name__ = = "__main__" : url = raw_input ( """Input the main page's url of the novel in ZhuLang\n Then Press Enter to Continue\n""" ) if url: menu,title = get_menu(url) print title, str ( len (menu)) + '\n Press Enter To Continue \n' # 输出获取到的小说名和章节数 for i in menu: chapter = get_chapter(i[ 0 ],i[ 1 ]) raw_input () print '\n' + i[ 0 ] + '\n' print chapter print '\n' |
希望本文所述对大家的Python程序设计有所帮助。