服务器之家

服务器之家 > 正文

使用PyCharm批量爬取小说的完整代码

时间:2021-10-03 23:56     来源/作者:~程~

使用pycharm批量爬取小说

爬取小说的思路:

 1.获取小说地址

本文以搜书网一小说为例《嘘,梁上有王妃!》
目录网址:https://www.soshuw.com/xuliangshangyouwangfei/
加载需要的包:

?
1
2
3
import re
from bs4 import beautifulsoup as ds
import requests

获取小说目录文件,返回<response [200]>,表示可正常爬取该网页

?
1
2
3
base_url='https://www.soshuw.com/xuliangshangyouwangfei/'
chapter_html=requests.get(base_url)
print(chapter_html)

2.分析小说地址结构

解析目录网页 , 输出结果为目录网页的源代码

?
1
2
chapter_page_html=ds(chapter_page,'lxml')
print(chapter_page)

打开目录网页,发现在正文的目录前面有一个最新章节目录(这里有九个章节),再完整的目录中是包含最新章节的,所以这里最新章节是不需要的。

使用PyCharm批量爬取小说的完整代码

在网页单击右键选择“检查”(或者“属性”,不同的浏览器的叫法不一致,我用的是ie)选择“元素”列,鼠标再右侧代码块上移动时。左侧网页会高亮显示其对应网页区域,找到完整目录对应的代码块。如下图:

使用PyCharm批量爬取小说的完整代码

完整目录的锚有两个,分别是class="novel_list"和id=“novel108799”,仔细观察后发现class不唯一,所以我们选用id提取该块内容

使用PyCharm批量爬取小说的完整代码

将完整目录块提取出来

?
1
2
chapter_novel=chapter_page.find(id="novel108799")
print(chapter_novel)

结果如下(仅部分结果):

使用PyCharm批量爬取小说的完整代码

对比小说章节内容网址和目录网址(base_url)发现,我们只需要将base_url和章节内容网址的后半段拼接到一起就可以得到完整的章节内容网址

3.拼接地址

利用正则语言库将地址后半段提取出来

?
1
2
3
4
chapter_novel_str=str(chapter_novel)
regx = '<dd><a href="/xuliangshangyouwangfei(.*?)"'
chapter_href_list = re.findall(regx, chapter_novel_str)
print(chapter_href_list)

拼接url:
       定义一个列表chapter_url_list接收完整地址

?
1
2
3
4
5
chapter_url_list = []
for i in chapter_href_list:
 url=base_url+i
 chapter_url_list.append(url)
print(chapter_url_list)

4.分析章节内容结构

打开章节,右键→“属性”,查看内容结构,发现小说正文有class和id两个锚,class是不变的,id随着章节而变化,所以我们用class提取正文

使用PyCharm批量爬取小说的完整代码

提取正文段

?
1
2
chapter_novel=chapter_page.find(id="novel108799")
print(chapter_novel)

提取正文文本和标题

?
1
2
3
4
5
6
7
8
9
10
11
body_html=requests.get('https://www.soshuw.com/xuliangshangyouwangfei/3647144.html')
body_page=ds(body_html.content,'lxml')
body = body_page.find(class_='content')
body_content=str(body)
print(body_content)
body_regx='<br/> (.*?)\n'
content_list=re.findall(body_regx,body_content)
print(content_list)
title_regx = '<h1>(.*?)</h1>'
title = re.findall(title_regx, body_html.text)
print(title)

5.保存文本

?
1
2
3
4
5
6
7
with open('1.txt', 'a+') as f:
 f.write('\n\n')
 f.write(title[0] + '\n')
 f.write('\n\n')
 for e in content_list:
  f.write(e + '\n')
print('{} 爬取完毕'.format(title[0]))

6.完整代码

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
import re
from bs4 import beautifulsoup as ds
import requests
base_url='https://www.soshuw.com/xuliangshangyouwangfei'
chapter_html=requests.get(base_url)
chapter_page=ds(chapter_html.content,'lxml')
chapter_novel=chapter_page.find(id="novel108799")
#print(chapter_novel)
chapter_novel_str=str(chapter_novel)
regx = '<dd><a href="/xuliangshangyouwangfei(.*?)"'
chapter_href_list = re.findall(regx, chapter_novel_str)
#print(chapter_href_list)
chapter_url_list = []
for i in chapter_href_list:
 url=base_url+i
 chapter_url_list.append(url)
#print(chapter_url_list)
 
for u in chapter_url_list:
 body_html=requests.get(u)
 body_page=ds(body_html.content,'lxml')
 body = body_page.find(class_='content')
 body_content=str(body)
 # print(body_content)
 body_regx='<br/> (.*?)\n'
 content_list=re.findall(body_regx,body_content)
 #print(content_list)
 title_regx = '<h1>(.*?)</h1>'
 title = re.findall(title_regx, body_html.text)
 #print(title)
 with open('1.txt', 'a+') as f:
  f.write('\n\n')
  f.write(title[0] + '\n')
  f.write('\n\n')
  for e in content_list:
   f.write(e + '\n')
 print('{} 爬取完毕'.format(title[0]))

到此这篇关于使用pycharm批量爬取小说的文章就介绍到这了,更多相关pycharm批量爬取小说内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://blog.csdn.net/clbdbc/article/details/115422230

标签:

相关文章

热门资讯

yue是什么意思 网络流行语yue了是什么梗
yue是什么意思 网络流行语yue了是什么梗 2020-10-11
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
背刺什么意思 网络词语背刺是什么梗
背刺什么意思 网络词语背刺是什么梗 2020-05-22
2021年耽改剧名单 2021要播出的59部耽改剧列表
2021年耽改剧名单 2021要播出的59部耽改剧列表 2021-03-05
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总 2020-11-13
返回顶部