服务器之家

服务器之家 > 正文

Python爬虫必备技巧详细总结

时间:2022-02-16 00:13     来源/作者:小旺不正经

自定义函数

import requests
from bs4 import BeautifulSoup
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:93.0) Gecko/20100101 Firefox/93.0"}
def baidu(company):
    url = "https://www.baidu.com/s?rtt=4&tn=news&word=" + company
    print(url)
    html = requests.get(url, headers=headers).text
    s = BeautifulSoup(html, "html.parser")
    for i in title:
        print(i.text)
# 批量调用函数
companies = ["腾讯", "阿里巴巴", "百度集团"]
for i in companies:
    baidu(i)

批量输出多个搜索结果的标题

Python爬虫必备技巧详细总结

结果保存为文本文件

import requests
from bs4 import BeautifulSoup
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:93.0) Gecko/20100101 Firefox/93.0"}
def baidu(company):
    url = "https://www.baidu.com/s?rtt=4&tn=news&word=" + company
    print(url)
    html = requests.get(url, headers=headers).text
    s = BeautifulSoup(html, "html.parser")
    fl=open("test.text","a", encoding="utf-8")
    for i in title:
        fl.write(i.text + "
")
# 批量调用函数
companies = ["腾讯", "阿里巴巴", "百度集团"]
for i in companies:
    baidu(i)

Python爬虫必备技巧详细总结

写入代码

fl=open("test.text","a", encoding="utf-8")
for i in title:
	fl.write(i.text + "
")

异常处理

for i in companies:
    try:
        baidu(i)
        print("运行成功")
    except:
        print("运行失败")

写在循环中 不会让程序停止运行 而会输出运行失败

休眠时间

import time
for i in companies:
    try:
        baidu(i)
        print("运行成功")
    except:
        print("运行失败")
time.sleep(5)

time.sleep(5)

括号里的单位是秒

放在什么位置 则在什么位置休眠(暂停)

爬取多页内容

百度搜索腾讯

Python爬虫必备技巧详细总结

切换到第二页

Python爬虫必备技巧详细总结

去掉多多余的

https://www.baidu.com/s?wd=腾讯&pn=10

分析出

https://www.baidu.com/s?wd=腾讯&pn=0 为第一页
https://www.baidu.com/s?wd=腾讯&pn=10 为第二页
https://www.baidu.com/s?wd=腾讯&pn=20 为第三页
https://www.baidu.com/s?wd=腾讯&pn=30 为第四页
..........

代码

from bs4 import BeautifulSoup
import time
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:93.0) Gecko/20100101 Firefox/93.0"}
def baidu(c):
    url = "https://www.baidu.com/s?wd=腾讯&pn=" + str(c)+"0"
    print(url)
    html = requests.get(url, headers=headers).text
    s = BeautifulSoup(html, "html.parser")
    for i in title:
        print(i.text)

for i in range(10):
    baidu(i)
    time.sleep(2)

Python爬虫必备技巧详细总结

到此这篇关于Python爬虫必备技巧详细总结的文章就介绍到这了,更多相关Python 爬虫技巧内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://blog.csdn.net/weixin_42403632/article/details/120884472

标签:

相关文章

热门资讯

蜘蛛侠3英雄无归3正片免费播放 蜘蛛侠3在线观看免费高清完整
蜘蛛侠3英雄无归3正片免费播放 蜘蛛侠3在线观看免费高清完整 2021-08-24
2022年最旺的微信头像大全 微信头像2022年最新版图片
2022年最旺的微信头像大全 微信头像2022年最新版图片 2022-01-10
背刺什么意思 网络词语背刺是什么梗
背刺什么意思 网络词语背刺是什么梗 2020-05-22
yue是什么意思 网络流行语yue了是什么梗
yue是什么意思 网络流行语yue了是什么梗 2020-10-11
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
返回顶部