服务器之家

服务器之家 > 正文

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

时间:2021-08-31 00:44     来源/作者:我不是秃头哆唻咪

此货很干,跟上脚步!!!
Cookie
cookie是什么东西?
小饼干?能吃吗?
简单来说就是你第一次用账号密码访问服务器
服务器在你本机硬盘上设置一个身份识别的会员卡(cookie)
下次再去访问的时候只要亮一下你的卡片(cookie)
服务器就会知道是你来了,因为你的账号密码等信息已经刻在了会员卡上
需求分析
爬虫要访问一些私人的数据就需要用cookie进行伪装
想要得到cookie就得先登录,爬虫可以通过表单请求将账号密码提交上去
但是在火狐的F12截取到的数据就是,
网易云音乐先将你的账号密码给编了码,再发post请求
所以我们在准备表单数据的时候就已经被卡住了
这时候我们就可以使用自动化测试Selenium帮助我们去登录
登录好之后就获取cookie给爬虫使用

OK,废话也废话完了,直接开整吧!!
首先跟我创建一个爬虫项目和爬虫
在cmd创建

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

用Pycharm打开这个项目

首先修改配置文件setting.py
1.关闭机器人协议
2.取消禁用cookie的功能

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

现在就回到爬虫文件wyySpider.py准备前期的工作
修改start_urls里的网址准备一个请求头
首先用火狐浏览器打开网易云音乐,登录后进入到个人主页

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单
Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

在爬虫代码那里准备一下,修改一下start_urls

  1. import scrapy
  2. from selenium import webdriver
  3. from selenium.webdriver.common.action_chains import ActionChains
  4. import time
  5.  
  6. class WyyspiderSpider(scrapy.Spider):
  7. name = 'wyySpider'
  8. allowed_domains = ['163.com']
  9. start_urls = ['https://music.163.com/playlist?id=19xxxxx7']

先实现一下自动登录功能获取cookie
首先导一下自动化测试的包(Selenium)
没有这个包的话去控制台:pip --default-timeout=100 install selenium -i http://pypi.douban.com/simple/ --trusted-host pypi.douban.com

  1. from selenium import webdriver
  2. from selenium.webdriver.common.action_chains import ActionChains
  3. import time

导完包还要一个谷歌的驱动程序,先看一下自己的谷歌版本

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

到这网站下载相同版本的驱动程序:https://sites.google.com/a/chromium.org/chromedriver/home

如果版本跟我的一样可以去网盘下载:
链接: https://pan.baidu.com/s/1M-gME2R8EEhEoFlPaDhbmA 提取码: 7iai

解压后记住这个驱动的位置,在爬虫文件写一个获取cookie的函数
以下代码的坐标不一定适合各位的电脑,不过给你们安利个物理外挂(电脑微信截图Alt+A)

  1. def getCookie(self):
  2. # 获取谷歌的驱动,参数为刚刚驱动程序的位置
  3. driver = webdriver.Chrome("C:/Users/Administrator/AppData/Local/Programs/Python38/Lib/site-packages/selenium/webdriver/chrome/chromedriver.exe")
  4. # -----------------selenium自动登录-----------------------
  5.  
  6. # 打开谷歌然后访问指定的网站
  7. driver.get("https://music.163.com/")
  8.  
  9. # 最大化,睡眠是怕网速慢没加载出来
  10. driver.maximize_window()
  11. time.sleep(1)
  12.  
  13. # 鼠标从(0,0)向x(1435px),y(35px)移动,用左键点击一下
  14. ActionChains(driver).move_by_offset(1435, 35).click().perform()
  15. time.sleep(0.3)
  16.  
  17. # 点击其他方式
  18. ActionChains(driver).move_by_offset(-480, 575).click().perform()
  19. time.sleep(0.3)
  20.  
  21. # 同意条款
  22. ActionChains(driver).move_by_offset(-218, -10).click().perform()
  23. time.sleep(0.3)
  24.  
  25. # 手机登录
  26. ActionChains(driver).move_by_offset(107, -100).click().perform()
  27. time.sleep(0.3)
  28.  
  29. # 输入账号密码
  30. # 通过css选择器获取id为"p"的标签,然后send_keys就是模拟输入一些信息
  31. driver.find_element_by_css_selector("#p").send_keys("账号")
  32. driver.find_element_by_css_selector("#pw").send_keys("密码")
  33. time.sleep(0.3)
  34.  
  35. # 点击登录
  36. ActionChains(driver).move_by_offset(110, 15).click().perform()
  37. time.sleep(1)
  38.  
  39. # 找到头像悬浮
  40. img = driver.find_element_by_css_selector("div.head:nth-child(1) > img:nth-child(1)")
  41. ActionChains(driver).move_to_element(img).perform()
  42. time.sleep(0.5)
  43. # 点击我的主页
  44. ActionChains(driver).move_by_offset(0, 40).click().perform()
  45. time.sleep(0.5)
  46. # 点击喜欢的音乐
  47. ActionChains(driver).move_by_offset(-870, 830).click().perform()
  48. time.sleep(0.3)
  49.  
  50. # -----------------selenium自动登录-----------------------

登录完毕后就可以获取cookie,但看一下下面的cookie

  1. [{'domain': 'music.163.com', 'expiry': 2147483647, 'httpOnly': False, 'name': 'WM_TID', 'path': '/', 'secure': False, 'value': 'UnQj6SSNqN9BEVdubmNcEjpl%2B9DA'}, {'domain': 'music.163.com', 'expiry': 2147483647, 'httpOnly': False, 'name': 'WM_NIKE', 'path': '/', 'secure': False, 'value': '9ca17ae2e6ffcda170e2e6ee87f4508ef58483ea4a97968ea7c54e879a8eaaf445aebc83b6e933f3f1c0b4c82af0fea7c3b92af697b7a6dc7b82afc09ad98ca695bc5082ecbcb1e772b7889b3d1c15bf28da0bbfb5b95aa8795f073adbc9c98ed79a28d8aa7f450f1ae9dd9b77a85edbf9ac625f1ef84d8f970b4e7bfd8cd21b48e8c8ec17df3e7a898f74488ef9bb5c837e2a3'}, {'domain': '.music.163.com', 'httpOnly': False, 'name': 'WNMCID', 'path': '/', 'sameSite': 'Strict', 'secure': False, 'value': 'fdygqk.1611989994304.01.0'}, {'domain': '.music.163.com', 'httpOnly': False, 'name': 'WEVNSM', 'path': '/', 'sameSite': 'Strict', 'secure': False, 'value': '1.0.0'}, {'domain': 'music.163.com', 'expiry': 2147483647, 'httpOnly': False, 'name': 'WM_NI', 'path': '/', 'secure': False, 'value': '6IyEYqBqpyZMITjt9DB4tPdzuXUFC%2BNyOiu3S04CTC5Nsv2Q4gkMM0BQ2SPZxQWvItmyodTwnsbSFFqD3rS84rG3qyG%2F31L7zdp9q7N%2BpRDmBw19hwtHD1UTE%3D'}, {'domain': '.music.163.com', 'expiry': 1927349994, 'httpOnly': False, 'name': 'NMTID', 'path': '/', 'secure': False, 'value': '00O-pWx8ZDJJQfiFkHzsgin07nYSmUAAAF3UhdN2w'}, {'domain': '.163.com', 'expiry': 4765589994, 'httpOnly': False, 'name': '_ntes_nuid', 'path': '/', 'secure': False, 'value': '738fc9cd89d6d8799fa76b3348d25d7d'}, {'domain': '.163.com', 'expiry': 4765589994, 'httpOnly': False, 'name': '_ntes_nnid', 'path': '/', 'secure': False, 'value': '738fc9cd89d6d8799fa76b3348d25d7d,1611989994150'}, {'domain': '.music.163.com', 'expiry': 1769671794, 'httpOnly': False, 'name': '_iuqxldmzr_', 'path': '/', 'secure': False, 'value': '32'}, {'domain': '.music.163.com', 'expiry': 1769671794, 'httpOnly': False, 'name': 'JSESSIONID-WYYY', 'path': '/', 'secure': False, 'value': 'OoCMxNwGV%5CfZD2OSzAXovf4ASVZsJ8UQ4sgg7JfH075cKTD%2FW3sMzZj%2BpayS1EnNVXzRm%2F2GxfzIoNv3FTjYxKeNFZWqf6UeiMSc1%2BG98kgsEM94juuE%5Cs18k2%2BPNPAp3hU0G%5CFDUtjkimCR5pgOIOI%3A1611991794102'}]

是列表加字典的结构,而Scrapy的cookie是字符串类型的,所以我们要做一个转型

  1. # 将driver获取的字典类型的cookie提取name和value封装成字符串
  2. temp = []
  3. for i in driver.get_cookies():
  4. temp.append(i['name'] + "=" + i['value'])
  5. # 返回字符串cookie
  6. return ';'.join(temp)

所以这个函数基本就写完了,自动登录后获取cookie是不是很爽!!!
现在重写一下def start_requests(self),这个函数是在请求发起前执行的

在这个函数把请求头给塞进去,因为setting那边没有定义

  1. def start_requests(self):
  2. # 定义请求头的时候调用一下getCookie获取一下cookie
  3. headers = {
  4. 'Cookie': self.getCookie(),
  5. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'
  6. }
  7. # 注意url是个列表这里拿下标[0],然后把headers请求头塞进去,交给parse函数
  8. yield scrapy.Request(url=self.start_urls[0], headers=headers, callback=self.parse)

请求前一切准备好之后,在解析函数(parse)进行保存一下数据,记得导re包

  1. def parse(self, response):
  2. # 匹配歌曲名的正则表达式
  3. patt = re.compile(r'<a href="/song.id=.*?">([^<|{]*?)</a>')
  4.  
  5. # 找到所有歌曲名
  6. listdata = re.findall(patt, response.text)
  7.  
  8. # 把数据写进txt文件
  9. with open(file="../response.txt", mode="w+", encoding="utf-8") as file:
  10. for item in listdata:
  11. file.write(item+"\n")

一句启动爬虫的命令,眨眨眼的时间 ~
数据就进去了哦!原来我的喜爱歌单只有不到500~

Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单

下面就是爬虫源代码

  1. import scrapy
  2. from selenium import webdriver
  3. from selenium.webdriver.common.action_chains import ActionChains
  4. import time
  5. import re
  6.  
  7. class WyyspiderSpider(scrapy.Spider):
  8. name = 'wyySpider'
  9. allowed_domains = ['163.com']
  10. start_urls = ['https://music.163.com/playlist?id=19xxxxx7']
  11.  
  12. def getCookie(self):
  13. # 获取谷歌的驱动,参数为刚刚驱动程序的位置
  14. driver = webdriver.Chrome("C:/Users/Administrator/AppData/Local/Programs/Python38/Lib/site-packages/selenium/webdriver/chrome/chromedriver.exe")
  15. # -----------------selenium自动登录-----------------------
  16.  
  17. # 打开谷歌然后访问指定的网站
  18. driver.get("https://music.163.com/")
  19.  
  20. # 最大化,睡眠是怕网速慢没加载出来
  21. driver.maximize_window()
  22. time.sleep(1)
  23. # 以下坐标以自己的电脑为准
  24. # 鼠标从(0,0)向x(1435px),y(35px)移动,用左键点击一下
  25. ActionChains(driver).move_by_offset(1435, 35).click().perform()
  26. time.sleep(0.3)
  27.  
  28. # 点击其他方式
  29. ActionChains(driver).move_by_offset(-480, 575).click().perform()
  30. time.sleep(0.3)
  31.  
  32. # 同意条款
  33. ActionChains(driver).move_by_offset(-218, -10).click().perform()
  34. time.sleep(0.3)
  35.  
  36. # 手机登录
  37. ActionChains(driver).move_by_offset(107, -100).click().perform()
  38. time.sleep(0.3)
  39.  
  40. # 输入账号密码
  41. # 通过css选择器获取id为"p"的标签,然后send_keys就是模拟输入一些信息
  42. driver.find_element_by_css_selector("#p").send_keys("账号")
  43. driver.find_element_by_css_selector("#pw").send_keys("密码")
  44. time.sleep(0.3)
  45.  
  46. # 点击登录
  47. ActionChains(driver).move_by_offset(110, 15).click().perform()
  48. time.sleep(1)
  49.  
  50. # 找到头像悬浮
  51. img = driver.find_element_by_css_selector("div.head:nth-child(1) > img:nth-child(1)")
  52. ActionChains(driver).move_to_element(img).perform()
  53. time.sleep(0.5)
  54. # 点击我的主页
  55. ActionChains(driver).move_by_offset(0, 40).click().perform()
  56. time.sleep(0.5)
  57. # # 点击喜欢的音乐
  58. # ActionChains(driver).move_by_offset(-870, 830).click().perform()
  59. # time.sleep(0.3)
  60.  
  61. # -----------------selenium自动登录-----------------------
  62.  
  63. # 将driver获取的字典类型的cookie提取name和value封装成字符串
  64. # 临时存放每个拼接好的key=value字符串
  65. temp = []
  66.  
  67. # 遍历driver给的cookies字典
  68. for i in driver.get_cookies():
  69. temp.append(i['name'] + "=" + i['value'])
  70.  
  71. # 返回字符串cookie
  72. return ';'.join(temp)
  73.  
  74. def start_requests(self):
  75. # 定义请求头的时候调用一下getCookie获取一下cookie
  76. headers = {
  77. 'Cookie': self.getCookie(),
  78. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.104 Safari/537.36'
  79. }
  80. # 注意url是个列表这里拿下标[0],然后把headers请求头塞进去,交给parse函数
  81. yield scrapy.Request(url=self.start_urls[0], headers=headers, callback=self.parse)
  82.  
  83. def parse(self, response):
  84. # 匹配歌曲名的正则表达式
  85. patt = re.compile(r'<a href="/song.id=.*?">([^<|{]*?)</a>')
  86.  
  87. # 找到所有歌曲名
  88. listdata = re.findall(patt, response.text)
  89.  
  90. # 把数据写进txt文件
  91. with open(file="response.txt", mode="w+", encoding="utf-8") as file:
  92. for item in listdata:
  93. file.write(item+"\n")

到此这篇关于Scrapy+Selenium自动获取cookie爬取网易云音乐个人喜爱歌单的文章就介绍到这了,更多相关Scrapy+Selenium爬取网易云音乐内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!

原文链接:https://blog.csdn.net/weixin_44864260/article/details/113428996

相关文章

热门资讯

yue是什么意思 网络流行语yue了是什么梗
yue是什么意思 网络流行语yue了是什么梗 2020-10-11
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全
2020微信伤感网名听哭了 让对方看到心疼的伤感网名大全 2019-12-26
背刺什么意思 网络词语背刺是什么梗
背刺什么意思 网络词语背刺是什么梗 2020-05-22
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总
苹果12mini价格表官网报价 iPhone12mini全版本价格汇总 2020-11-13
2021年耽改剧名单 2021要播出的59部耽改剧列表
2021年耽改剧名单 2021要播出的59部耽改剧列表 2021-03-05
返回顶部