您现在的位置是:首页 > 技术教程 正文

【python】使用代理IP爬取猫眼电影专业评分数据

admin 阅读: 2024-03-19
后台-插件-广告管理-内容页头部广告(手机)

前言 

我们为什么需要使用IP代理服务?

在编写爬虫程序的过程中,IP封锁无疑是一个常见且棘手的问题。尽管网络上存在大量的免费IP代理网站,但其质量往往参差不齐,令人堪忧。许多代理IP的延迟过高,严重影响了爬虫的工作效率;更糟糕的是,其中不乏大量已经失效的代理IP,使用这些IP不仅无法绕过封锁,反而可能使爬虫陷入更深的困境。

本篇文章中介绍一下如何使用Python的Requests库和BeautifulSoup库来抓取猫眼电影网站上的专业评分数据。

正文

1、导包

  1. import requests
  2. from bs4 import BeautifulSoup
  3. import pandas as pd
  4. import matplotlib.pyplot as plt

Requests库是一个简单易用的HTTP库,用于发送网络请求和获取响应数据。BeautifulSoup库则是一个用于解析HTML和XML文档的Python库,可以帮助我们从网页中提取所需的数据。

2、设置代理

设置代理和代理信息可以在这里获取:IP代理服务

  1. # 设置代理信息
  2. proxyHost = "www.16yun.cn"
  3. proxyPort = "5445"
  4. proxyUser = "your_proxy_user"
  5. proxyPass = "your_proxy_password"
  6. # 设置代理
  7. proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
  8. "host": proxyHost,
  9. "port": proxyPort,
  10. "user": proxyUser,
  11. "pass": proxyPass,
  12. }
  13. proxies = {
  14. "http": proxyMeta,
  15. "https": proxyMeta,
  16. }

3、设置请求头

请求头的获取方式可以参考这篇文章:爬虫入门学习(三)请求headers处理-CSDN博客

当然不用自己的也行哈哈 

  1. # 设置请求头,模拟浏览器访问
  2. headers = {
  3. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
  4. }

4、发起请求

  1. # 发起请求,获取网页内容
  2. url = 'https://maoyan.com/films?showType=3'
  3. response = requests.get(url, headers=headers, proxies=proxies) # 添加proxies参数
  4. soup = BeautifulSoup(response.text, 'html.parser')

5、解析网页内容

  1. # 解析网页内容,提取专业评分数据
  2. movie_names = []
  3. professional_scores = []
  4. for movie in soup.find_all('div', attrs={'class': 'movie-item film-channel'}):
  5. movie_name = movie.find('span', attrs={'class': 'name'}).text
  6. score = movie.find('span', attrs={'class': 'integer'}).text + movie.find('span', attrs={'class': 'fraction'}).text
  7. movie_names.append(movie_name)
  8. professional_scores.append(score)
  9. # 将数据存储到DataFrame中
  10. data = {'电影名称': movie_names, '专业评分': professional_scores}
  11. df = pd.DataFrame(data)

6、数据可视化

  1. # 数据可视化
  2. plt.figure(figsize=(10, 6))
  3. plt.bar(df['电影名称'], df['专业评分'], color='skyblue')
  4. plt.title('猫眼电影专业评分排行榜')
  5. plt.xlabel('电影名称')
  6. plt.ylabel('专业评分')
  7. plt.xticks(rotation=45)
  8. plt.show()

上述代码片段展示了如何运用Python中的Requests库与BeautifulSoup库,精准地抓取猫眼电影网站上的专业评分数据。随后,通过Pandas库对数据进行整理与分析,再借助Matplotlib库进行可视化呈现。这一数据采集、处理与可视化的完整流程。

完整代码如下:

  1. # 导入所需的库
  2. import requests
  3. from bs4 import BeautifulSoup
  4. import pandas as pd
  5. import matplotlib.pyplot as plt
  6. # 设置代理信息
  7. proxyHost = "www.16yun.cn"
  8. proxyPort = "5445"
  9. proxyUser = "your_proxy_user"
  10. proxyPass = "your_proxy_password"
  11. # 设置代理
  12. proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {
  13. "host": proxyHost,
  14. "port": proxyPort,
  15. "user": proxyUser,
  16. "pass": proxyPass,
  17. }
  18. proxies = {
  19. "http": proxyMeta,
  20. "https": proxyMeta,
  21. }
  22. # 设置请求头,模拟浏览器访问
  23. headers = {
  24. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'
  25. }
  26. # 发起请求,获取网页内容
  27. url = 'https://maoyan.com/films?showType=3'
  28. response = requests.get(url, headers=headers, proxies=proxies) # 添加proxies参数
  29. soup = BeautifulSoup(response.text, 'html.parser')
  30. # 解析网页内容,提取专业评分数据
  31. movie_names = []
  32. professional_scores = []
  33. for movie in soup.find_all('div', attrs={'class': 'movie-item film-channel'}):
  34. movie_name = movie.find('span', attrs={'class': 'name'}).text
  35. score = movie.find('span', attrs={'class': 'integer'}).text + movie.find('span', attrs={'class': 'fraction'}).text
  36. movie_names.append(movie_name)
  37. professional_scores.append(score)
  38. # 将数据存储到DataFrame中
  39. data = {'电影名称': movie_names, '专业评分': professional_scores}
  40. df = pd.DataFrame(data)
  41. # 数据可视化
  42. plt.figure(figsize=(10, 6))
  43. plt.bar(df['电影名称'], df['专业评分'], color='skyblue')
  44. plt.title('猫眼电影专业评分排行榜')
  45. plt.xlabel('电影名称')
  46. plt.ylabel('专业评分')
  47. plt.xticks(rotation=45)
  48. plt.show()

当然,如果你自己要使用的话得用自己专属的IP代理信息,而且具体情况得具体分析。如果你买了代理IP的话,不会的直接问客服,直接给你服务的服服帖帖的

标签:
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

在线投稿:投稿 站长QQ:1888636

后台-插件-广告管理-内容页尾部广告(手机)
关注我们

扫一扫关注我们,了解最新精彩内容

搜索
排行榜