设为首页 收藏本站
开启辅助访问 快捷导航
菜单
猿人部落 主页 资讯 查看内容

爬取斗鱼直播人气排名练习笔记

2019-7-24 11:57 发布者: admin 评论 0 查看 1013
# -*-coding:utf-8 -*-# Author : Jermey1994# Develop_Time : 2019/7/24 10:54# File_Name : req_main.PY# Develop_Tool : PyCharmimport requestsfrom fake_useragent import UserAgentimport jsonpathclass Start
  1. # -*-coding:utf-8 -*-
  2. # Author : Jermey1994
  3. # Develop_Time : 2019/7/24 10:54
  4. # File_Name : req_main.PY
  5. # Develop_Tool : PyCharm

  6. import requests
  7. from fake_useragent import UserAgent
  8. import jsonpath

  9. class Start_Main(object):
  10.     def get_url(self,url):
  11.         ua = UserAgent()
  12.         header = {"user-agent": ua.random}
  13.         self.url = url
  14.         response = requests.get(self.url,headers=header).json()
  15.         #print(response)
  16.         return response

  17.     def get_data(self,response):
  18.         items = dict()
  19.         user_names = jsonpath.jsonpath(response,"$..nn")
  20.         user_pops = jsonpath.jsonpath(response,"$..ol")
  21.         #print(user_names,user_pops)
  22.         for name , pop in zip(user_names,user_pops) :
  23.             items[name] = pop
  24.         return items

  25.     def start_runing(self):
  26.         return self.get_data(self.get_url("https://www.douyu.com/gapi/rkc/directory/2_1/1"))

  27. print("""
  28. ====================
  29. 斗鱼豪杰同盟人气排行榜
  30. ====================
  31. """)

  32. index = 1
  33. pop_list = list()
  34. douyu_hot = Start_Main()
  35. anchor_pop = douyu_hot.start_runing()

  36. for key in anchor_pop :
  37.     pop_list.append(anchor_pop[key])

  38. pop_list.sort(reverse=True)

  39. for pop in pop_list :
  40.     for temp in anchor_pop :
  41.         if pop == anchor_pop[temp] :
  42.             print("No.%d" % index)
  43.             print("anchor: %s -- %s pops" % (temp,anchor_pop[temp]))
  44.             print('--------------------')
  45.             index += 1
  46.             break

路过

雷人

握手

鲜花

鸡蛋
收藏 邀请
上一篇:(about work)SQL server,oracle 照片数据导出下一篇:有道翻译最新版爬虫,解析反爬虫了,不要再问{"errorCode":50}错误怎么办了

相关阅读

一周热门

头条攻略!

日排行榜

相关分类