【爬虫案例】用Python爬取百度热搜榜数据!,本次爬取的目标是:百


目录
  • 一、爬取目标
  • 二、编写爬虫代码
  • 三、同步视频讲解
  • 四、完整源码

一、爬取目标

您好,我是@马哥python说,一名10年程序猿。

本次爬取的目标是:百度热搜榜

分别爬取每条热搜的:

热搜标题、热搜排名、热搜指数、描述、链接地址。

下面,对页面进行分析。
经过分析,此页面有XHR链接,可以针对接口进行爬取。

打开Chrome浏览器,按F12进入开发者模式,依次点击:

  1. 点击Network,选择网络
  2. 点击XHR,选择XHR请求
  3. 选择目标链接地址
  4. 击Preview,选择预览
  5. 查看返回数据

操作过程,如下图所示:

二、编写爬虫代码

首先,导入需要用到的库:

import requests  # 发送请求
import pandas as pd  # 存入excel数据

定义一个百度热搜榜接口地址:

# 百度热搜榜地址
url = 'https://top.baidu.com/api/board?platform=wise&tab=realtime'

构造一个请求头,伪装爬虫:

# 构造请求头
header = {
	'User-Agent': 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.4844.51 Mobile Safari/537.36',
	'Host': 'top.baidu.com',
	'Accept': 'application/json, text/plain, */*',
	'Accept-Language': 'zh-CN,zh;q=0.9,en-US;q=0.8,en;q=0.7',
	'Accept-Encoding': 'gzip, deflate, br',
	'Referer': 'https://top.baidu.com/board?tab=novel',
}

向百度页面发送requests请求:

# 发送请求
r = requests.get(url, header)

返回的数据是json格式的,直接用r.json()接收:

# 用json格式接收请求数据
json_data = r.json()

这里,需要注意的是,页面上有2种热搜:

百度热搜榜最上面一条是置顶热搜,下面从1到30是普通热搜,接口返回的数据也是区分开的:

所以,爬虫代码需要分开处理逻辑:

置顶热搜:

# 爬取置顶热搜
top_content_list = json_data['data']['cards'][0]['topContent']

普通热搜:

# 爬取普通热搜
content_list = json_data['data']['cards'][0]['content']

然后再分别进行json解析,对应的字段(标题、排名、热搜指数、描述、链接地址)。
最后,保存结果数据到excel即可。

df = pd.DataFrame(  # 拼装爬取到的数据为DataFrame
	{
		'热搜标题': title_list,
		'热搜排名': order_list,
		'热搜指数': score_list,
		'描述': desc_list,
		'链接地址': url_list
	}
)
df.to_excel('百度热搜榜.xlsx', index=False)  # 保存结果数据

最后,查看一下爬取到的数据:

一共31条数据(1条置顶热搜+30条普通热搜)。
每条数据包含:热搜标题、热搜排名、热搜指数、描述、链接地址。

三、同步视频讲解

讲解视频:https://www.zhihu.com/zvideo/1490668062617161728

四、完整源码

get完整源码:【爬虫案例】用Python爬取百度热搜榜数据!


我是@马哥python说,持续分享python源码干货中!

评论关闭