Python两招轻松爬取美团评论,


结果很多读者对爬数据的过程比较感兴趣,那么今天就讲一下我是怎样获取美团数据,其实并不难,甚至还因为需要手动干预而显得有点不太聪明的样子。

很多人学习python,不知道从何学起。
很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:1097524789

店铺评论数据

在重庆火锅的文章中,我们一共爬取了每个店铺基本信息与对应评价两种数据,那么较为简单的就是评论数据,我们进入一个店铺的详情页,F12查找数据包就能轻松找到对应的评论数据

 

所以想拿下这一页的评论只要将headers中一些参数加进去使用Requests.get请求即可,注意Cookie是必须要添加的

那么返回的json数据无论直接提取数据还是使用正则查找数据都不是困难的,提取之后使用Pandas保存即可,此处就不在赘述,如果需要爬取多页评论怎么办,先手动加载多页评论发现URL中仅有offset参数变了,每页增加10

所以只要写个简单的循环生成多页URL就能拿下指定页数的评论,OK这仅是一家店铺的评论爬取办法,那怎么获得多家店铺的评论呢?如果我们多找几家店铺的评论数据查看会发现,不同店铺对应的Request URL其实变化的只有店铺的ID

所以下面的问题就转换为如何拿到多家店铺的ID,而这些ID都在搜索页面下的店铺基本数据中。

店铺基本数据

为了找到店铺ID,让我们回到搜索页面中(美团首页—美食—火锅)

上面的页面中就是重庆火锅的第一页,还是F12刷新很容易就能找到包含店铺ID、均价等相关信息的数据包

所以也能轻松的获取Request URL

和上一节取评论的方法一样,修改对应的headers信息再使用requests请求即可,然后将店铺基本信息存下来用于分析,再将ID单独存储用于组合评论页URL

当然这只是第一页的url的返回数据,只要修改其中的page参数就能生成多页URL从而获取多页数据

 

以为这就结束了?并不是,评论页的URL是不变的,但是这里的URL过几分钟就会变一下,也就是说如果你一次性生成10页或更多的URL去循环请求很有可能在中间这个URL就挂掉了,所以你直接在浏览器中打开这个URL提示请求被拒绝,而不是显示对应的json值,就说明URL换了,解决办法只有在URL更换的时候重新手动获取最新的URL并重新组合剩下需要爬取的页面,有点蠢但是因为更换的部分并没啥规律所以好像也没什么更好的办法......

结束语

以上就是我如何爬取美团店铺和评论数据的一些说明,看上去也并不难无非就是Requests爬取+Pandas清洗即可,由于变化的URL甚至没法开一个线程取ID另一个线程取评论而显得不太聪明。回顾一下不就是在一级搜索页面通过代码+手动调整取一些店铺的ID和其他基本信息,再去店铺详情页用同样的方法利用刚刚取得的ID来爬取不同店铺的评论数据即可。并没有什么高级操作,所以我不再提供具体爬取与清洗数据的相关代码(事实上也很容易失效)!

 

注1:爬下来的数据仅限学习研究使用!

注2:爬取过程请一定记得设置请求频率以及代理池,不然很容易封IP!

相关内容

    暂无相关文章

评论关闭