零基础写python爬虫之爬虫框架Scrapy安装配置,pythonscrapy
零基础写python爬虫之爬虫框架Scrapy安装配置,pythonscrapy
前面十章爬虫笔记陆陆续续记录了一些简单的Python爬虫知识,
用来解决简单的贴吧下载,绩点运算自然不在话下。
不过要想批量下载大量的内容,比如知乎的所有的问答,那便显得游刃不有余了点。
于是乎,爬虫框架Scrapy就这样出场了!
Scrapy = Scrach+Python,Scrach这个单词是抓取的意思,
Scrapy的官网地址:点我点我。
那么下面来简单的演示一下Scrapy的安装流程。
具体流程参照:http://www.bkjia.com/article/48607.htm
友情提醒:一定要按照Python的版本下载,要不然安装的时候会提醒找不到Python。建议大家安装32位是因为有些版本的必备软件64位不好找。
1.安装Python(建议32位)
建议安装Python2.7.x,3.x貌似还不支持。
安装完了记得配置环境,将python目录和python目录下的Scripts目录添加到系统环境变量的Path里。
在cmd中输入python如果出现版本信息说明配置完毕。
2.安装lxml
lxml是一种使用 Python 编写的库,可以迅速、灵活地处理 XML。点击这里选择对应的Python版本安装。
3.安装setuptools
用来安装egg文件,点击这里下载python2.7的对应版本的setuptools。
4.安装zope.interface
可以使用第三步下载的setuptools来安装egg文件,现在也有exe版本,点击这里下载。
5.安装Twisted
Twisted是用Python实现的基于事件驱动的网络引擎框架,点击这里下载。
6.安装pyOpenSSL
pyOpenSSL是Python的OpenSSL接口,点击这里下载。
7.安装win32py
提供win32api,点击这里下载
8.安装Scrapy
终于到了激动人心的时候了!安装了那么多小部件之后终于轮到主角登场。
直接在cmd中输入easy_install scrapy回车即可。
9.检查安装
打开一个cmd窗口,在任意位置执行scrapy命令,得到下列页面,表示环境配置成功。
这里有比较详细的介绍
blog.csdn.net/column/details/why-bug.html
爬虫跟踪下一页的方法是自己模拟点击下一页连接,然后发出新的请求。请看:
item1 = Item()yield item1item2 = Item()yield item2req = Request(url='下一页的链接', callback=self.parse)yield req
注意使用yield时不要用return语句。
相关内容
- 零基础写python爬虫之HTTP异常处理,python异常处理
- 零基础写python爬虫之urllib2中的两个重要概念:Openers和
- 零基础写python爬虫之urllib2使用指南,pythonurllib2
- 使用python开发vim插件及心得分享,pythonvim
- Python爬取Coursera课程资源的详细过程,coursera课程资源
- 使用Python编写简单网络爬虫抓取视频下载资源,python爬
- 零基础写python爬虫之爬虫的定义及URL构成,python爬虫
- 零基础写python爬虫之使用urllib2组件抓取网页内容,py
- Python random模块常用方法,pythonrandom模块
- Python中获取网页状态码的两个方法,python网页
评论关闭