Python爬虫:数据抓取工具及类库详解,如何用爬虫抓取数据


前言

文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。

作者: ncepu_Chen

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

http://note.youdao.com/noteshare?id=3054cce4add8a909e784ad934f956cef

数据抓取的命令行工具

curl

curl是一个利用URL语法在命令行下进行网络通信的工具,类似于一个命令行版本的浏览器,但不会对页面进行渲染.其用法很简单,直接在命令行中输入curl [URL地址] [参数]即可,如:

curl https://www.baidu.com

其常用参数如下: 在这里插入图片描述 wget

wget也是一个利用URL语法在命令行环境下进行文件传输的工具,其基本用法为wget [URL地址] [参数],如:

wget https://www.baidu.com

其常用参数如下: 在这里插入图片描述 下面例子演示如何使用wget镜像一个网站到本地并启动:

使用wget --mirror命令将整个网站的镜像下载到本地

wget --mirror -p --convert-links http://www.httpbin.org

切换到下载好的资源目录下,使用Python自带的http.server模块开启一个微型服务器

python -m http.server

访问localhost:8000,即可访问我们搭建在本机上的镜像网站.

数据抓取的Python库

Python中有两个常用的抓取数据的库:urllib和requests.其中requests库封装了urllib库,且比urllib库更为优雅.因此,我们可以直接学习requests库.

requests库

request库的应用比较简单,下面是官方提供的一段示例代码:

r = requests.get('https://api.github.com/user', auth=('user', 'pass'))
r.status_code # 返回 200
r.headers['content-type'] # 返回 'application/json; charset=utf8'
r.encoding # 返回 'utf-8'
r.text # 返回 u'{"type":"User"...'
r.json() # 返回 {u'private_gists': 419, u'total_private_repos': 77, ...}

requests库的简单使用

发送HTTP请求

下面几个方法可以发送HTTP请求,对应于HTTP的各种请求类型

  • requests.get(url, params=None, **kwargs)

  • requests.post(url, data=None, json=None, **kwargs)

  • requests.put(url, data=None, **kwargs)

  • requests.delete(url, **kwargs)

  • requests.head(url, **kwargs)

  • requests.options(url, **kwargs)

上面六个方法分别对应HTTP请求类型中的GET,POST,PUT,DELETE,HEAD和OPTIONS,各参数意义如下:

  • url: 请求的URL地址.

  • params: GET请求放进URL中的请求参数,以字典形式存储.

  • data: 请求体中的数据.

  • **kwargs: 该请求需要的其他参数,包括:

  • headers: 以字典格式存储的请求头内容.

  • json: 以字典形式存储的请求体中数据,等同于data参数

  • cookies: 以字典形式存储的cookies.

  • allow_redirects: 是否允许重定向,为一个布尔值

  • timeout: 设置超时时间,单位为秒

  • auth: 设置身份认证信息

解析HTTP响应

上述requests.get(), requests.post(), requests.put(), requests.delete(), requests.head(), requests.options()方法都会返回一个requests.models.Response对象,该对象封装了HTTP响应报文,该对象提供了下述常用方法和属性用于解析HTTP响应.

解析响应状态的属性和方法

url: 表示该HTTP请求的URL.

payload = {'key1': 'value1', 'key2': ['value2', 'value3']}
r = requests.get('http://httpbin.org/get', params=payload)

r.url # 得到 http://httpbin.org/get?key1=value1&key2=value2&key2=value3
  • tatus_code: 该HTTP响应的状态码.

  • reason: 响应状态码的说明.

解析响应内容的属性和方法:

  • encoding: 该HTTP响应的编码.

  • content: 该HTTP响应的内容.

  • text: 该HTTP响应的文本.根据r.encoding设置的编码格式对r.content进行解码得到.

  • .json(): 将json格式的相应内容解析为字典,若解析失败则抛出ValueError异常.

解析响应头的属性和方法:

  • headers: 以字典形式返回HTTP响应头,该字典的特殊之处在于其不区分键的大小写.

r.headers['Content-Type']       # 得到 'application/json'
r.headers.get('content-type') # 得到 'application/json'

报错

  • 遇到网络问题(如DNS 查询失败、拒绝连接等)时,抛出一个ConnectionError异常.

  • 若HTTP请求返回了不成功的状态码(4xx或5xx),调用Response对象的raise_for_status() 会抛出一个HTTPError异常.

  • 若请求超时,则抛出一个Timeout异常.

  • 若请求超过了设定的最大重定向次数,则会抛出一个TooManyRedirects异常.

上述所有异常都继承自requests.exceptions.RequestException .

相关内容

    暂无相关文章

评论关闭