python之web模块学习-- urllib


准备写一些列的 python之web模块学习,基本上涉及常用的的web模块,包括 urllib、urllib2、httplib、urlparse、requests,现在,开始我们的第一个模块的学习吧。
  1  urllib简介 
    python urllib 模块提供了一个从指定的URL地址获取网页数据,然后对其进行分析处理,获取我们想要的数据。
 
  2  常用方法
    2.1  urlopen  -- 创建一个类文件对象 为读取指定的URL
 
help(urllib.urlopen)
 
urlopen(url, data=None, proxies=None)
    Create a file-like object for the specified URL to read from.
参数:
    url :表示远程数据的路径,一般是http或者ftp路径。
    data :表示以get或者post方式提交到url的数据。
    proxies :表示用于代理的设置。
 
Python 通过urlopen函数来获取html数据,urlopen返回一个类文件对象,它提供了如下常用方法:
    1)read() , readline() , readlines(),fileno()和close():这些方法的使用与文件对象完全一样。
    2)info():返回一个httplib.HTTPMessage 对象,表示远程服务器返回的头信息。
    3)getcode():返回Http状态码,如果是http请求,200表示请求成功完成;404表示网址未找到。
    4)geturl():返回请求的url地址。
附代码:
>>> import urllib
>>> response = urllib.urlopen('http://www.51cto.com') 
>>>res.read()
。。。。。。(一堆网页代码)
>>>res.readline()
'<!DOCTYPE html PUBLIC "-//W3C//DTDXHTML 1.0 Transitional//EN""http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd">\r\n' 
。。。。
>>>res.readlines()
。。。(list形式的一堆网页代码)
>>>res.info()
<httplib.HTTPMessage instance at0x1a02638>
>>> response.getcode()  # 返回Http状态码
    200
>>> response.geturl() # 返回请求的url地址 
    'http://www.51cto.com'
>>> response.close() # 最后别忘了关闭连接

 

    urllib中还提供了一些辅助方法,用于对url进行编码、解码。url中是不能出现一些特殊的符号的,有些符号有特殊的用途。我们知道以get方式提交数据的时候,会在url中添加key=value这样的字符串,所以在value中是不允许有'=',因此要对其进行编码;与此同时服务器接收到这些参数的时候,要进行解码,还原成原始的数据。这个时候,这些辅助方法会很有用:
    附带的其他方法:(主要是url编码解码)
 
- urllib.quote(string[, safe]):对字符串进行编码。参数safe指定了不需要编码的字符
- urllib.unquote(string) :对字符串进行解码
- urllib.quote_plus(string [ , safe ] ) :与urllib.quote类似,但这个方法用'+'来替换' ',而quote用'%20'来代替' '
- urllib.unquote_plus(string ) :对字符串进行解码
- urllib.urlencode(query[, doseq]):将dict或者包含两个元素的元组列表转换成url参数。例如 字典{'name': 'wklken', 'pwd':'123'}将被转换为"name=wklken&pwd=123"  (常用)
#这里可以与urlopen结合以实现post方法和get方法
- urllib.pathname2url(path):将本地路径转换成url路径
- urllib.url2pathname(path):将url路径转换成本地路径
附代码:
 
>>> import urllib
>>>res = urllib.quote('I am 51cto')
>>> res
'I%20am%2051cto'
>>>urllib.unquote(res)
'I am 51cto'
>>>res = urllib.quote_plus('I am 51cto')
>>> res
'I+am+51cto'
>>>urllib.unquote_plus(res)
'I am 51cto'
>>> params = {'name':'51cto','pwd':'51cto'}
>>>urllib.urlencode(params)
'pwd=51cto&name=51cto'
>>>l2u=urllib.pathname2url('E:\51cto')
'E%3A%29cto'
>>>urllib.url2pathname(l2u)
'E:)cto'

 

    2.2 urlretrieve -- 直接将远程的数据下载到本地
 
help(urllib.urlretrieve)
urlretrieve(url, filename=None,reporthook=None, data=None)
参数:
    url :指定下载的URL
    finename :指定了保存本地路径(如果参数未指定,urllib会生成一个临时文件保存数据。
    reporthook :是一个回调函数,当连接上服务器、以及相应的数据块传输完毕时会触发该回调,我们可以利用这个回调函数来显示当前的下载进度。
    data: 表示post到服务器的数据,该方法返回一个包含两个元素的(filename,headers)元组,
    下面是一个 urlretrieve方法下载文件的实例,可以显示下载进度:
 
#!/usr/bin/env python
# -*- coding: utf-8 -*-
 
import urllib
import os
 
def schedule(a,b,c):
    ''' 回调函数
    @a:已经下载的数据
    @b:数据块的大小
    @c:远程文件的大小
    '''
    per = 100.0 * a * b / c
    if per > 100:
        per = 100
    print "%.2f%%" % per
url = 'http://www.python.org/ftp/python/2.7.5/Python-2.7.5.tar.bz2'
local = os.path.join('c:','Python-2.7.5.tar.bz2')
urllib.urlretrieve(url,local,schedule)
    2.3  urlcleanup -- 清除由于urllib.urlretrieve()所产生的缓存

 

 
    通过上面的练习可以知道,urlopen可以轻松获取远端html页面信息,然后通过python正则对所需要的数据进行分析,匹配出想要用的数据,然后利用urlretrieve将数据下载到本地。对于访问受限或者对连接数有限制的远程url地址可以采用proxies(代理的方式)连接,如果远程数据量过大,单线程下载太慢的话可以采用多线程下载,这个就是传说中的爬虫。
    上面介绍的前两个方法是urllib中最常用的方法,这些方法在获取远程数据的时候,内部会使用URLopener或者 FancyURLOpener类。作为urllib的使用者,我们很少会用到这两个类。如果对urllib的实现感兴趣,或者希望urllib支持更多的协议,可以研究这两个类。在Python手册中,urllib的作者还列出了这个模块的缺陷和不足,感兴趣的可以打开 Python手册了解一下。

评论关闭