Python 爬虫 之 阅读呼叫转移(二)
Python 爬虫 之 阅读呼叫转移(二)
上一页 返回目录 下一页 都在一个 id 为 footlink 的 div 中,如果想要对每个链接进行匹配的话,会抓取到网页上大量的其他链接,但是 footlink 的 div 只有一个啊!我们可以把这个 div 匹配到,抓下来,然后在这个抓下来的 div 里面再匹配 的链接,这时就只有三个了。只要取最后一个链接就是下一页的 url 的,用这个 url 更新我们抓取的目标 url ,这样就能一直抓到下一页。用户阅读逻辑为每读一个章节后,等待用户输入,如果是 quit 则退出程序,否则显示下一章。
基础知识:
上一篇的基础知识加上 Python 的 thread 模块.
源代码:
# -*- coding: utf-8 -*- import urllib2 import re import thread import chardet class Book_Spider: def __init__(self): self.pages = [] self.page = 1 self.flag = True self.url = http://www.quanben.com/xiaoshuo/10/10412/2095096.html # 将抓取一个章节 def GetPage(self): myUrl = self.url user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' headers = { 'User-Agent' : user_agent } req = urllib2.Request(myUrl, headers = headers) myResponse = urllib2.urlopen(req) myPage = myResponse.read() charset = chardet.detect(myPage) charset = charset['encoding'] if charset == 'utf-8' or charset == 'UTF-8': myPage = myPage else: myPage = myPage.decode('gb2312','ignore').encode('utf-8') unicodePage = myPage.decode(utf-8) # 找出 id=content的div标记 #抓取标题 my_title = re.search('',foot_link,re.S) nextUrl = nextUrl[2][0] # 更新下一次进行抓取的链接 self.url = nextUrl return onePage # 用于加载章节 def LoadPage(self): while self.flag: if(len(self.pages) - self.page < 3): try: # 获取新的页面 myPage = self.GetPage() self.pages.append(myPage) except: print '无法连接网页!' #显示一章 def ShowPage(self,curPage): print curPage['title'] print curPage['content'] print user_input = raw_input(当前是第 %d 章,回车读取下一章或者输入 quit 退出: % self.page) if(user_input == 'quit'): self.flag = False print def Start(self): print u'开始阅读...... ' # 新建一个线程 thread.start_new_thread(self.LoadPage,()) # 如果self的page数组中存有元素 while self.flag: if self.page <= len(self.pages): nowPage = self.pages[self.page-1] self.ShowPage(nowPage) self.page += 1 print u本次阅读结束 #----------- 程序的入口处 ----------- print u --------------------------------------- 程序:阅读呼叫转移 版本:0.2 作者:angryrookie 日期:2014-07-07 语言:Python 2.7 功能:按下回车浏览下一章节 --------------------------------------- print u'请按下回车:' raw_input(' ') myBook = Book_Spider() myBook.Start() (.*?)
',unicodePage,re.S) my_title = my_title.group(1) #抓取章节内容 my_content = re.search('(.*?)',unicodePage,re.S) my_content = my_content.group(1) my_content = my_content.replace( , ) my_content = my_content.replace( , ) #用字典存储一章的标题和内容 onePage = {'title':my_title,'content':my_content} #找到页面下方的连接区域 foot_link = re.search(' (.*?)',unicodePage,re.S) foot_link = foot_link.group(1) #在连接的区域找下一页的连接,根据网页特点为第三个 nextUrl = re.findall(u'(.*?)
评论关闭