下载漫画,,其他的下载漫画好办,这个


其他的下载漫画好办,这个网站有点麻烦,抱着学习态度就能它了。(不折腾,不成活)

有几个问题

1就是有没有python内能够执行javascprit的包,有的话就方便多了,还有我的js刚学对这个网站的js不是很熟悉那个大神来看看这个网站关于定向漫画图片的javascript的代码

#!/usr/bin/env pyhton#coding:utf-8import urllib2import reimport urllibimport timedef dl(url,mh,cao):    req=urllib2.Request(url)    req.add_header('Referer',cao)    res=urllib2.urlopen(req)    f=open(mh,'w')    f.write(res.read())    f.close()    res.close()def jishu(url,url1,num,ri):    req=urllib2.Request(url)    req.add_header('Referer',url1)    fi=urllib2.urlopen(req)    down='http://c4.mangafiles.com/pictures/46/'+str(num)+'/'    mat=re.compile(r'<option value="')    for i in fi:        a=len(re.findall(mat,i))    for i in range(1,a+1):        if i<10:            mh="00"+str(i)+'.jpg'        elif i<100:            mh="0"+str(i)+'.jpg'        else:            mh=str(i)+'.jpg'        dl(down+mh,mh,ri)        time.sleep(0.9)    fi.close()try:    l=[]    n=[]    sum_page=0    a=0    tmp="http://www.imanhua.com/"    url="http://www.imanhua.com/comic/46/" #这里可以改为用raw_input输入    f=urllib2.urlopen(url)    mat=re.compile(r'<a href="(/comic/\\d+/list_\\d+\\.html)"')    for i in f:        l=re.findall(mat,i)    for i in l:        mat=re.compile(r'.*?list_(\\d+).*?')        match=mat.search(i)        if match:            n.append(match.group(1))        sum_page=sum_page+1        cao=tmp+i        jishu(cao,url,n[a],tmp+i)        a+=1        break    f.close()except Exception as e:    print e#该片段来自于http://byrx.net

评论关闭