python爬虫运行一段时间后,返回403 forbidden原因是什么,pythonforbidden,恩。我最近在弄个爬虫的程
python爬虫运行一段时间后,返回403 forbidden原因是什么,pythonforbidden,恩。我最近在弄个爬虫的程
恩。我最近在弄个爬虫的程序,主要是弄来玩玩
是用python写的程序。目前遇到的问题是爬虫爬一会儿就会被返回
403 forbidden
这时,我依然可以使用浏览器访问该网页(爬虫处理到的页面)
于是我想到了修改USER-AGENT来伪装浏览器访问的效果
但是依旧是程序403,且浏览器可以访问。
请问,这是怎么回事,有什么办法可以解决吗?谢谢!
关于连接部分的代码是这样:(python3)
import urllib.requestreq = urllib.request.Request('http://www.xxx.com')req.add_header("User-Agent","Mozilla/5.0 (Windows NT 6.1; rv:7.0) Gecko/20100101 Firefox/7.0")rec = urllib.request.urlopen(req).read().decode('utf8')
然后就会返回403了
谢谢!
短时间里访问次数过多造成的,设置规则,隔段时间访问
跟你的USER-AGENT没什么关系,一般网站都会自动屏蔽一段时间内访问量过大的ip。所以你有两个解决方案
慢点抓,设置一个sleep时间,隔一段时间访问一次使用多个服务器抓取,这样可以有多个ip,不过访问速度也不要太快了一般网站没什么可能会用USER-AGENT来过滤的,但爬虫要尽量模拟浏览器的行为直到可以达到目的,python已经内建支持很多浏览器的特性了.下面是我用来抓某个需要登录的网站的代码,用了cookielib.
cj = cookielib.MozillaCookieJar(cookiefile)opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))data ={'csrfmiddlewaretoken' : '', 'username' : username, 'password' : password, 'login' : '登录', 'continue' : 'home', 'u' : '1', 'next' : '' } url="/accounts/login/" request = urllib2.Request(__get_full_url(url)) response = opener.open(request) for cookie in cj: if cookie.name == 'csrftoken': data['csrfmiddlewaretoken'] = cookie.value break params = urllib.urlencode(data)#不能直接处理<unicode> objects request = urllib2.Request(__get_full_url(url),data=params) opener.open(request) #保存登录状态,然后可以用这个opener,想干嘛就干嘛 cj.save(ignore_discard=True, ignore_expires=True)#保存cookie方便下次使用
当然具体案例要具体分析,善用抓包工具,推荐wireshark,留意header,cookie,post,有些网站会利用重定向的时候设置cookie.再不行就分析js代码.
到这一步大多数网站都逃不过你初有所成的咸猪手了.
如果有验证码,哈哈,那就修炼pyBrain吧.祝你早日炼成盖世咸猪手.
请问 怎么解决 页面资料分页的问题。
编橙之家文章,
相关内容
- Python实时数据更新解决方法,python实时数据,比如,实现
- pip安装之后无法正常使用环境变量已配置,pip环境变量
- import test.py不能执行又不报错是什么原因,importtest.py
- Flask捕获web用户点赞行为希望各位指导,flaskweb,最近在
- 有没有可以直接上传到FTP上的python方法,ftppython,AppFo
- python程序汇总mysql前一天的写入的数据 怎么操作,pyt
- Python列表满足多重条件设置问题,python列表满足,现有一
- Python解决微信平台接口乱码问题,python平台接口乱码
- flask web项目能通过cmd命令行查看错误代码吗?,flaskcmd
- 关于web.py性能优化方法大家闲聊讨论下,web.py性能优化
评论关闭