pyspider抓取时一下生成几千条链接爬取行不行?,pyspider几千条,如题,在on_start
pyspider抓取时一下生成几千条链接爬取行不行?,pyspider几千条,如题,在on_start
如题,在on_start()的时候直接调用key_word_rank_page()生成几千条链接,并调用self.crawl。在调试的时候没问题,但是实际运行的时候代码跑一会就不动了,数据库就没有数据写入了,taskdb库也看到这个工程的task条数没有增长
@every(minutes=24 * 60) def on_start(self): self.key_word_rank_page() pass def key_word_rank_page(self): i = 0; page 参数从0开始的 while i <= 3000: keywordrank_url = "https://www.douban.com/more/getmore.html?page=%s&genreIds="%(i) self.crawl(url=keywordrank_url, callback=self.process_keyword) i += 1; pass
编橙之家文章,
相关内容
- Python抓取XML携带xmlns 命名空间时如何提取子节点值?,
- pyinstaller打包python程序时出现failed to execute script错误,
- paramiko通过SFTP远程打开带中文文件时的转码error?,p
- python PyQt4中如何在一个子线程(Qthread1)中关闭另一个线程
- python里面pyspdier的result_worker,,pyspdier的 re
- python scrapy shell url 报错状态码521,pythonscrapy,想用scrap
- python打包 如何解决 UAC 权限问题?,pythonuac,写了一个
- 使用 prompt_toolkit 替换原有的 readline 程序正确方法是什
- Python抓取库Scrapy Downloader Middleware中使用Selenium下载页面
- python的flask-socketio实现tail log的问题,flask-socketiotail,问
评论关闭