Python模拟登录实战,采集整站表格数据,excel表格排版美观


本节主要内容有:

  • 通过requests库模拟表单提交
  • 通过pandas库提取网页表格

上周五,大师兄发给我一个网址,哭哭啼啼地求我:“去!把这个网页上所有年所有县所有作物的数据全爬下来,存到Access里!”

我看他可怜,勉为其难地挥挥手说:“好嘞,马上就开始!”

目标分析

大师兄给我的网址是这个:https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg

打开长这样:

Python模拟登录实战,采集整站表格数据

根据我学爬虫并不久的经验,通常只要把年月日之类的参数附加到url里面去,然后用requests.get拿到response解析html就完了,所以这次应该也差不多——除了要先想办法获得具体有哪些年份、地名、作物名称,其他部分拿以前的代码稍微改改就能用了,毫无挑战性工作,生活真是太无聊了

点击 View Summary 后出现目标网页长这样

Python模拟登录实战,采集整站表格数据

那个大表格的数据就是目标数据了,好像没什么了不起的——

有点不对劲

目标数据所在网页的网址是这样的:https://www.ctic.org/crm/?action=result ,刚刚选择的那些参数并没有作为url的参数啊!网址网页都变了,所以也不是ajax

这和我想象的情况有巨大差别啊

尝试获取目标页面

让我来康康点击View Summary这个按钮时到底发生了啥:右键View Summary检查是这样:

Python模拟登录实战,采集整站表格数据

实话说,这是我第一次遇到要提交表单的活儿。以前可能是上天眷顾我,统统get就能搞定,今天终于让我碰上一个post了。

点击View Summary,到DevTools里找network第一条:

Python模拟登录实战,采集整站表格数据

不管三七二十一,post一下试试看

  1. import requests 
  2.   
  3. url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg' 
  4. headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 
  5.            'AppleWebKit/537.36 (KHTML, like Gecko) ' 
  6.            'Chrome/74.0.3729.131 Safari/537.36', 
  7.            'Host': 'www.ctic.org'} 
  8. data = {'_csrf': 'SjFKLWxVVkkaSRBYQWYYCA1TMG8iYR8ReUYcSj04Jh4EBzIdBGwmLw==', 
  9.         'CRMSearchForm[year]': '2011', 
  10.         'CRMSearchForm[format]': 'Acres', 
  11.         'CRMSearchForm[area]': 'County', 
  12.         'CRMSearchForm[region]': 'Midwest', 
  13.         'CRMSearchForm[state]': 'IL', 
  14.         'CRMSearchForm[county]': 'Adams', 
  15.         'CRMSearchForm[crop_type]': 'All', 
  16.         'summary': 'county'} 
  17. response = requests.post(url, data=data, headers=headers) 
  18. print(response.status_code) 

果不其然,输出400……我猜这就是传说中的cookies在搞鬼吗?《Python3网络爬虫实战》只看到第6章的我不禁有些心虚跃跃欲试呢!

首先,我搞不清cookies具体是啥,只知道它是用来维持会话的,应该来自于第一次get,搞出来看看先:

  1. response1 = requests.get(url, headers=headers) 
  2. if response1.status_code == 200: 
  3.     cookies = response1.cookies 
  4.     print(cookies) 

输出:

  1. <RequestsCookieJar[<Cookie PHPSESSID=52asgghnqsntitqd7c8dqesgh6 for www.ctic.org/>, <Cookie _csrf=2571c72a4ca9699915ea4037b967827150715252de98ea2173b162fa376bad33s%3A32%3A%22TAhjwgNo5ElZzV55k3DMeFoc5TWrEmXj%22%3B for www.ctic.org/>]> 

Nah,看不懂,不看不管,直接把它放到post里试试

  1. response2 = requests.post(url, data=data, headers=headers, cookies=cookies) 
  2. print(response2.status_code) 

还是400,气氛突然变得有些焦灼,我给你cookies了啊,你还想要啥?!

突然,我发现一件事:post请求所带的data中那个一开始就显得很可疑的_csrf我仿佛在哪儿见过?

那个我完全看不懂的cookies里好像就有一个_csrf啊!但是两个_csrf的值很明显结构不一样,试了一下把data里的_csrf换成cookies里的_csrf确实也不行。

但是我逐渐有了一个想法:这个两个_csrf虽然不相等,但是应该是匹配的,我刚刚的data来自浏览器,cookies来自python程序,所以不匹配!

于是我又点开浏览器的DevTools,Ctrl+F搜索了一下,嘿嘿,发现了:

Python模拟登录实战,采集整站表格数据

Python模拟登录实战,采集整站表格数据

这三处。

第一处那里的下一行的csrf_token很明显就是post请求所带的data里的_csrf,另外两个是js里的函数,虽然js没好好学但也能看出来这俩是通过post请求获得州名和县名的,Binggo!一下子解决两个问题。

为了验证我的猜想,我打算先直接用requests获取点击View Summary前的页面的HTML和cookies,将从HTML中提取的csrf_token值作为点击View Summary时post请求的data里的_csrf值,同时附上cookies,这样两处_csrf就应该是匹配的了:

  1. from lxml import etree 
  2. response1 = requests.get(url, headers=headers) 
  3. cookies = response1.cookies 
  4. html = etree.HTML(response1.text) 
  5. csrf_token = html.xpath('/html/head/meta[3]/@content')[0] 
  6. data.update({'_csrf': csrf_token}) 
  7. response2 = requests.post(url, data=data, headers=headers, cookies=cookies) 
  8. print(response2.status_code) 

输出200,虽然和Chrome显示的302不一样,但是也表示成功,那就不管了。把response2.text写入html文件打开看是这样:

Python模拟登录实战,采集整站表格数据

Yeah,数据都在!说明我的猜想是对的!那一会再试试我从没用过的requests.Session()维持会话,自动处理cookies。

尝试pandas库提取网页表格

现在既然已经拿到了目标页面的HTML,那在获取所有年、地区、州名、县名之前,先测试一下pandas.read_html提取网页表格的功能。

pandas.read_html这个函数时在写代码时IDE自动补全下拉列表里瞄到的,一直想试试来着,今天乘机拉出来溜溜:

  1. import pandas as pd 
  2. df = pd.read_html(response2.text)[0] 
  3. print(df) 

输出:

Python模拟登录实战,采集整站表格数据

Yeah!拿到了,确实比自己手写提取方便,而且数值字符串自动转成数值,优秀!

准备所有参数

接下来要获取所有年、地区、州名、县名。年份和地区是写死在HTML里的,直接xpath获取:

Python模拟登录实战,采集整站表格数据

州名、县名根据之前发现的两个js函数,要用post请求来获得,其中州名要根据地区名获取,县名要根据州名获取,套两层循环就行

  1. def new(): 
  2.     session = requests.Session() 
  3.     response = session.get(url=url, headers=headers) 
  4.     html = etree.HTML(response.text) 
  5.     return session, html 
  6.   
  7. session, html = new() 
  8. years = html.xpath('//*[@id="crmsearchform-year"]/option/text()') 
  9. regions = html.xpath('//*[@id="crmsearchform-region"]/option/text()') 
  10. _csrf = html.xpath('/html/head/meta[3]/@content')[0] 
  11. region_state = {} 
  12. state_county = {} 
  13. for region in regions: 
  14.     data = {'region': region, '_csrf': _csrf} 
  15.     response = session.post(url_state, data=data) 
  16.     html = etree.HTML(response.json()) 
  17.     region_state[region] = {x: y for x, y in 
  18.                             zip(html.xpath('//option/@value'), 
  19.                                 html.xpath('//option/text()'))} 
  20.     for state in region_state[region]: 
  21.         data = {'state': state, '_csrf': _csrf} 
  22.         response = session.post(url_county, data=data) 
  23.         html = etree.HTML(response.json()) 
  24.         state_county[state] = html.xpath('//option/@value') 

啧啧,使用requests.Session就完全不需要自己管理cookies了,方便!具体获得的州名县名就不放出来了,实在太多了。然后把所有年、地区、州名、县名的可能组合先整理成csv文件,一会直接从csv里读取并构造post请求的data字典:

  1. remain = [[str(year), str(region), str(state), str(county)] 
  2.          for year in years for region in regions 
  3.          for state in region_state[region] for county in state_county[state]] 
  4. remain = pd.DataFrame(remain, columns=['CRMSearchForm[year]', 
  5.                                        'CRMSearchForm[region]', 
  6.                                        'CRMSearchForm[state]', 
  7.                                        'CRMSearchForm[county]']) 
  8. remain.to_csv('remain.csv', index=False) 
  9. # 由于州名有缩写和全称,也本地保存一份 
  10. import json 
  11. with open('region_state.json', 'w') as json_file: 
  12.         json.dump(region_state, json_file, indent=4) 

我看了一下,一共49473行——也就是说至少要发送49473个post请求才能爬完全部数据,纯手工获取的话大概要点击十倍这个数字的次数……

正式开始

那么开始爬咯

  1. import pyodbc 
  2. with open("region_state.json") as json_file: 
  3.     region_state = json.load(json_file) 
  4. data = pd.read_csv('remain.csv') 
  5. # 读取已经爬取的 
  6. cnxn = pyodbc.connect('DRIVER={Microsoft Access Driver (*.mdb, *.accdb)};' 
  7.                       'DBQ=./ctic_crm.accdb') 
  8. crsr = cnxn.cursor() 
  9. crsr.execute('select Year_, Region, State, County from ctic_crm') 
  10. done = crsr.fetchall() 
  11. done = [list(x) for x in done] 
  12. done = pd.DataFrame([list(x) for x in done], columns=['CRMSearchForm[year]', 
  13.                                                       'CRMSearchForm[region]', 
  14.                                                       'CRMSearchForm[state]', 
  15.                                                       'CRMSearchForm[county]']) 
  16. done['CRMSearchForm[year]'] = done['CRMSearchForm[year]'].astype('int64') 
  17. state2st = {y: x for z in region_state.values() for x, y in z.items()} 
  18. done['CRMSearchForm[state]'] = [state2st[x] 
  19.                                 for x in done['CRMSearchForm[state]']] 
  20. # 排除已经爬取的 
  21. remain = data.append(done) 
  22. remain = remain.drop_duplicates(keep=False) 
  23. total = len(remain) 
  24. print(f'{total} left.n') 
  25. del data 
  26.   
  27. # %% 
  28. remain['CRMSearchForm[year]'] = remain['CRMSearchForm[year]'].astype('str') 
  29. columns = ['Crop', 
  30.            'Total_Planted_Acres', 
  31.            'Conservation_Tillage_No_Till', 
  32.            'Conservation_Tillage_Ridge_Till', 
  33.            'Conservation_Tillage_Mulch_Till', 
  34.            'Conservation_Tillage_Total', 
  35.            'Other_Tillage_Practices_Reduced_Till15_30_Residue', 
  36.            'Other_Tillage_Practices_Conventional_Till0_15_Residue'] 
  37. fields = ['Year_', 'Units', 'Area', 'Region', 'State', 'County'] + columns 
  38. data = {'CRMSearchForm[format]': 'Acres', 
  39.         'CRMSearchForm[area]': 'County', 
  40.         'CRMSearchForm[crop_type]': 'All', 
  41.         'summary': 'county'} 
  42. headers = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) ' 
  43.            'AppleWebKit/537.36 (KHTML, like Gecko) ' 
  44.            'Chrome/74.0.3729.131 Safari/537.36', 
  45.            'Host': 'www.ctic.org', 
  46.            'Upgrade-Insecure-Requests': '1', 
  47.            'DNT': '1', 
  48.            'Connection': 'keep-alive'} 
  49. url = 'https://www.ctic.org/crm?tdsourcetag=s_pctim_aiomsg' 
  50. headers2 = headers.copy() 
  51. headers2 = headers2.update({'Referer': url, 
  52.                             'Origin': 'https://www.ctic.org'}) 
  53. def new(): 
  54.     session = requests.Session() 
  55.     response = session.get(url=url, headers=headers) 
  56.     html = etree.HTML(response.text) 
  57.     _csrf = html.xpath('/html/head/meta[3]/@content')[0] 
  58.     return session, _csrf 
  59. session, _csrf = new() 
  60. for _, row in remain.iterrows(): 
  61.     temp = dict(row) 
  62.     data.update(temp) 
  63.     data.update({'_csrf': _csrf}) 
  64.     while True: 
  65.         try: 
  66.             response = session.post(url, data=data, headers=headers2, timeout=15) 
  67.             break 
  68.         except Exception as e: 
  69.             session.close() 
  70.             print(e) 
  71.             print('nSleep 30s.n') 
  72.             time.sleep(30) 
  73.             session, _csrf = new() 
  74.             data.update({'_csrf': _csrf}) 
  75.   
  76.     df = pd.read_html(response.text)[0].dropna(how='all') 
  77.     df.columns = columns 
  78.     df['Year_'] = int(temp['CRMSearchForm[year]']) 
  79.     df['Units'] = 'Acres' 
  80.     df['Area'] = 'County' 
  81.     df['Region'] = temp['CRMSearchForm[region]'] 
  82.     df['State'] = region_state[temp['CRMSearchForm[region]']][temp['CRMSearchForm[state]']] 
  83.     df['County'] = temp['CRMSearchForm[county]'] 
  84.     df = df.reindex(columns=fields) 
  85.     for record in df.itertuples(index=False): 
  86.         tuple_record = tuple(record) 
  87.         sql_insert = f'INSERT INTO ctic_crm VALUES {tuple_record}' 
  88.         sql_insert = sql_insert.replace(', nan,', ', null,') 
  89.         crsr.execute(sql_insert) 
  90.         crsr.commit() 
  91.     print(total, row.to_list()) 
  92.     total -= 1 
  93. else: 
  94.     print('Done!') 
  95.     crsr.close() 
  96.     cnxn.close() 

注意中间有个try...except..语句,是因为不定时会发生Connection aborted的错误,有时9000次才断一次,有时一次就断,这也是我加上了读取已经爬取的和排除已经爬取的原因,而且担心被识别出爬虫,把headers写的丰富了一些(好像并没有什么卵用),并且每次断开都暂停个30s并重新开一个会话

Python模拟登录实战,采集整站表格数据

然后把程序开着过了一个周末,命令行里终于打出了Done!,到Access里一看有816288条记录,心想:下次试试多线程(进程)和代理池。

周一,我把跑出来的数据发给大师兄,大师兄回我:“好的”。

隔着屏幕我都能感受到滔滔不绝的敬仰和感激之情,一直到现在,大师兄都感动地说不出话来。

评论关闭