今天不知道写点什么,想到金9银10了写一篇抓取拉勾网我们软件测试工程师的薪资~~
爬取拉勾网职业信息
分析网站信息
1、打开拉勾网,输入我们想要查找的职位
2、通过抓包工具或者开发者工具查看请求数据
发现是请求地址:https://www.lagou.com/jobs/positionAjax.json?city=%E4%B8%8A%E6%B5%B7&needAddtionalResult=false
通过post形式请求的,请求参数也可以看到
4、分析页面数据
通过分析,数据已json的格式存在preview中
怎么获取数据呢? 我们可以通过获取返回的json内容,通过json的内容找到我们想要的数据
3、通过requests发送post请求
首先直接请求requests拉勾网信息,添加请求头。
发现会提示请求频繁无法获取网站信息,那这样怎么去搞?
前面小编写过一个通过session会话请求的数据,那么我们今天来试试
首先请求我们网页显示的信息获取cookies值,携带这网页的cookies再去请求我们需要爬取的url
import requests # 请求地址 url = 'https://www.lagou.com/jobs/positionAjax.json?city=%E4%B8%8A%E6%B5%B7&needAddtionalResult=false' # 请求头 headers = { 'Accept': "application/json, text/javascript, */*; q=0.01", 'User-Agent': "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36", 'Referer':'https://www.lagou.com/jobs/list_%E8%BD%AF%E4%BB%B6%E6%B5%8B%E8%AF%95%E5%B7%A5%E7%A8%8B%E5%B8%88?city=%E4%B8%8A%E6%B5%B7&cl=false&fromSearch=true&labelWords=&suginput=' } # 请求参数 form_data = { 'first': 'true', 'pn': 1, 'kd': '软件测试工程师' } # 导入session回话 s = requests.session() # 请求页面地址获取cookies url_list = 'https://www.lagou.com/jobs/list_%E8%BD%AF%E4%BB%B6%E6%B5%8B%E8%AF%95%E5%B7%A5%E7%A8%8B%E5%B8%88?city=%E4%B8%8A%E6%B5%B7&cl=false&fromSearch=true&labelWords=&suginput=' s.get(url_list, headers=headers) cookie = s.cookies # 携带cookies值继续请求 response = s.post(url, data=form_data, headers=headers,cookies=cookie) job_json = response.json() # 获取json数据 print(job_json)
通过观察返回的json数据我们得知我们需要的数据都在result数据里面,那么通过json的方式我们可以提取出来,放到一个列表中,方便稍后我们写入csv文件中
csv_data = [] for i in job_list: job_info = [] job_info.append(i['positionName']) # 职位 job_info.append(i['companyShortName']) # 公司 job_info.append(i['salary']) # 薪资 job_info.append(i['education']) # 学历 job_info.append(i['district']) # 位置 job_info.append(i['workYear']) # 工作经验要求 job_info.append(i['positionAdvantage']) # 福利待遇 csv_data.append(job_info)
4、数据写入csv文件中
写入csv文件写过很多次了,基本上都是一样的
csvfile = open('软件职业.csv', 'a+',encoding='utf-8-sig',newline='') writer = csv.writer(csvfile) writer.writerows(csv_data) csvfile.close()
5、构建分页列表,爬取全部数据
通过观察分页的控制是在form_data中,我们呢就模拟分页内容,爬取全部数据
all = [] for page_num in range(1, 30): result = data(page=page_num) # 获取一共多少个数据 all += result print('已抓取{}页, 总职位数:{}'.format(page_num, len(all)))
完整代码
# coding:utf-8 import requests import csv import time def data(page): s = requests.session() url = 'https://www.lagou.com/jobs/positionAjax.json?city=%E4%B8%8A%E6%B5%B7&needAddtionalResult=false' headers = { 'Accept': "application/json, text/javascript, */*; q=0.01", 'User-Agent': "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36", 'Referer':'https://www.lagou.com/jobs/list_%E8%BD%AF%E4%BB%B6%E6%B5%8B%E8%AF%95%E5%B7%A5%E7%A8%8B%E5%B8%88?city=%E4%B8%8A%E6%B5%B7&cl=false&fromSearch=true&labelWords=&suginput=' } form_data = { 'first': 'true', 'pn': page, 'kd': '软件测试工程师' } url_list = 'https://www.lagou.com/jobs/list_%E8%BD%AF%E4%BB%B6%E6%B5%8B%E8%AF%95%E5%B7%A5%E7%A8%8B%E5%B8%88?city=%E4%B8%8A%E6%B5%B7&cl=false&fromSearch=true&labelWords=&suginput=' s.get(url_list, headers=headers,timeout=3) cookie = s.cookies response = s.post(url, data=form_data, headers=headers,cookies=cookie,timeout=3) response.raise_for_status() response.encoding = response.apparent_encoding job_json = response.json() job_list = job_json['content']['positionResult']['result'] csv_data = [] for i in job_list: job_info = [] job_info.append(i['positionName']) # 职位 job_info.append(i['companyShortName']) # 公司 job_info.append(i['salary']) # 薪资 job_info.append(i['education']) # 学历 job_info.append(i['district']) # 位置 job_info.append(i['workYear']) # 工作经验要求 job_info.append(i['positionAdvantage']) # 福利待遇 csv_data.append(job_info) print(csv_data) csvfile = open('软件职业.csv', 'a+',encoding='utf-8-sig',newline='') writer = csv.writer(csvfile) writer.writerows(csv_data) csvfile.close() return csv_data if __name__ == '__main__': a = [('职位','公司','薪资','学历','位置','工作经验要求','福利待遇')] csvfile = open('软件职业.csv', 'a+',encoding='utf-8-sig',newline='') writer = csv.writer(csvfile) writer.writerows(a) csvfile.close() all_company = [] for page_num in range(1, 100): result = data(page=page_num) all_company += result print('已抓取{}页, 总职位数:{}'.format(page_num, len(all_company))) time.sleep(15) # 如果速度太快可能被网站识别出爬虫
抓取的结果:
看到我们测试工资这么高,好心动,~~~~~
注意,不要请求太过于频繁,会认为爬虫封IP的。
如果感觉喜欢的话,右下角点个关注~~~
版权声明:
本站所有资源均为站长或网友整理自互联网或站长购买自互联网,站长无法分辨资源版权出自何处,所以不承担任何版权以及其他问题带来的法律责任,如有侵权或者其他问题请联系站长删除!站长QQ754403226 谢谢。
- 上一篇: TestFlight进行测试
- 下一篇: SpringCloud之Eureka注册中心原理及其搭建