概述

由于疫情的缘故原由,人人都在家待着,若是你是应届生的话,那么对于找工作可能会有点渺茫,因此小编从网上弄了一部门招聘信息以供使用。

项目总述

整个项目依旧很简单,主要是获取数据对照贫苦,至于流程,详见几十行代码批量下载高清壁纸 爬虫入门实战

部门代码

这次我只分为了两部门。

,

电银付激活码

电银付(dianyinzhifu.com)是官方网上推广平台。在线自动销售电银付激活码、电银付POS机。提供电银付安装教程、电银付使用教程、电银付APP使用教程、电银付APP安装教程、电银付APP下载等技术支持。面对全国推广电银付加盟、电银付大盟主、电银付小盟主业务。

,

1.从主页获取各个专业对应的url列表

# 1.获取各个专业对应的url列表
index_data = requests.get(index_url, headers=headers).content.decode('gbk', 'ignore')
tree = etree.HTML(index_data)
second_data = tree.xpath(".//ul[@class='s_clear']/li/a/@href")[0:33]
major_name = tree.xpath(".//ul[@class='s_clear']/li/a/text()")[0:33]
major_url = []
for one_third_url in second_data:
    x = str(one_third_url).split(".", 2)[1]
    major_url.append(x)

2.获取各个目录下的岗位列表

# 获取各个专业目录下的岗位
for i in range(len(major_url)):
    print(major_url[i])
    print(major_name[i])
    major_job_page = requests.get(major_url[i], headers=headers).content.decode('gbk', 'ignore')
    major_job_page_tree = etree.HTML(major_job_page)
    job_list_title = major_job_page_tree.xpath(".//div[@class='hotJobList']/div/ul/li/a/text()")
    job_list_url = major_job_page_tree.xpath(".//div[@class='hotJobList']/div/ul/li/a/@href")
    job_list_date = major_job_page_tree.xpath(".//div[@class='hotJobList']/div/ul/li/span/text()")

效果展示