此篇文章中介绍基于requests模块,实现对在响应内容中嵌入JS,真实的url地址进行跳转后数据的爬取,并以爬取行政区划代码数据为例进行讲解。
抓取民政部网站最新行政区划代码
一级页面:
二级页面:
确认所抓数据在响应内容中是否存在
一级页面抓取数据:
二级页面抓取数据:
分析url地址规律
一级页面的url地址:https://www.mca.gov.cn/article/sj/xzqh/2020/
二级页面的url地址:https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html
注意:获取二级页面的url地址时,因为网站加入了反爬机制,在响应内容中嵌入了JS,所以url地址会进行跳转,在一级页面中获取的url地址并不是真实的url地址
从上面的动图中可以看到:url地址从 https://www.mca.gov.cn//article/sj/xzqh/2020/202101/20210100031547.shtml
跳转成了 https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html
那么应该如何获取二级页面真实的url地址呢?
本文采用的方法是:在程序运行时打印二级页面的响应内容,在响应内容中Ctrl+F 寻找 url地址(https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html
)
写xpath表达式 & re正则表达式
一级页面的xpath表达式://tr//@href
二级页面的re表达式:window.location.href="(.*?)
def __init__(self):self.url = 'https://www.mca.gov.cn/article/sj/xzqh/2020/' # url地址
def get_html(self, url):"""function: 功能函数1:获取htmlin: url:url地址out: html:返回响应内容return: html:返回响应内容others: Func1:Get HTML"""headers = {'User-Agent': UserAgent().random} # 构建随机请求头html = requests.get(url=url, headers=headers).text # get方法获取响应内容return html
def xpath_func(self, html, xpath_bds):"""function: 功能函数2:xpath解析提取数据in: html:响应内容xpath_bds:xpath表达式out: r_list:返回匹配内容return: r_list:返回匹配内容others: """p = etree.HTML(html) # 创建解析对象r_list = p.xpath(xpath_bds) # 解析对象调用xpath表达式return r_list # 返回匹配内容
def parse_html(self):"""function: 逻辑函数1、向主页发请求,提取最新月份的链接2、向最新月份的链接发请求,提取数据in: Noneout: Nonereturn: int >0 ok, <0 some wrong others: Logic Func"""one_html = self.get_html(url=self.url) # 获取html内容one_xpath = '//tr//@href' # 定义xpath表达式href_list = self.xpath_func(html=one_html, xpath_bds=one_xpath) # xpath解析提取数据if href_list: # 判断是否存在one_url = 'https://www.mca.gov.cn' + href_list[0] # 拼接返回列表的第一项self.detail_page(one_url) # 调用 详情页获取具体数据函数else:print("提取最新链接失败!")
def detail_page(self, one_url):"""function: 详情页获取具体数据in: one_url:一级页面的url地址out: Nonereturn: Noneothers: The Details Page Gets Data"""# 在响应内容中嵌入JS,进行了url地址的跳转two_html = self.get_html(one_url) # 传入详情页的url地址true_url = self.get_true_url(two_html) # 从响应内容中提取真实返回数据的链接true_html = self.get_html(true_url) # 开始从真实链接中提取数据two_xpath = "//tr[@height='19']" # 写xpath表达式tr_list = self.xpath_func(html=true_html, xpath_bds=two_xpath)item = {} # 定义一个空字典for tr in tr_list:item["name"] = tr.xpath('./td[3]/text()')[0].strip()item["code"] = tr.xpath('./td[2]/text()|./td[2]/span/text()')[0].strip()print(item)
def get_true_url(self, two_html):"""function: 从响应内容中提取真实返回数据的url地址in: two_html:二级页面的响应内容out: true_url[0]:真实的url地址return: true_url[0]:真实的url地址others: From Html Get True Url"""regex = 'window.location.href="(.*?)"' # 正则表达式pattern = re.compile(regex, re.S) # 创建正则表达式编译对象true_url = pattern.findall(two_html) # 使用findall方法return true_url[0] # 返回真实的url地址
def run(self):"""function: 程序入口函数in: Noneout: Nonereturn: Noneothers: Program Entry Func"""self.parse_html() # 调用逻辑函数
import re
import requests
from lxml import etree
from fake_useragent import UserAgentclass MinzhengSpider:"""抓取民政部网站最新行政区划代码"""def __init__(self):self.url = 'https://www.mca.gov.cn/article/sj/xzqh/2020/' # url地址def get_html(self, url):"""function: 功能函数1:获取htmlin: url:url地址out: html:返回响应内容return: html:返回响应内容others: Func1:Get HTML"""headers = {'User-Agent': UserAgent().random} # 构建随机请求头html = requests.get(url=url, headers=headers).text # get方法获取响应内容return htmldef xpath_func(self, html, xpath_bds):"""function: 功能函数2:xpath解析提取数据in: html:响应内容xpath_bds:xpath表达式out: r_list:返回匹配内容return: r_list:返回匹配内容others: """p = etree.HTML(html) # 创建解析对象r_list = p.xpath(xpath_bds) # 解析对象调用xpath表达式return r_list # 返回匹配内容def parse_html(self):"""function: 逻辑函数1、向主页发请求,提取最新月份的链接2、向最新月份的链接发请求,提取数据in: Noneout: Nonereturn: int >0 ok, <0 some wrong others: Logic Func"""one_html = self.get_html(url=self.url) # 获取html内容one_xpath = '//tr//@href' # 定义xpath表达式href_list = self.xpath_func(html=one_html, xpath_bds=one_xpath) # xpath解析提取数据if href_list: # 判断是否存在one_url = 'https://www.mca.gov.cn' + href_list[0] # 拼接返回列表的第一项self.detail_page(one_url) # 调用 详情页获取具体数据函数else:print("提取最新链接失败!")def detail_page(self, one_url):"""function: 详情页获取具体数据in: one_url:一级页面的url地址out: Nonereturn: Noneothers: The Details Page Gets Data"""# 在响应内容中嵌入JS,进行了url地址的跳转two_html = self.get_html(one_url) # 传入详情页的url地址true_url = self.get_true_url(two_html) # 从响应内容中提取真实返回数据的链接true_html = self.get_html(true_url) # 开始从真实链接中提取数据two_xpath = "//tr[@height='19']" # 写xpath表达式tr_list = self.xpath_func(html=true_html, xpath_bds=two_xpath)item = {} # 定义一个空字典for tr in tr_list:item["name"] = tr.xpath('./td[3]/text()')[0].strip()item["code"] = tr.xpath('./td[2]/text()|./td[2]/span/text()')[0].strip()print(item)def get_true_url(self, two_html):"""function: 从响应内容中提取真实返回数据的url地址in: two_html:二级页面的响应内容out: true_url[0]:真实的url地址return: true_url[0]:真实的url地址others: From Html Get True Url"""regex = 'window.location.href="(.*?)"' # 正则表达式pattern = re.compile(regex, re.S) # 创建正则表达式编译对象true_url = pattern.findall(two_html) # 使用findall方法return true_url[0] # 返回真实的url地址def run(self):"""function: 程序入口函数in: Noneout: Nonereturn: Noneothers: Program Entry Func"""self.parse_html() # 调用逻辑函数if __name__ == '__main__':spider = MinzhengSpider()spider.run()
上一篇:精进不休下一句