【Python_requests学习笔记(八)】基于requests模块 实现响应内容嵌入JS 进行url地址跳转 数据的爬取
创始人
2025-06-01 22:13:11

基于requests模块构建免费代理IP池

前言

此篇文章中介绍基于requests模块,实现对在响应内容中嵌入JS,真实的url地址进行跳转后数据的爬取,并以爬取行政区划代码数据为例进行讲解。

正文

1、需求梳理

抓取民政部网站最新行政区划代码
一级页面:
在这里插入图片描述
二级页面:
在这里插入图片描述

2、爬虫思路

  1. 确认所抓数据在响应内容中是否存在
    一级页面抓取数据:
    在这里插入图片描述
    二级页面抓取数据:
    在这里插入图片描述

  2. 分析url地址规律
    一级页面的url地址:https://www.mca.gov.cn/article/sj/xzqh/2020/
    二级页面的url地址:https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html
    注意:获取二级页面的url地址时,因为网站加入了反爬机制,在响应内容中嵌入了JS,所以url地址会进行跳转,在一级页面中获取的url地址并不是真实的url地址
    在这里插入图片描述
    从上面的动图中可以看到:url地址从 https://www.mca.gov.cn//article/sj/xzqh/2020/202101/20210100031547.shtml 跳转成了 https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html
    那么应该如何获取二级页面真实的url地址呢?
    本文采用的方法是:在程序运行时打印二级页面的响应内容,在响应内容中Ctrl+F 寻找 url地址(https://www.mca.gov.cn/article/sj/xzqh/2020/2020/202101041104.html )
    在这里插入图片描述

  3. 写xpath表达式 & re正则表达式
    在这里插入图片描述

一级页面的xpath表达式://tr//@href
在这里插入图片描述
二级页面的re表达式:window.location.href="(.*?)

  1. 编写程序框架、完善程序
    详情见3、程序实现

3、程序实现

  1. 初始化函数
    def __init__(self):self.url = 'https://www.mca.gov.cn/article/sj/xzqh/2020/'  # url地址
  1. 功能函数1:获取html
    def get_html(self, url):"""function:  功能函数1:获取htmlin:  url:url地址out:  html:返回响应内容return:  html:返回响应内容others:  Func1:Get HTML"""headers = {'User-Agent': UserAgent().random}  # 构建随机请求头html = requests.get(url=url, headers=headers).text  # get方法获取响应内容return html
  1. 功能函数2:xpath解析提取数据
    def xpath_func(self, html, xpath_bds):"""function:  功能函数2:xpath解析提取数据in:  html:响应内容xpath_bds:xpath表达式out:  r_list:返回匹配内容return:  r_list:返回匹配内容others:  """p = etree.HTML(html)  # 创建解析对象r_list = p.xpath(xpath_bds)  # 解析对象调用xpath表达式return r_list  # 返回匹配内容
  1. 逻辑函数
    def parse_html(self):"""function:  逻辑函数1、向主页发请求,提取最新月份的链接2、向最新月份的链接发请求,提取数据in:  Noneout:  Nonereturn:  int >0 ok, <0 some wrong others:  Logic Func"""one_html = self.get_html(url=self.url)  # 获取html内容one_xpath = '//tr//@href'  # 定义xpath表达式href_list = self.xpath_func(html=one_html, xpath_bds=one_xpath)  # xpath解析提取数据if href_list:  # 判断是否存在one_url = 'https://www.mca.gov.cn' + href_list[0]  # 拼接返回列表的第一项self.detail_page(one_url)  # 调用 详情页获取具体数据函数else:print("提取最新链接失败!")
  1. 详情页获取具体数据
    def detail_page(self, one_url):"""function:  详情页获取具体数据in:  one_url:一级页面的url地址out:  Nonereturn:  Noneothers:  The Details Page Gets Data"""# 在响应内容中嵌入JS,进行了url地址的跳转two_html = self.get_html(one_url)  # 传入详情页的url地址true_url = self.get_true_url(two_html)  # 从响应内容中提取真实返回数据的链接true_html = self.get_html(true_url)  # 开始从真实链接中提取数据two_xpath = "//tr[@height='19']"  # 写xpath表达式tr_list = self.xpath_func(html=true_html, xpath_bds=two_xpath)item = {}  # 定义一个空字典for tr in tr_list:item["name"] = tr.xpath('./td[3]/text()')[0].strip()item["code"] = tr.xpath('./td[2]/text()|./td[2]/span/text()')[0].strip()print(item)
  1. 从响应内容中提取真实返回数据的url地址
    def get_true_url(self, two_html):"""function:  从响应内容中提取真实返回数据的url地址in:  two_html:二级页面的响应内容out:  true_url[0]:真实的url地址return:  true_url[0]:真实的url地址others:  From Html Get True Url"""regex = 'window.location.href="(.*?)"'  # 正则表达式pattern = re.compile(regex, re.S)  # 创建正则表达式编译对象true_url = pattern.findall(two_html)  # 使用findall方法return true_url[0]  # 返回真实的url地址
  1. 程序入口函数
    def run(self):"""function:  程序入口函数in:  Noneout:  Nonereturn:  Noneothers:  Program Entry Func"""self.parse_html()  # 调用逻辑函数

4、完整代码

import re
import requests
from lxml import etree
from fake_useragent import UserAgentclass MinzhengSpider:"""抓取民政部网站最新行政区划代码"""def __init__(self):self.url = 'https://www.mca.gov.cn/article/sj/xzqh/2020/'  # url地址def get_html(self, url):"""function:  功能函数1:获取htmlin:  url:url地址out:  html:返回响应内容return:  html:返回响应内容others:  Func1:Get HTML"""headers = {'User-Agent': UserAgent().random}  # 构建随机请求头html = requests.get(url=url, headers=headers).text  # get方法获取响应内容return htmldef xpath_func(self, html, xpath_bds):"""function:  功能函数2:xpath解析提取数据in:  html:响应内容xpath_bds:xpath表达式out:  r_list:返回匹配内容return:  r_list:返回匹配内容others:  """p = etree.HTML(html)  # 创建解析对象r_list = p.xpath(xpath_bds)  # 解析对象调用xpath表达式return r_list  # 返回匹配内容def parse_html(self):"""function:  逻辑函数1、向主页发请求,提取最新月份的链接2、向最新月份的链接发请求,提取数据in:  Noneout:  Nonereturn:  int >0 ok, <0 some wrong others:  Logic Func"""one_html = self.get_html(url=self.url)  # 获取html内容one_xpath = '//tr//@href'  # 定义xpath表达式href_list = self.xpath_func(html=one_html, xpath_bds=one_xpath)  # xpath解析提取数据if href_list:  # 判断是否存在one_url = 'https://www.mca.gov.cn' + href_list[0]  # 拼接返回列表的第一项self.detail_page(one_url)  # 调用 详情页获取具体数据函数else:print("提取最新链接失败!")def detail_page(self, one_url):"""function:  详情页获取具体数据in:  one_url:一级页面的url地址out:  Nonereturn:  Noneothers:  The Details Page Gets Data"""# 在响应内容中嵌入JS,进行了url地址的跳转two_html = self.get_html(one_url)  # 传入详情页的url地址true_url = self.get_true_url(two_html)  # 从响应内容中提取真实返回数据的链接true_html = self.get_html(true_url)  # 开始从真实链接中提取数据two_xpath = "//tr[@height='19']"  # 写xpath表达式tr_list = self.xpath_func(html=true_html, xpath_bds=two_xpath)item = {}  # 定义一个空字典for tr in tr_list:item["name"] = tr.xpath('./td[3]/text()')[0].strip()item["code"] = tr.xpath('./td[2]/text()|./td[2]/span/text()')[0].strip()print(item)def get_true_url(self, two_html):"""function:  从响应内容中提取真实返回数据的url地址in:  two_html:二级页面的响应内容out:  true_url[0]:真实的url地址return:  true_url[0]:真实的url地址others:  From Html Get True Url"""regex = 'window.location.href="(.*?)"'  # 正则表达式pattern = re.compile(regex, re.S)  # 创建正则表达式编译对象true_url = pattern.findall(two_html)  # 使用findall方法return true_url[0]  # 返回真实的url地址def run(self):"""function:  程序入口函数in:  Noneout:  Nonereturn:  Noneothers:  Program Entry Func"""self.parse_html()  # 调用逻辑函数if __name__ == '__main__':spider = MinzhengSpider()spider.run()

5、实现效果

在这里插入图片描述

相关内容

热门资讯

投资者提问:请问董秘,当前中日... 投资者提问:请问董秘,当前中日关系陷入僵局乃至谷底之际,公司有规划更多使用国产光刻胶等材料来替代日系...
富德生命人寿咸阳中心支公司被罚... 12月16日金融一线消息,据咸阳金融监管分局行政处罚信息公开表显示,富德生命人寿保险股份有限公司咸阳...
市场监管总局:抓紧推进出台《互... 转自:北京日报客户端记者16日从市场监管总局获悉,市场监管总局正抓紧推进《互联网平台反垄断合规指引》...
天奇股份:锂电循环业务夯实产业... 12月16日,江西天奇金泰阁集团(简称“天奇金泰阁”)资本赋能发展大会在江西龙南举行。会上,天奇股份...
「侠客岛」他们用上了“AI分身...   炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会! (来源:海外网)来源...