python-(6-2)爬虫---小试牛刀,获得网页页面内容
创始人
2024-04-06 08:46:34

文章目录

  • 一 需求
  • 二 知识点
  • 三 分析
  • 四 代码
  • 五 补充说明

一 需求

爬取得到某搜索引擎官网的网站,并能在pycharm中打开

二 知识点

HTTP协议,即超文本传输协议,浏览器和服务器之间数据交换的基本协议。

服务器渲染:在服务器端,把数据和html整合在一起,统一返回给浏览器,在页面源代码能看到数据。

客户端渲染:第一次请求只要一个HTML骨架,第二次请求拿到数据,并进行数据展示,在页面源代码中,看不到数据。

请求的组成部分

请求行:请求方式,请求url地址,协议
请求头:服务器需要的附加信息
请求体:请求参数

响应的组成部分

状态行:状态码,协议
响应头:客户端需要的附加信息
响应体:客户端真正需要的内容

三 分析

1.从urllib库中导入urlopen,使用它来打开url
2.给需要爬虫的网页url赋值,再赋值给一个变量,可以得到对网站请求的相应信息
3.将得到相应的信息用写入的方式,打开一个新的文件,并用对应的编码方式进行解码
4.打开爬取到的网页,获取页面源代码,并关闭访问的请求

四 代码

# 导入需要的库
from urllib.request import urlopen# 用url变量获得官网的网址
url = "http://www.baidu.com"# 得到访问网站的响应信息
resp = urlopen(url)# 用不关闭文件的方式,打开得到的html文件
# 读取内容时用utf-8编码,写入数据时当然也要用utf-8解码,否则打开的网页中文会变成乱码
with open("baidu.html",mode="w",encoding="utf-8") as f:# 用写入的方式读取网页内容,并根据源码中显示的编码方式进行解码f.write(resp.read().decode("utf-8"))# 获得文件内容后,表示获取成功
print("over!!!!!!!!!!")# 最后记得关闭访问请求,就像打开文件后需要关闭一样
resp.close()

上述代码是完整的获得网站内容的源代码。

在执行代码后,同一个目录的路径下会产生一个“baidu.html"文件,用谷歌浏览器打开这个文件,就可以得到网站官网的页面内容。

五 补充说明

1)在打开文件时使用的参数encoding="utf-8"与解码的参数decode("utf-8")一般要加上的。苹果电脑MAC系统的字符集编码解码默认是utf-8,但笔者的Windows系统字符集编码和解码默认是GBK,因此需要在此处添加参数设置。

2)此处笔者利用with open() as f打开文件,不需要考虑关闭文件;但如果如用open()函数打开网页,需要再加一行代码f.close()关闭文件。

3)在这里需要注意的是,下面的代码在执行后,得到的是网站官网源代码的内容,而不是百度网页的内容信息(如下图)。

# 导入需要的库
from urllib.request import urlopen# 用url变量获得官网的网址
url = "http://www.baidu.com"# 得到访问网站的响应信息
resp = urlopen(url)# 输出获得的相应信息
print(resp.read())

相关内容

热门资讯

360 全景视频游戏下载 最新... 探索沉浸式游戏新体验!最新360全景视频游戏盘点,带你领略前所未有的游戏世界。无论是视觉震撼的环境设...
小说改编游戏推荐哪个 十大经典... 文章带你探索文学与游戏的奇妙结合,盘点十大经典小说改编的游戏作品。从畅销小说到文学瑰宝,这些游戏如何...
梓渝携两只猫咪给大家拜年 (来源:今晚报)转自:今晚报 【#梓渝携两只猫咪给大家拜...
伊朗革命卫队海军在霍尔木兹海峡... 转自:证券时报人民财讯2月16日电,当地时间16日,伊朗伊斯兰革命卫队海军在霍尔木兹海峡举行军事演习...
热气腾腾的中国年|苏锡“串门”... 春节假期刚刚开启,五湖四海的游客就纷纷与“宁”相约。2月15日晚,南京智慧旅游大数据运行监测平台发布...