1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 03.获取网页源代码

03.获取网页源代码

时间:2023-11-03 06:30:51

相关推荐

03.获取网页源代码

主要内容

Resquests 库获取网页源代码使用 Selenium 库获取网页源代码使用requests 库 和 Selenium 库爬取网页的优缺点

一、Resquests 库获取网页源代码

1.1 使用Requests 库获取百度新闻的网页源代码

具体代码:

import requestsurl = '/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=阿里巴巴'res = requests.get(url).textprint(res)

获取到的网页源代码:

<html><head><script>location.replace(location.href.replace("https://","http://"));</script></head><body><noscript><meta http-equiv="refresh" content="0;url=/"></noscript></body></html>

可以看到没有获取到真正的网页源代码,这是因为百度新闻网站只认可浏览器发送的访问请求,不认可Python发送的访问请求。

解决方案:此时需要通过设置requests.get()函数的参数headers,以模拟浏览器进行访问。

headers = {"User-Agent":"Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 103.0.5060.114Safari / 537.36Edg / 103.0.1264.62"}

1.2 改进版——模拟浏览器获取真实网址源代码

实现代码:

import requestsurl = '/s?ie=utf-8&f=8&rsv_bp=1&rsv_idx=1&tn=baidu&wd=阿里巴巴'headers = {"User-Agent":"Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 103.0.5060.114Safari / 537.36Edg / 103.0.1264.62"}res = requests.get(url,headers=headers).textprint(res)

1.3 关于 参数 headers 具体介绍

参数headers用于向网站提供访问者的信息,其中的User-Agent(用户代理)反映了访问者使用的是哪种浏览器

虽然有时不加headers也能获得网页的源代码(如爬取Python官网),但是headers的设置和使用并不麻烦,而且可以避免可能会出现的爬取失败,所以还是建议加上headers。

每次只需要只要记得在爬虫程序的最前面写上如下代码:

headers = {"User-Agent":"Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 103.0.5060.114Safari / 537.36Edg / 103.0.1264.62"}

然后每次使用requests.get()函数访问网址时,加上headers=headers参数即可

1.4 Requests库的缺点

使用requests 库获取的是未经渲染的网页源代码,如果用它来爬取动态渲染的网页,就往往爬取不断我们想要的结果

快速验证网页是否被动态渲染的方法:

右键快捷菜单查看网页源代码,若看到的网页源代码内容很少,也不包含用开发者工具能看到的信息,就可以判定用开发者工具看到的网页源代码是动态渲染后的结果

要从经过动态渲染的网页中爬取数据的办法:

需要使用Selenium库打开一个模拟器访问网页,然后获取渲染后的网页源代码

二、使用 Selenium 库获取网页源代码

2.1 模拟浏览器以及Selenium 库的安装

要使用Selenium库爬取数据,除了需要为Python安装Selenium库,还需要安装一个模拟浏览器(详细安装步骤看博客4)。Selenium库控制这个模拟浏览器去访问网页,才能获取网页源代码。

2.2 获取网页源代码

使用Selenium库获取新浪财经股票信息

import timefrom selenium import webdriverbrowser = webdriver.Chrome()browser.get('/stock/')data = browser.page_source # 核心代码print(data)time.sleep(1000)

使用下面的代码,就能关闭模拟浏览器

browser.quit()

三、使用requests 库 和 Selenium 库爬取网页的优缺点

因为Requests库是直接访问网页,爬取速度非常快;而Selenium库要先打开模拟浏览器再访问网页,导致爬取速度较慢如果说Requests库可以爬取50%的网站,那么Selenium库可以爬取95%的网站,大部分爬取难度较高的网站都可以用Selenium库获取网页源代码实战中通常将这两个库结合使用,实现优势互补:如果用Requests库能获取到需要的网页源代码,那么优先使用Requests库进行爬取;如果用Requests库获取不到,再使用Selenium库进行爬取。

如果觉得文章不错,可以给我点赞鼓励一下我,欢迎收藏

关注我,我们一起学习,一起进步!!!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。