博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
使用Scrapy网络爬虫框架小试牛刀,你学会了吗?
阅读量:2020 次
发布时间:2019-04-28

本文共 4172 字,大约阅读时间需要 13 分钟。

前言

这次咱们来玩一个在Python中很牛叉的爬虫框架——Scrapy。

scrapy 介绍

标准介绍

  • Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,非常出名,非常强悍。所谓的框架就是一个已经被集成了各种功能(高性能异步下载,队列,分布式,解析,持久化等)的具有很强通用性的项目模板。对于框架的学习,重点是要学习其框架的特性、各个功能的用法即可。

说人话就是

  • 只要是搞爬虫的,用这个就van事了,因为里面集成了一些很棒的工具,并且爬取性能很高,预留有很多钩子方便扩展,实在是居家爬虫的不二之选。

windows下安装scrapy

命令

pip install scrapy

默认情况下,直接pip install scrapy可能会失败,如果没有换源,加上临时源安装试试,这里使用的是清华源,常见安装问题可以参考这个文章:。

命令

pip install scrapy -i https://pypi.tuna.tsinghua.edu.cn/simple

scrapy创建爬虫项目

命令

scrapy startproject <项目名称>

示例:创建一个糗事百科的爬虫项目(记得cd到一个干净的目录哈)

 

scrapy startproject qiushibaike

图片

:此时,我们已经创建好了一个爬虫项目,但是爬虫项目是一个文件夹

图片

进入爬虫项目

如果想要进入这个项目,就要cd进这个目录,如上上图所示,先cd <项目>,再创建蜘蛛

图片

 

项目目录结构解析

此时,我们就已经进入了项目,结构如下,有一个和项目名同名的文件夹和一个scrapy.cfg文件

scrapy.cfg # scrapy配置,特殊情况使用此配置qiushibaike # 项目名同名的文件夹    items.py # 数据存储模板,定制要保存的字段    middlewares.py # 爬虫中间件    pipelines.py # 编写数据持久化代码    settings.py # 配置文件,例如:控制爬取速度,多大并发量,等    __init__.py    spiders # 爬虫目录,一个个爬虫文件,编写数据解析代码        __init__.py

呃,可能此时你并不能懂这么些目录什么意思,不过不要慌,使用一下可能就懂了,别慌。

 

创建蜘蛛

通过上述的操作,假设你已经成功的安装好了scrapy,并且进入了创建的项目

那么,我们就创建一个蜘蛛,对糗事百科段子进行爬取。

图片

创建蜘蛛命令

scrapy genspider 
<蜘蛛名称>
<网页的起始url>

示例:创建糗事百科的段子蜘蛛

scrapy genspider duanzi ww.com

图片

:网页的起始url可以随便写,可以随便改,但是必须有

此时在spider文件夹下,会多一个duanzi.py文件

图片

代码解释如下

图片

 

图片

爬取数据前准备

创建好蜘蛛之后,需要在配置一些东西的,不能直接就爬的,默认是爬取不了的,需要简单配置一下

打开settings.py文件,找到ROBOTSTXT_OBEYUSER_AGENT变量

ROBOTSTXT_OBEY配置

等于False不遵守robot协议,默认只有搜索引擎网站才会允许爬取,例如百度,必应等,个人爬取需要忽略这个,否则爬取不了

图片

USER_AGENT配置

User-Agent是一个最基本的请求必须带的参数,如果这个带的不是正常的,必定爬取不了。

User-Agent

 

Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36

图片


很多人学习python,不知道从何学起。

很多人学习python,掌握了基本语法过后,不知道在哪里寻找案例上手。
很多已经做案例的人,却不知道如何去学习更加高深的知识。
那么针对这三类人,我给大家提供一个好的学习平台,免费领取视频教程,电子书籍,以及课程的源代码!
QQ群:553215015


小试牛刀之获取糗事百科段子段子链接

准备工作做好了,那就开始吧!!!

此处我们需要有xpath的语法基础,其实挺简单的,没有基础的记得百度一下,其实不百度也没关系,跟着学,大概能看懂

实现功能

通过xpath获取每个段子下的a标签连接

注:审查元素和按住crtl+f搜索内容和写xpath这里不再啰嗦

分析页面规则

图片

通过审查工具,我们可以看到,class包含article的标签就是一个个的文章,可能你想到xpath可能可以这样写

xpath代码

 

//div[@class='article']

但是你会发现一个都查不出来,因为是包含的关系,所以需要用contains关键字

图片

我们需要这样写

xpath代码

//div[contains(@class,"article")]

图片

但是会发现,这定位的太多了,并不是每个段子的div,所以我们要多包含几个,这样,就是每个段子的div

 

//div[contains(@class,"article") and contains(@class,"block")]

图片

上述已经成功定位了一个个的段子,下面在此基础上,定位到每个段子下的a标签

根据审查元素,发现每个段子下class="contentHerf"a标签,就是每个段子的详情页

图片

详情页,要定位的a标签的href确实是详情页的url

图片

xpath代码

 

//div[contains(@class,"article") and contains(@class,"block")]//a[@class="contentHerf"]

图片

这样,我们就定位了一个个a标签,只至少在控制台操作是没问题的,那么,我们使用Python代码操作一下吧

图片

代码

def parse(self, response):    a_href_list = response.xpath('//div[contains(@class,"article") and contains(@class,"block")]//a[@class="contentHerf"]/@href'    ).extract()    print(a_href_list)

启动蜘蛛命令

 

scrapy crawl <爬虫名> [--nolog]

注:--nolog参数不加表示一系列日志,一般用于调试,加此参数表示只输入print内容

示例:启动段子命令

 

scrapy crawl duanzi --nolog

图片

成功拿到每一个链接。

 

获取详情页内容

在上述,我们成功的获取到了每个段子的链接,但是会发现有的段子是不全的,需要进入进入详情页才能看到所以段子内容,那我们就使用爬虫来操作一下吧。

我们定义一下标题内容。

图片

根据元素审查,标题的定位xpath是:

//h1[@class="article-title"]

图片

内容的xpath是:

 

//div[@class="content"]

图片

确定标题和内容的xpath定位之后,我们在python代码中实现一下。

注:但是先解决一个问题,详情页属于第二次调用了,所以我们也需要进行调用第二次,再编写代码

图片

代码

# 详情页def detail(self, response):    title = response.xpath('//h1[@class="article-title"]/text()').extract()    content = response.xpath('//div[@class="content"]//text()').extract()    print("标题:" )    print(title)    print("内容")    print(content)def parse(self, response):    a_href_list = response.xpath(        '//div[contains(@class,"article") and contains(@class,"block")]//a[@class="contentHerf"]/@href'    ).extract()    print(a_href_list)    base_url = "https://www.qiushibaike.com"    for a_href in a_href_list:        url = f"{base_url}{a_href}"        yield scrapy.Request(url=url, callback=self.detail)

结果

图片

但是会发现啊,似乎每个都是列表形式,这似乎不太行呐,我们稍微修改一下代码,这样我们拿到的就是正常的文本了,如下图所示:

图片

 

上述命令总结

创建爬虫项目

 

scrapy startproject <项目名称>

创建蜘蛛

scrapy genspider <蜘蛛名称> <网页的起始url>

启动爬虫,--nolog参数不加表示一系列日志,一般用于调试,加此参数表示只输入print内容

 

scrapy crawl <爬虫名> [--nolog]

结尾

经过入门级的操作,我相信你大概知道scrapy是怎么玩了。但是你依然可能懵逼,不懂本质,不过先走起来,才是根本,后续慢慢听我继续。

下篇正在赶飞机,如果你觉得写的还不错,记得点赞留言哈,感谢你的观看,么么哒。

用微笑告诉别人,今天的我比昨天强,今后也一样。

如果你觉得文章还可以,记得点赞留言支持我们哈。感谢你的阅读,有问题请记得在下方留言噢~

在这里还是要推荐下我自己建的Python学习群:553215015,群里都是学Python的,如果你想学或者正在学习Python ,欢迎你加入,大家都是软件开发党,不定期分享干货(只有Python软件开发相关的),包括我自己整理的一份2020最新的Python进阶资料和零基础教学,欢迎进阶中和对Python感兴趣的小伙伴加入!

 

转载地址:http://vyhxf.baihongyu.com/

你可能感兴趣的文章
module pip has no attribute main问题解决
查看>>
Python之命名元组 (namedtuple)
查看>>
使用libpcap过滤arp
查看>>
[转帖]Robots.txt指南
查看>>
多用户与多租户的区别
查看>>
Python自动化运维 - day14 - JavaScript基础
查看>>
oracle保存小数点前为"0"的问题
查看>>
ipvsadm 安装配置
查看>>
Linux shell脚本的字符串截取
查看>>
1小时点击量破千万!阿里巴巴首发:MySQL高级调优笔记!全是技术重点
查看>>
这个GItHub上的Java项目开源了 2021最全的Java架构面试复习指南
查看>>
Git神作!2021最新发布Spring Boot高级源码手册(4大主题)看完大厂面试再也不愁了
查看>>
HP-UX oracle RAC 双机实践
查看>>
解决SHELL脚本中的export无法生效的问题【转】
查看>>
区别数据结构中的堆栈与内存中的堆栈的个人总结【转】
查看>>
c++中冒号(:)和双冒号(::)的用法【转】
查看>>
Android深入浅出之Binder机制
查看>>
linux查看硬件信息
查看>>
linux支持大于4G内存
查看>>
WM_GETINFO相关
查看>>