【js逆向】scrapy基础

目录

一, 爬虫工程化

二, scrapy简介

三, Scrapy工作流程(重点)

四, scrapy安装

4.1 pip 安装

4.2 wheel安装

五, Scrapy实例

六, 自定义数据传输结构item

七, scrapy使用小总结


一, 爬虫工程化

在之前的学习中我们已经掌握了爬虫这门技术需要的大多数的技术点, 但是我们现在写的代码还很流程化, 很难进行商用的. 想要我们的爬虫达到商用级别, 必须要对我们现在编写的爬虫代码进行大刀阔斧式的重组, 已达到工程化的爬虫. 何为工程化, 就是让你的程序更加的有体系, 有逻辑, 更加的模块化.

就好比, 我们家里以前做过鞋子, 我妈妈给我做鞋, 她需要从画图纸到裁剪到最后的缝合, 一步一步的完成一双鞋子的制作. 这种手工鞋子如果每年做个几双, 没问题. 我妈妈辛苦一点, 也能搞定. 但是, 如果现在我想去售卖这个鞋子. 再依靠妈妈一双一双的缝制. 你不赔死, 也得让你妈打死. 为什么? 第一, 产能跟不上. 一个人的力量是有限的, 第二, 一个人要完整的把制作鞋子的工艺从头搞到尾. 就算你想招人分担一下. 貌似也不好找这样厉害的手艺人. 怎么办? 聪明的你可能已经想到了. 从头到尾完成一双鞋的人不好找. 那我就把这个工艺过程分开. 分成4份, 画图, 裁剪, 缝合, 验收. 招4个人. 每个人就负责一小部分. 并且这一小部分是很容易完成的. 最终只要有一个人(我)来做一个总指挥. 我的制鞋小工厂就建起来了.

上述逻辑同样适用于我们的爬虫, 想想, 到目前为止, 我们所编写的爬虫我们都是从头到尾的每一步都要亲力亲为. 这样做固然有其优点(可控性更好), 但是各位请认真思考. 这样的代码逻辑是不能形成批量生产的效果的(写100个爬虫). 很多具有共通性的代码逻辑都没有进行重复利用. 那我们就可以考虑看看, 能不能把一些共性的问题(获取页面源代码, 数据存储), 单独搞成一个功能. 如果我们把这些功能单独进行编写. 并且产生类似单独的功能模块, 将大大的提高我们爬虫的效率. 已达到我们爬虫工程化开发的效果.

爬虫工程化: 对爬虫的功能进行模块化的开发. 并达到可以批量生产的效果(不论是开发还是数据产出)

二, scrapy简介

Scrapy到目前为止依然是这个星球上最流行的爬虫框架. 摘一下官方给出对scrapy的介绍

An open source and collaborative framework for extracting the data you need from websites.
​
In a fast, simple, yet extensible way.

scrapy的特点: 速度快, 简单, 可扩展性强.

Scrapy的官方文档(英文): Scrapy 2.11 documentation — Scrapy 2.11.0 documentation

三, Scrapy工作流程(重点)

# 伪代码, 只为说明
def get_page_srouce():resp = requests.get(xxxxx)return resp.text | resp.json()def parse_source():xpath, bs4, rereturn datadef save_data(data):txt, csv, mysql, mongodbdef main():  # 负责掌控全局# 首页的页面源代码ret = get_page_source()  # 获取页面源代码, 发送网络请求data = parse_source(ret)  # 去解析出你要的数据# 需要继续请求新的urlwhile: # 详情页 ret = get_page_source()  # 获取页面源代码, 发送网络请求data = parse_source(ret)  # 去解析出你要的数据save_data(data) # 负责数据存储# 详情页如果还有分页.# ...继续上述操作. if __name__ == '__main__':main()
 

之前我们所编写的爬虫的逻辑:

scrapy的工作流程:

整个工作流程:

  1. 爬虫中起始的url构造成request对象, 并传递给调度器.
  2. 引擎调度器中获取到request对象. 然后交给下载器
  3. 下载器来获取到页面源代码, 并封装成response对象. 并回馈给引擎
  4. 引擎将获取到的response对象传递给spider, 由spider对数据进行解析(parse). 并回馈给引擎
  5. 引擎将数据传递给pipeline进行数据持久化保存或进一步的数据处理.
  6. 在此期间如果spider中提取到的并不是数据. 而是子页面url. 可以进一步提交给调度器, 进而重复步骤2的过程
# 伪代码, 只为说明
def get_page_srouce(url, method):if method == get:resp = requests.get(xxxxx)return resp.text | resp.json()def parse_source():xpath, bs4, redef save_data(data):txt, csv, mysql, mongodbdef main():  # 负责掌控全局->为了你理解# 主页req = spider.get_first_req()while 1:scheduler.send(req)next = scheduler.next_req()sth = downloader.get_page_source(next)data = spider.parse(sth)if data is 数据:pipeline.process_item(data)if __name__ == '__main__':main()
上述过程中一直在重复着几个东西,
  1. 引擎(engine)

    scrapy的核心, 所有模块的衔接, 数据流程梳理.

  2. 调度器(scheduler)

    本质上这东西可以看成是一个集合和队列. 里面存放着一堆我们即将要发送的请求. 可以看成是一个url的容器. 它决定了下一步要去爬取哪一个url. 通常我们在这里可以对url进行去重操作.

  3. 下载器(downloader)

    它的本质就是用来发动请求的一个模块. 小白们完全可以把它理解成是一个requests.get()的功能. 只不过这货返回的是一个response对象.

  4. 爬虫(spider)

    这是我们要写的第一个部分的内容, 负责解析下载器返回的response对象.从中提取到我们需要的数据.

  5. 管道(pipeline)

    这是我们要写的第二个部分的内容, 主要负责数据的存储和各种持久化操作.

经过上述的介绍来看, scrapy其实就是把我们平时写的爬虫进行了四分五裂式的改造. 对每个功能进行了单独的封装, 并且, 各个模块之间互相的不做依赖. 一切都由引擎进行调配. 这种思想希望你能知道--解耦. 让模块与模块之间的关联性更加的松散. 这样我们如果希望替换某一模块的时候会非常的容易. 对其他模块也不会产生任何的影响.

到目前为止, 我们对scrapy暂时了解这么多就够了. 后面会继续在这个图上进一步展开.

四, scrapy安装

4.1 pip 安装

在windows上安装scrapy是一个很痛苦的事情. 可能会出现各种各样的异常BUG.

scrapy 2.5.1 -> scrapy-redis(0.7.2)

注意: 由于scrapy的升级. 导致scrapy-redis无法正常使用.所以这里我们选择2.5.1这个版本作为学习. 后期各位可以根据scrapy-redis的升级而跟着升级scrapy.

先使用pip直接安装看看报错不

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple scrapy==2.5.1 
pip install scrapy==2.5.1

如果安装成功, 直接去创建项目即可

如果安装失败. 请先升级一下pip. 然后重新安装scrapy即可.

最新版本的pip升级完成后. 安装依然失败, 可以根据报错信息进行一点点的调整, 多试几次pip. 直至success.

4.2 wheel安装

如果上述过程还是无法正常安装scrapy, 可以考虑用下面的方案来安装:

  1. 安装wheel

    pip install wheel
  2. 下载twisted安装包, https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted

3. 用wheel安装twisted.

pip install Twisted‑21.7.0‑py3‑none‑any.whl  

4.安装pywin32

pip install pywin32

5.安装scrapy

pip install scrapy

总之, 最终你的控制台输入scrapy version能显示版本号. 就算成功了

五, Scrapy实例

接下来, 我们用scrapy来完成一个超级简单的爬虫, 目标: 深入理解Scrapy工作的流程, 以及各个模块之间是如何搭配工作的.

  1. 创建项目:

    scrapy startproject 项目名称

    示例:

    scrapy startproject mySpider_2

    创建好项目后, 我们可以在pycharm里观察到scrapy帮我们创建了一个文件夹, 里面的目录结构如下:

    mySpider_2   # 项目所在文件夹, 建议用pycharm打开该文件夹├── mySpider_2          # 项目跟目录│   ├── __init__.py│   ├── items.py        # 封装数据的格式│   ├── middlewares.py  # 所有中间件│   ├── pipelines.py    # 所有的管道│   ├── settings.py     # 爬虫配置信息│   └── spiders         # 爬虫文件夹, 稍后里面会写入爬虫代码│       └── __init__.py└── scrapy.cfg          # scrapy项目配置信息,不要删它,别动它,善待它. 
    ​
  2. 创建爬虫

    cd 文件夹  # 进入项目所在文件夹
    scrapy genspider 爬虫名称 允许抓取的域名范围

    示例:

    cd mySpider_2
    scrapy genspider youxi 4399.com

    效果:

    (base) sylardeMBP:第七章 sylar$ cd mySpider_2
    (base) sylardeMBP:mySpider_2 sylar$ ls
    mySpider_2      scrapy.cfg
    (base) sylardeMBP:mySpider_2 sylar$ scrapy genspider youxi http://www.4399.com/
    Created spider 'youxi' using template 'basic' in module:mySpider_2.spiders.youxi
    (base) sylardeMBP:mySpider_2 sylar$ 

    至此, 爬虫创建完毕, 我们打开文件夹看一下.

    ├── mySpider_2
    │   ├── __init__.py
    │   ├── items.py
    │   ├── middlewares.py
    │   ├── pipelines.py
    │   ├── settings.py
    │   └── spiders
    │       ├── __init__.py
    │       └── youxi.py   # 多了一个这个. 
    └── scrapy.cfg
    ​

  3. 编写数据解析过程

    完善youxi.py中的内容.

    import scrapy
    ​
    class YouxiSpider(scrapy.Spider):name = 'youxi'  # 该名字非常关键, 我们在启动该爬虫的时候需要这个名字allowed_domains = ['4399.com']  # 爬虫抓取的域.start_urls = ['http://www.4399.com/flash/']  # 起始页
    ​def parse(self, response, **kwargs):# response.text  # 页面源代码# response.xpath()  # 通过xpath方式提取# response.css()  # 通过css方式提取# response.json() # 提取json数据
    ​# 用我们最熟悉的方式: xpath提取游戏名称, 游戏类别, 发布时间等信息li_list = response.xpath("//ul[@class='n-game cf']/li")for li in li_list:name = li.xpath("./a/b/text()").extract_first()category = li.xpath("./em/a/text()").extract_first()date = li.xpath("./em/text()").extract_first()
    ​dic = {"name": name,"category": category,"date": date}
    ​# 将提取到的数据提交到管道内.# 注意, 这里只能返回 request对象, 字典, item数据, or Noneyield dic

    注意:

    ==spider返回的内容只能是字典, requestes对象, item数据或者None. 其他内容一律报错==

    运行爬虫:

    scrapy crawl 爬虫名字

    实例:

    scrapy crawl youxi

  4. 编写pipeline.对数据进行简单的保存

    数据传递到pipeline, 我们先看一下在pipeline中的样子.

    首先修改settings.py文件中的pipeline信息

    ITEM_PIPELINES = {# 前面是pipeline的类名地址               # 后面是优先级, 优先级月低越先执行'mySpider_2.pipelines.Myspider2Pipeline': 300,
    }

    然后我们修改一下pipeline中的代码:

    class Myspider2Pipeline:# 这个方法的声明不能动!!! 在spider返回的数据会自动的调用这里的process_item方法. # 你把它改了. 管道就断了def process_item(self, item, spider):print(item)return item

六, 自定义数据传输结构item

在上述案例中, 我们使用字典作为数据传递的载体, 但是如果数据量非常大. 由于字典的key是随意创建的. 极易出现问题, 此时再用字典就不合适了. Scrapy中提供item作为数据格式的声明位置. 我们可以在items.py文件提前定义好该爬虫在进行数据传输时的数据格式. 然后再写代码的时候就有了数据名称的依据了.

item.py文件

import scrapy
​
class GameItem(scrapy.Item):# 定义数据结构name = scrapy.Field()category = scrapy.Field()date = scrapy.Field()
class Person:private String name;private int age;dic = {name: "alex", age: 18}
p = Person( "alex", 18)
​

spider中. 这样来使用:

from mySpider_2.items import GameItem
​
# 以下代码在spider中的parse替换掉原来的字典
item = GameItem()
item["name"] = name
item["category"] = category
item["date"] = date
yield item

七, scrapy使用小总结

至此, 我们对scrapy有了一个非常初步的了解和使用. 快速总结一下. scrapy框架的使用流程:

  1. 创建爬虫项目. scrapy startproject xxx

  2. 进入项目目录. cd xxx

  3. 创建爬虫 scrapy genspider 名称 抓取域

  4. 编写item.py 文件, 定义好数据item

  5. 修改spider中的parse方法. 对返回的响应response对象进行解析. 返回item

  6. 在pipeline中对数据进行保存工作.

  7. 修改settings.py文件, 将pipeline设置为生效, 并设置好优先级

ROBOTSTXT_OBEY = False
LOG_LEVEL = 'ERROR'
  1. 启动爬虫 scrapy crawl 名称

    os sys 启动
# import os
# import sys
# os.system('python -m scrapy crawl duanzi')

        cmdline 启动

# from scrapy import cmdline
# cmdline.execute('scrapy crawl duanzi'.split())
# sys.argv = ['scrapy', 'crawl', 'duanzi']
# cmdline.execute()
   subprocess 启动
# import subprocess 
# subprocess.call('scrapy crawl duanzi'.split())

        控制台启动

terminal>>
# scrapy crawl duanzi

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/449957.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

OpenCV学习记录——形态学处理

文章目录 前言一、腐蚀和膨胀二、高级形态学运算三、具体应用代码 前言 形态学是图像处理中最常用的技术之一,它主要用于从图像中提取有意义的形状信息,例如边界和连通区域,以便后续的识别工作能够捕捉到目标对象最重要的形状特征。此外&…

车载测试Vector工具CANoe——常见问题汇总(下)

车载测试Vector工具CANoe——常见问题汇总(下) 我是穿拖鞋的汉子,魔都中坚持长期主义的汽车电子工程师(Wechat:gongkenan2013)。 老规矩,分享一段喜欢的文字,避免自己成为高知识低文化的工程师: 屏蔽力是信息过载时代一个人的特殊竞争力,任何消耗你的人和事,多看一…

elementUI中el-tree组件单选没有复选框时,选中、current-node-key高亮、刷新后保留展开状态功能的实现

目录 一、代码实现1. 属性了解 ([更多](https://element.eleme.cn/#/zh-CN/component/tree))2. 实现步骤3.代码示例 二、 效果图 一、代码实现 1. 属性了解 (更多) node-key 每个树节点用来作为唯一标识的属性,整棵树…

发布5-JRT在Linux开发

JRT作为全信创支持的架构,设计之初就是计划完全能脱离Win开发和运行的,设计目标不仅仅是发布程序能脱Win,开发自己也要能脱Win。那么就不能依赖一些只能在Windows下运行或者好使的工具。JRTClient基于javafx开发、JRTBrowser基于Electron开发…

List集合接口的介绍和使用

一.关于List集合类的继承关系图 List接口继承了Collection接口,而List接口下有三个重要的实现类:ArrayList,LinkedList,Vector 二.List接口的基本介绍 1.List接口是Collection接口的子接口2.存入List集合中的元素是有序的(即添加…

SVDiff: Compact Parameter Space for Diffusion Fine-Tuning——【论文笔记】

本文发表于ICCV 2023 论文地址:ICCV 2023 Open Access Repository (thecvf.com) 官方代码:mkshing/svdiff-pytorch: Implementation of "SVDiff: Compact Parameter Space for Diffusion Fine-Tuning" (github.com) 一、Introduction 最近几…

Xmind 2023 下载安装教程,保姆级教程,小白也能轻松搞定,附安装包

前言 XMind 是一款非常实用的思维导图软件,应用全球最先进的Eclipse RCP 软件架构,全力打造易用、高效的可视化思维软件,强调软件的可扩展、跨平台、稳定性和性能,致力于使用先进的软件技术帮助。 准备工作 1、Win7 及以上系统…

支付宝直连商户处理支付交易投诉管理,支持多商户

大家好,我是小悟 1、问题背景 玩过支付宝生态的,或许就有这种感受,如果收到投诉单,不会通知到手机端,只会在支付宝商家后台-账号中心-安全中心-消费者投诉-支付交易投诉那里显示。那你能一直盯着电脑看吗?…

STL——空间配置器

空间配置器是STL六大组件之一,它和其他五个组件相互配合,起着很关键的作用。 容器:各种数据结构、如vector、list、stack、deque、queue、set、map、unordered_map等等算法:各种算法,如sort、serach、copy、erase 提供…

LED点阵屏(基于51单片机)

师从江科大 LED点阵屏 LED点阵屏由若干个独立的LED组成,LED以矩阵的形式排列,以灯珠亮灭来显示文字、图片、视频等。 LED点阵屏分类 按颜色:单色、双色、全彩 按像素:8*8、16*16等(大规模的LED点阵通常由很多个…

Llama2大模型开源,大模型的Android时代来了?

就昨天凌晨,微软和Meta宣布Llama2大模型开源且进一步放开商用,一下朋友圈刷屏。要知道,开源界最强大的模型就是过去Meta开源的Llama,而现在Llama2更强大,又开放商用,更有微软大模型霸主企业撑腰(微软既投资大模型界的IOS——ChatGPT,又联合发布大模型的Android——Llam…

阿里云OSS对象存储

一、前言 阿里云对象存储OSS作用:用于存储图片、视屏、文件等数据。 参考阿里云文档地址:阿里云对象存储教程 二、总体思路 说明:客户端给服务端发送请求,获取policy和signature等数据(服务端提供)&#…