Windows环境下Elasticsearch相关软件安装

Windows环境下Elasticsearch相关软件安装

本文将介绍在 windows 环境下安装 Elasticsearch 相关的软件。

1、安装Elasticsearch

1.1 安装jdk

ElasticSearch是基于lucence开发的,也就是运行需要java jdk支持,所以要先安装JAVA环境。

由于ElasticSearch 5.x 往后依赖于JDK 1.8的,所以现在我们下载JDK 1.8或者更高版本。

这里将不再介绍JDK的安装,如果有需要请参考JDK的安装。

下载JDK1.8,下载完成后安装。

在这里插入图片描述

1.2 安装Elasticsearch

1.2.1 ElasticSearch下载

下载地址: https://www.elastic.co/downloads/elasticsearch
在这里插入图片描述

根据需要点击View past releases →选择不同的版本,这里我选择的是7.12.1

1.2.2 解压

在这里插入图片描述

1.2.3 启动Elasticsearch

进入bin目录下,双击执行elasticsearch.bat
在这里插入图片描述

看到started说明启动成功

在这里插入图片描述

1.2.4 测试

打开浏览器输入http://localhost:9200 进行测试,结果如下:

在这里插入图片描述

1.3 安装Elasticsearch-head插件

1.3.1 安装node环境

网址:https://nodejs.org/en/download/

下载Windows版msi的,下载完直接安装,一直确定。

这里选择的安装包是 node-v16.13.1-x64.msi

安装完后cmd查看版本node-v

在这里插入图片描述

1.3.2 安装grunt

grunt是一个很方便的构建工具,可以进行打包压缩、测试、执行等等的工作,5.x里之后的head插件就是通过

grunt启动的,因此需要安装grunt。

npm install -g grunt-cli

查看版本号 grunt -version

在这里插入图片描述

1.3.3 下载head插件

https://github.com/mobz/elasticsearch-head网站下载安装包,解压安装包

在这里插入图片描述

进入head文件夹下,执行命令:npm install (此处是为安装pathomjs)

如果安装速度慢,设置成淘宝的镜像重新安装

npm config set registry https://registry.npm.taobao.org

或者在https://npm.taobao.org/dist/phantomjs/下载

1.3.4 启动

安装完成之后npm run startgrunt server,启动head插件

在这里插入图片描述

访问http://localhost:9100

在这里插入图片描述

发现集群健康值是未连接,下面进行配置的修改。

1.3.5 修改es使用的参数

编辑elasticsearch-7.12.1\config\elasticsearch.yml文件

在这里插入图片描述

# 增加新的参数,这样head插件可以访问es
http.cors.enabled: true 
http.cors.allow-origin: "*"
# 注意,设置参数的时候后面要有空格

在这里插入图片描述

1.3.6 重启es

修改完配置将es重启,浏览器访问 http://localhost:9100

在这里插入图片描述

到此,Elasticsearch和ElasticSearch-head已经装好了。

1.4 Elasticsearch安装为Windows服务

elasticsearch的bin目录下有一个elasticsearch-service.bat

在这里插入图片描述

cmd 进入bin目录下执行: elasticsearch-service.bat install

在这里插入图片描述

原因是使用了系统环境变量中的jdk(1.8),而es7要求的jdk版本为11。

打开elasticsearch-env.bat,找到:

rem comparing to empty string makes this equivalent to bash -v check on env var
rem and allows to effectively force use of the bundled jdk when launching ES
rem by setting JAVA_HOME=
if defined ES_JAVA_HOME (set JAVA="%ES_JAVA_HOME%\bin\java.exe"set JAVA_TYPE=ES_JAVA_HOME
) else if defined JAVA_HOME (rem fallback to JAVA_HOMEecho "warning: usage of JAVA_HOME is deprecated, use ES_JAVA_HOME" >&2set JAVA="%JAVA_HOME%\bin\java.exe"set "ES_JAVA_HOME=%JAVA_HOME%"set JAVA_TYPE=JAVA_HOME
) else (rem use the bundled JDK (default)set JAVA="%ES_HOME%\jdk\bin\java.exe"set "ES_JAVA_HOME=%ES_HOME%\jdk"set JAVA_TYPE=bundled JDK
)

设置ES_JAVA_HOME环境变量:

在这里插入图片描述

重新执行:

在这里插入图片描述

查看电脑服务es已经存在了

在这里插入图片描述

elasticsearch-service.bat的常用命令:

install: 安装Elasticsearch服务
remove: 删除已安装的Elasticsearch服务(如果启动则停止服务)
start: 启动Elasticsearch服务(如果已安装)
stop: 停止服务(如果启动)
manager: 启动GUI来管理已安装的服务

1.5 Elasticsearch分词器Elasticsearch-Analysis-ik安装

1、进入Elasticsearch安装目录下的bin目录下执行下面命令(只支持 v5.5.1以上)

elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v5.5.3/elasticsearch-analysis-ik-5.5.3.zip

在这里插入图片描述

2、进入 Elasticsearch安装目录,新建plugins/ik文件夹

https://github.com/medcl/elasticsearch-analysis-ik/releases 找到对应的版本下载zip包,然后

解压放入上面目录重启elasticsearch就可以了。
在这里插入图片描述

3、分词测试

默认分词测试

在这里插入图片描述

ik_max_word

在这里插入图片描述

ik_smart

在这里插入图片描述

2、安装ElasticHD

可执行程序的下载地址:https://github.com/360EntSecGroup-Skylar/ElasticHD/releases/

在这里插入图片描述

下载时需要下载对应的版本:

在这里插入图片描述

下载解压后,就会有一个ElasticHD.exe 的可执行文件,我们来继续看官方说明:

Step1: Download the corresponding elasticHD version,Double click zip package to unzip
Step2: exec elastichd ./ElasticHD -p 127.0.0.1:9800 

意思是说我们要用cmd命令去启动它,在启动的时候去指定它的访问端口。

CMD命令:

cd 文件目录
ElasticHD -p 127.0.0.1:9800  

在这里插入图片描述

如果你觉得每次都这样启动麻烦,可以用个记事本写下来,然后把记事本后缀名改成.bat ,这样就双击启动了。

然后,我们浏览器访问下(如果你启动的服务想要别的电脑访问,就不要使用127.0.0.1 ,要使用局域网IP或者外网

的固定IP)。

在这里插入图片描述

当然,这个工具还有其它的一些特色功能,如果你们有需要,就自己去研究吧。

3、安装Kibana

下载地址:https://artifacts.elastic.co/downloads/kibana/kibana-7.12.1-windows-x86_64.zip

下载完成后解压:

在这里插入图片描述

先去运行es启动完毕后,在进入bin目录后点击Kibana.bat就能运行Kibana。
在这里插入图片描述

浏览器输入localhost:5601就能访问Kibana。

在这里插入图片描述

点击Explore on my ownDismiss

在这里插入图片描述

左侧下拉列表菜单:

在这里插入图片描述

选择Dev Tools

在这里插入图片描述

这样就可以执行相关的语句,这里做了一下小测试,用起来比head插件方便,head插件需要去安装node.js,相

比来说比较麻烦。

在这里插入图片描述

Kinana如果启动出错,进行如下操作:

curl -X DELETE http://localhost:9200/.kibana*
{"acknowledged":true}

4、安装Logstash

logstash 安装,下载最新版本的logstash: https://www.elastic.co/fr/downloads/logstash

在这里插入图片描述

根据自己的需要,点击View past releases →下载相应的版本,这里我下载的是这个版本logstash-7-12-1

https://www.elastic.co/cn/downloads/past-releases/logstash-7-12-1

解压到磁盘根目录下:

在这里插入图片描述

启动脚本在 logstash-7.12.1>bin

在这里插入图片描述

logstash使用

1、进入目录logstash-7.12.1 > config,打开:logstash-sample.conf,设置如下内容:

在这里插入图片描述

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.input {beats {port => 5044}
}output {elasticsearch {hosts => ["http://localhost:9200"]index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"#user => "elastic"#password => "changeme"}
}

2、进入bin目录,cmd启动

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\config\logstash-sample.conf

启动成功

在这里插入图片描述

在这里插入图片描述

3、浏览器访问

在这里插入图片描述

4.1 Logstash同步数据库配置案例

C:\zsxsoftware\logstash-7.12.1路径下新建一个sync文件夹用来进行操作。

新建一个logstash-db-sync.conf文件,文件的内容为:
在这里插入图片描述

input {jdbc {# 设置 MySql/MariaDB 数据库url以及数据库名称jdbc_connection_string => "jdbc:mysql://localhost:3306/logstash-db?useUnicode=true&characterEncoding=UTF-8&autoReconnect=true"# 用户名和密码jdbc_user => "root"jdbc_password => "root"# 数据库驱动所在位置,可以是绝对路径或者相对路径jdbc_driver_library => "C:\zsxsoftware\logstash-7.12.1\sync\mysql-connector-java-5.1.41.jar"# 驱动类名jdbc_driver_class => "com.mysql.jdbc.Driver"# 开启分页jdbc_paging_enabled => "true"# 分页每页数量,可以自定义jdbc_page_size => "10000"# 执行的sql文件路径statement_filepath => "C:\zsxsoftware\logstash-7.12.1\sync\logstash.sql"# 设置定时任务间隔  含义:分、时、天、月、年,全部为*默认含义为每分钟跑一次任务schedule => "* * * * *"# 索引类型type => "_doc"# 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到 last_run_metadata_path 的文件use_column_value => true# 记录上一次追踪的结果值last_run_metadata_path => "C:\zsxsoftware\logstash-7.12.1\sync\track_time"# 如果 use_column_value 为true, 配置本参数,追踪的 column 名,可以是自增id或者时间tracking_column => "updated_time"# tracking_column 对应字段的类型tracking_column_type => "timestamp"# 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录clean_run => false# 数据库字段名称大写转小写lowercase_column_names => false}
}
output {elasticsearch {# 如果是7.x不设置该属性会失败document_type => "_doc"# es地址hosts => ["127.0.0.1:9200"]# 同步的索引名index => "logstash-test"# 设置_docID和数据相同。itemId与sql同步脚本中的itemId保持一致document_id => "%{itemId}"# document_id => "%{id}"# 定义模板名称template_name => "myik"# 模板所在位置template => "C:\zsxsoftware\logstash-7.12.1\sync\logstash-ik.json"# 重写模板template_overwrite => true# 默认为truefalse关闭logstash自动管理模板功能,如果自定义模板,则设置为falsemanage_template => false}# 日志输出stdout {codec => json_lines}
}

logstash.sql文件内容

SELECTi.id as itemId,i.item_name as itemName,i.sell_counts as sellCounts,ii.url as imgUrl,tempSpec.price_discount as price,i.updated_time as updated_time
FROMitems i
LEFT JOINitems_img ii
oni.id = ii.item_id
LEFT JOIN(SELECT item_id,MIN(price_discount) as price_discount from items_spec GROUP BY item_id) tempSpec
oni.id = tempSpec.item_id
WHEREii.is_main = 1andi.updated_time >= :sql_last_value
--:sql_last_value是记录的最后的一个值

logstash-ik.json文件内容

{"order": 10,"version": 1,"index_patterns": ["*"],"settings": {"index": {"refresh_interval": "5s"}},"mappings": {"_default_": {"dynamic_templates": [{"message_field": {"path_match": "message","match_mapping_type": "string","mapping": {"type": "text","norms": false}}},{"string_fields": {"match": "*","match_mapping_type": "string","mapping": {"type": "text","norms": false,"analyzer": "ik_smart","fields": {"keyword": {"type": "keyword","ignore_above": 256}}}}}],"properties": {"@timestamp": {"type": "date"},"@version": {"type": "keyword"},"geoip": {"dynamic": true,"properties": {"ip": {"type": "ip"},"location": {"type": "geo_point"},"latitude": {"type": "half_float"},"longitude": {"type": "half_float"}}}}}},"aliases": {}
}

track_time文件内容

--- 1970-01-01 00:00:00.000000000 Z

进入cmd启动

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\sync\logstash-db-sync.conf

启动成功

在这里插入图片描述

在这里插入图片描述

{"@version":"1","itemName":"【天天吃货】澳洲大龙虾 餐桌霸气大菜 聚会有面子","imgUrl":"http://122.152.205.72:88/foodie/seafood-1004/img1.png","type":"_doc","price":7840,"@timestamp":"2022-06-12T04:08:00.102Z","itemId":"seafood-1004","sellCounts":206}
{"@version":"1","itemName":"美味三文鱼 寿司 聚会必备","imgUrl":"http://122.152.205.72:88/foodie/seafood-138/img1.png","type":"_doc","price":26800,"@timestamp":"2022-06-12T04:08:00.103Z","itemId":"seafood-138","sellCounts":3051}
{"@version":"1","itemName":"【天天吃货】武汉鸭胗 卤味齐全 香辣麻辣","imgUrl":"http://122.152.205.72:88/foodie/snacks-1002/img1.png","type":"_doc","price":22500,"@timestamp":"2022-06-12T04:08:00.104Z","itemId":"snacks-1002","sellCounts":147}
{"@version":"1","itemName":"新鲜卤辣香菇 香甜可口","imgUrl":"http://122.152.205.72:88/foodie/snacks-90/img1.png","type":"_doc","price":880,"@timestamp":"2022-06-12T04:08:00.104Z","itemId":"snacks-90","sellCounts":2652}
{"@version":"1","itemName":"儿童爱吃奶糖 休闲食品","imgUrl":"http://122.152.205.72:88/foodie/suger-116/img1.png","type":"_doc","price":1520,"@timestamp":"2022-06-12T04:08:00.105Z","itemId":"suger-116","sellCounts":2296}
{"@version":"1","itemName":"【天天吃货】精品碧螺春 居家必备茶叶 喝茶最佳","imgUrl":"http://122.152.205.72:88/foodie/tea-1003/img1.png","type":"_doc","price":17600,"@timestamp":"2022-06-12T04:08:00.106Z","itemId":"tea-1003","sellCounts":3100}
{"@version":"1","itemName":"养生茶必喝红茶 秋冬必备","imgUrl":"http://122.152.205.72:88/foodie/tea-148/img1.png","type":"_doc","price":22800,"@timestamp":"2022-06-12T04:08:00.108Z","itemId":"tea-148","sellCounts":2331}

索引已经新建,查看索引的信息:

在这里插入图片描述

索引的字段和数据库的查询字段是相互对应的。

查看数据:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

搜索测试:

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

结果一切正常。

4.2 通过Logstash导入演示数据到ElasticSearch

1、准备数据

https://grouplens.org/datasets/movielens/上下载数据

下载ml-latest-small.zip文件:

https://files.grouplens.org/datasets/movielens/ml-latest-small.zip

解压后得到movies.csv文件

在这里插入图片描述

2、logstash配置文件

logstash-7.12.1/conf目录下拷贝一份logstash-sample.conf文件, 命名为:logstash-movies.conf

内容如下:

# Sample Logstash configuration for creating a simple
# Beats -> Logstash -> Elasticsearch pipeline.input {file {path => "C:/zsxsoftware/logstash-7.12.1/movies/movies.csv"start_position => "beginning"sincedb_path => "C:/zsxsoftware/logstash-7.12.1/movies/null.txt"}
}filter {csv {separator => ","columns => ["id", "content", "genre"]}mutate {split => { "genre" => "|"}remove_field => ["path", "host", "@timestamp", "message"]}mutate {split => { "content" => "(" }add_field => { "title" => "%{[content][0]}"}add_field => { "year" => "%{[content][1]}"}}mutate {convert => {"year" => "integer"}strip => ["title"]remove_field => ["path", "host", "@timestamp", "content"]}
}output {elasticsearch {hosts => ["http://localhost:9200"]index => "movies"document_id => "%{id}"#user => "user"#password => "password"}stdout {}
}

3、执行导入

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\config\logstash-movies.conf

执行需要等一会,而后控制台输出内容,如下:

在这里插入图片描述

4、kibana检查数据是否导入index

在这里插入图片描述

4.3 Logstash实现数据读取

Logstash 配置文件有两个必需元素,输入(inputs)和输出(ouputs),以及一个可选元素 filters。输入插件配

置来源数据,过滤器插件在你指定时修改数据,输出插件将数据写入目标。

在这里插入图片描述

我们首先需要创建一个配置文件,配置内容如下图所示:

在这里插入图片描述

创建配置文件 weblog.conf
在这里插入图片描述

配置内容如下:

input {tcp {port => 9900}
}filter {grok {match => { "message" => "%{COMBINEDAPACHELOG}" }}mutate {convert => {"bytes" => "integer"}}geoip {source => "clientip"}useragent {source => "agent"target => "useragent"}date {match => ["timestamp", "dd/MMM/yyyy:HH:mm:ss Z"]}
}output {stdout { }elasticsearch {hosts => ["localhost:9200"]}
}

在上面,我们同时保留两个输出:stdout 及 elasticsearch。事实上,我们可以定义很多个的输出。stdout 输出对

于我们初期的调试是非常有帮助的。等我们完善了所有的调试,我们可以把上面的 stdout 输出关掉。

启动logstash:

logstash.bat -f C:\zsxsoftware\logstash-7.12.1\streamconf\weblog.conf

在这里插入图片描述

发送数据:

在这里插入图片描述

看logstash的后台输出:
在这里插入图片描述

这一次,我们打开 Kibana,执行命令,成功看到 es 中的这条记录。

在这里插入图片描述

5、安装Filebeat

5.1 下载安装包

https://www.elastic.co/cn/downloads/beats/filebeat

在这里插入图片描述

根据自己的需要,点击View past releases →下载相应的版本,这里我下载的是这个版本filebeat-7-12-1

5.2 解压

在这里插入图片描述

5.3 修改配置文件

编辑filebeat.yml配置文件:

1、配置 filebeat:inputs:path ,这里的路径是所要收集日志的路径。

在这里插入图片描述

2、配置 enabled: true 这个配置很重要,只有配置为true之后配置才可生效,否则不起作用。

在这里插入图片描述

3、配置Outputs ,这里的Outputs有elasticsearch,logstash。按照配置文件下面的示例配置即可,只能配置一

个输出,默认是ElasticSearch。

在这里插入图片描述

5.4 启动

.\filebeat -e -c filebeat.yml

在这里插入图片描述

正常情况下,应该有个链接ES的过程,将数据输出到es。

在这里插入图片描述

5.5 测试

用以下命令向beat.log文件写入内容,以下内容是全量覆盖,不是追加往里面写内容,若想改成追加内容,把下

面的>符号改成 >>即可。

echo "2020-10-31 08:55:09,578 [8] INFO  test.Logging - 2017-06-11 08:55:09--System.ArgumentOutOfRangeException" > beat.log

后台打印信息:

在这里插入图片描述

kinaba查看,多了一个索引:

在这里插入图片描述

默认情况下,Filebeat写事件到名为filebeat-7.12.1-yyyy.MM.dd的索引,其中yyyy.MM.dd是事件被索引的日

期。为了用一个不同的名字,你可以在Elasticsearch输出中设置index选项。

在这里插入图片描述

在这里插入图片描述

到目前为止,和Elasticsearch相关的一些常用的软件都介绍完毕。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/107539.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

合宙Air724UG LuatOS-Air LVGL API控件-二维码(Qrcode)

二维码(Qrcode) 示例代码 qrcodelvgl.qrcode_create(lvgl.scr_act(),nil)lvgl.qrcode_set_txt(qrcode,"https://doc.openluat.com/home")lvgl.obj_set_size(qrcode,400,400)lvgl.obj_align(qrcode, nil, lvgl.ALIGN_CENTER, 0, 0)创建 可以通…

【服务器 | 宝塔】宝塔面板卸载重装教程:清理删除宝塔面板并重新开始

宝塔面板卸载重装怎么操作?我们很多用户可能安装宝塔之后会经常看一下有没有新版本,如果有新版直接右上角 宝塔面板卸载重装怎么操作?我们很多用户可能安装宝塔之后会经常看一下有没有新版本,如果有新版直接右上角”更新”升级一下版本就可以了&#…

【聚类】DBCAN聚类

OPTICS是基于DBSCAN改进的一种密度聚类算法,对参数不敏感。当需要用到基于密度的聚类算法时,可以作为DBSCAN的一种替代的优化方案,以实现更优的效果。 原理 基于密度的聚类算法(1)——DBSCAN详解_dbscan聚类_root-ca…

OIDC协议 — 理解OIDC身份认证授权

1、OIDC协议与OAuth2协议的区别 1.1 OAuth2 协议 我们在日常开发中,OAuth2协议可能接触比较多,例如用户权限系统集成Spring Security OAuth2进行身份授权认证;那什么是OAuth2协议? OAuth 即 Open Authorization ,用于…

React-Hooks 和 React-Redux

注:Redux最新用法参考 个人React专栏 react 初级学习 Hooks基本介绍------------------------- Hooks:钩子、钓钩、钩住, Hook 就是一个特殊的函数,让你在函数组件中获取状态等 React 特性 ,是 React v16.8 中的新增功…

分类预测 | MATLAB实现WOA-CNN-BiGRU鲸鱼算法优化卷积双向门控循环单元数据分类预测

分类预测 | MATLAB实现WOA-CNN-BiGRU鲸鱼算法优化卷积双向门控循环单元数据分类预测 目录 分类预测 | MATLAB实现WOA-CNN-BiGRU鲸鱼算法优化卷积双向门控循环单元数据分类预测分类效果基本描述模型描述程序设计参考资料 分类效果 基本描述 1.Matlab实现WOA-CNN-BiGRU多特征分类…

PyQt5安装以及使用

PyQt5安装以及使用 1 简介2 安装方法2.1 pip install PyQt52.2 pip install PyQt5‑5.15.9‑cp37‑cp37m‑win_amd64.whl 3 Qt相关工具介绍4 安装PyQt5-tools5 设置环境变量6 测试7 Qt Designer7.1 安装7.2 在 PyCharm 中配置 Qt Designer7.3 在PyCharm中测试Qt Designer 8 将u…

使用ExcelJS快速处理Node.js爬虫数据

什么是ExcelJS ExcelJS是一个用于处理Excel文件的JavaScript库。它可以让你使用JavaScript创建、读取和修改Excel文件。 以下是ExcelJS的一些主要特点: 支持xlsx、xlsm、xlsb、xls格式的Excel文件。可以创建和修改工作表、单元格、行和列。可以设置单元格样式、字…

android studio安卓模拟器高德SDK定位网络连接异常

背景 使用了高德SDK创建了一个 project, 下面是运行界面: 点击 "开始定位"按钮, 结果并没有返回定位信息, 而是报错了: 根据错误提示打开这个网址: https://lbs.amap.com/api/android-location-sdk/guide/utilities/errorcode, 并且找到错误码 4 的信息, 显示的是网…

【2023年11月第四版教材】第12章《质量管理》(第三部分)

第12章《质量管理》(第三部分) 5 管理质量5.1 管理质量★★★ (17下9)5.2 数据分析★★★5.3 数据表现★★★5.4 审计★★★ 6 控制质量6.1 控制质量6.2 数据收集★★★6.3 数据分析 ★★★6.4 数据表现★★★ 5 管理质量 组过程…

mianshiyan资料汇总(整理后)

前端优化方式 css3特性, [html5的特性](https://blog.csdn.net/qq_53472371/article/details/121881111) flex, 移动端开发, 各种居中 反爬虫,加密,前端攻击,跨域 cookie session jwt相关 前端优化方式 Turbopack WebComponentes6的新特性 B…

Python Opencv实践 - SIFT关键点检测

参考资料: 关键点检测SIFT算法笔记_亦枫Leonlew的博客-CSDN博客 SIFT特征检测算子和sift cv2.xfeatures2d.SIFT_create出错的解决办法_self.siftcv2.xfeatures2d.sift_create()_刘凯数据分析的博客-CSDN博客 import cv2 as cv import numpy as np import matplo…