windows下安装es及logstash、kibna

1、安装包下载
elasticsearch
https://www.elastic.co/cn/downloads/past-releases#elasticsearch


kibana安装包地址:
https://www.elastic.co/cn/downloads/past-releases/kibana-8-10-4

logstash安装包地址:
https://www.elastic.co/cn/downloads/past-releases/logstash-8-10-4


elasticsearch-analysis-ik包下载地址:
https://github.com/medcl/elasticsearch-analysis-ik/releases


2、解压安装包,并将elasticsearch-analysis-ik-8.10.4目录放到es的plugins目录下


3、修改es的config目录下的elasticsearch.yml


4、在终端启动es,在bin目录下点击elasticsearch.bat


5、在浏览器上查看

6、设置kibana的中文显示,修改kibana.yml


 

7、使用logstash进行mysql数据库数据同步到es配置

logstash.conf配置

# 连接到mysql数据库
input {
  jdbc {
    # MySQL JDBC驱动库的路径
    jdbc_driver_library => "D:\soft\third_soft\elasticsearch\logstash-8.10.4\config\mysql-connector-java-8.0.11.jar" 
    jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
    # MySQL数据库的连接字符串
    jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/main_literature?characterEncoding=utf8&useSSL=false&serverTimezone=UTC&rewriteBatchedStatements=true"
    # MySQL数据库的用户名
    jdbc_user => "root"
    # MySQL数据库的密码
    jdbc_password => "****"
    # 开启分页
    jdbc_paging_enabled => true
    # 分页每页数量,可以自定义
    jdbc_page_size => "10000"
    # 查询语句
    statement => "SELECT * FROM literature_parsing_record WHERE id > :sql_last_value"
    # 定时执行的时间间隔,这里设置为每分钟执行一次。含义:分、时、天、月、年
    schedule => "* * * * *"
    # 定义的类型名称,说明哪个输入到哪个输出类型,与output中的if判断值对应
    type => "literature_parsing_record"
    # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到last_run_metadata_path的文件
    use_column_value => true
    # 记录上一次追踪的结果值
    last_run_metadata_path => "D:\soft\third_soft\elasticsearch\logstash-8.10.4\config\track_id"
    # 用于增量同步的字段,如果use_column_value为true,配置本参数,追踪的column名,可以是自增id或时间
    tracking_column => "id"
    # tracking_colum 对应字段的类型
    tracking_column_type => numeric
    # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
    clean_run => false
    # 列字段是否都转为小写名称
    lowercase_column_names => false
    # 设置时区
    jdbc_default_timezone =>"Asia/Shanghai"
  }
  jdbc {
    # MySQL JDBC驱动库的路径
    jdbc_driver_library => "D:\soft\third_soft\elasticsearch\logstash-8.10.4\config\mysql-connector-java-8.0.11.jar" 
    jdbc_driver_class => "com.mysql.cj.jdbc.Driver"
    # MySQL数据库的连接字符串
    jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/main_literature?characterEncoding=utf8&useSSL=false&serverTimezone=UTC&rewriteBatchedStatements=true"
    # MySQL数据库的用户名
    jdbc_user => "root"
    # MySQL数据库的密码
    jdbc_password => "*****"
    # 开启分页
    jdbc_paging_enabled => true
    # 分页每页数量,可以自定义
    jdbc_page_size => "10000"
    # 查询语句
    statement => "SELECT * FROM literature_content_record WHERE id > :sql_last_value"
    # 定时执行的时间间隔,这里设置为每分钟执行一次。含义:分、时、天、月、年
    schedule => "* * * * *"
    # 定义的类型名称,说明哪个输入到哪个输出类型,与output中的if判断值对应
    type => "literature_content_record"
    # 是否开启记录上次追踪的结果,也就是上次更新的时间,这个会记录到last_run_metadata_path的文件
    use_column_value => true
    # 记录上一次追踪的结果值
    last_run_metadata_path => "D:\soft\third_soft\elasticsearch\logstash-8.10.4\config\literature_content_record_track_id"
    # 用于增量同步的字段,如果use_column_value为true,配置本参数,追踪的column名,可以是自增id或时间
    tracking_column => "id"
    # tracking_colum 对应字段的类型
    tracking_column_type => numeric
    # 是否清除 last_run_metadata_path 的记录,true则每次都从头开始查询所有的数据库记录
    clean_run => false
    # 列字段是否都转为小写名称
    lowercase_column_names => false
    # 设置时区
    jdbc_default_timezone =>"Asia/Shanghai"
  }
}

# 过滤数据
filter {
  mutate {
    # 移除Logstash自动生成的字段
    remove_field => ["@version", "@timestamp"] 
  }
}


# 连接到Elasticsearch
output {
  if[type]=="literature_parsing_record" {
    elasticsearch {
        # Elasticsearch的主机和端口
        hosts => ["http://localhost:9200"]  
        # 写入es的索引名称
        # index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
        index => "literature_parsing_record"
        # es的文档类型名称,6.x版本可以是一个索引对应多个文档类型,不建议这么做。之后版本只支持一个索引对应一个文档类型
        document_type => "doc"
        # 使用数据中的id字段作为文档id
        document_id => "%{id}" 
        # 如果使用自己配置的模板,必须配置true
        # manage_template => true
        # 
        # template_overwrite => true
        # 模板名称,与定义的模板名称对应
        # template_name => "literature_parsing_record"
        # 使用自定义模板的文件路径,模板用于创建es的索引,决定了索引的创建方式
        # template => "/opt/elasticsearch/logstash-6.6.1/template/literature_parsing_record_logstash.json"
        #user => "elastic"
        #password => "changeme"
    }
  }
  if[type]=="literature_content_record" {
    elasticsearch {
        # Elasticsearch的主机和端口
        hosts => ["http://localhost:9200"]  
        # 写入es的索引名称
        # index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}"
        index => "literature_content_record"
        # es的文档类型名称,6.x版本可以是一个索引对应多个文档类型,不建议这么做。之后版本只支持一个索引对应一个文档类型
        document_type => "doc"
        # 使用数据中的id字段作为文档id
        document_id => "%{id}" 
        # 如果使用自己配置的模板,必须配置true
        # manage_template => true
        # 
        # template_overwrite => true
        # 模板名称,与定义的模板名称对应
        # template_name => "literature_content_record"
        # 使用自定义模板的文件路径,模板用于创建es的索引,决定了索引的创建方式
        # template => "/opt/elasticsearch/logstash-6.6.1/template/literature_content_record_logstash.json"
        #user => "elastic"
        #password => "changeme"
    }
  }
  
  stdout {
      codec => json_lines
  }
}

8.下载mysql-connector-java-8.0.11.jar,放到配置的路径下

9、在终端启动logstash就可以进行数据同步了

logstash -f  D:\soft\third_soft\elasticsearch\logstash-8.10.4\config\logstash.conf

 10、在bin目录下启动kibana

11、点击开发工具查看

12、查看es中的数据

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/177847.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

骨传导蓝牙耳机哪款好?这五款骨传导耳机闭眼入都不会错!

随着科技的发展,数码产品更新换代的速度也是越来越快,如今无线蓝牙耳机已经占据主流,特别是运动爱好者,很多人都会为自己挑选一款好用的运动耳机,而骨传导耳机异军突起,凭借听歌不入耳、佩戴舒适稳固等特性…

Postman如何发送Https请求

Postman如果想要发送Https请求,需要从设置中将SSL安全认证禁用

ubuntu中使用 vscode 连接docker开发环境

文章目录 ubuntu中使用 vscode 连接docker开发环境步骤一:安装 Remote Development 插件步骤二:连接远程环境步骤三:开发 问题解决参考连接 ubuntu中使用 vscode 连接docker开发环境 Remote Development 是一个 Visual Studio Code 插件&…

FPGA时序约束与分析-简单入门

FPGA时序约束与分析-简单入门 文章目录 FPGA时序约束与分析-简单入门1. 本课程概述2. 时序约束简介2.1 什么是时序约束2.2 合理的时序约束2.3 *基于Vivado的时序约束方法 3. 时序分析的基本概念3.1 时钟与时钟偏差3.2 建立时间和保持时间3.3 时序分析中路径、沿和关系的定义 4.…

数据中心:精密空调监控,这招太高效了!

在当今日益复杂的工业环境中,精密空调系统的监控和管理变得至关重要。随着科技的迅猛发展,各行各业对温度、湿度和空气质量等参数的高度控制需求不断增加。 精密空调监控系统通过实时数据采集、分析和反馈,为企业提供了可靠的手段来确保生产环…

C++异常处理:如何使用try、catch、throw

一、概述 在C中,异常处理是一种重要的编程技术,用于处理程序运行过程中可能出现的意外情况。异常处理通过使用try、catch和throw关键字来实现。这些关键字共同协作,帮助程序员在发生错误时,更好地控制程序的流程,并优…

2017年计网408

第33题 假设 OSI 参考模型的应用层欲发送 400B 的数据 (无拆分), 除物理层和应用层之外, 其他各层在封装 PDU 时均引入 20 B 的额外开销, 则应用层数据传输效率约为( )A. 80%B. 83%C. 87%D. 91% 本题考察有关数据包逐层封装的相关概念。我们来一起分析一下。 这是要求大家必须…

数据结构:AVLTree的插入和删除的实现

个人主页 : 个人主页 个人专栏 : 《数据结构》 《C语言》《C》 文章目录 前言一、AVLTree二、AVLTree的插入插入新增节点调整平衡因子旋转左单旋(新增节点位于较高右子树的右侧)右单旋(新增节点位于较高左子树的左侧)右左双旋(新增节点在较高右子树的左子…

考研分享第3期 | 211本378分上岸大连理工电子信息经验贴

考研分享第3期 | 211本378分上岸大连理工电子信息经验贴 一、个人信息 姓名:Ming 本科院校:某211学校电子信息工程学院 电子科学与技术专业 上岸院校:大连理工大学 电子信息与电气工程学部 电子信息(0854) 择校意…

java springBoot实现RabbitMq消息队列 生产者,消费者

1.RabbitMq的数据源配置文件 # 数据源配置 spring:rabbitmq:host: 127.0.0.1port: 5672username: rootpassword: root#消息发送和接收确认publisher-confirms: truepublisher-returns: truelistener:direct:acknowledge-mode: manualsimple:acknowledge-mode: manualretry:ena…

【JavaEE】Servlet API 详解(HttpServletResponse类方法演示、实现自动刷新、实现自动重定向)

一、HttpServletResponse HttpServletResponse表示一个HTTP响应 Servlet 中的 doXXX 方法的目的就是根据请求计算得到相应, 然后把响应的数据设置到 HttpServletResponse 对象中 然后 Tomcat 就会把这个 HttpServletResponse 对象按照 HTTP 协议的格式, 转成一个字符串, 并通…

JavaScript 语句、标识符、变量

语句 JavaScript程序的单位是行(line),也就是一行一行地执行。一般情况下,每一行就是一个语句 var num 10; 语句以分号结尾,一个分号就表示一个语句结束。 标识符 标识符(identifier)指的是用来识别各种值的合法名称。最常见的标识符就是变量名标识符…